黄仁勋最新专访:主动放弃中国AI芯片市场,是“失败者的心态”

chengsenw 网络营销评论1阅读模式

黄仁勋最新专访:主动放弃中国AI芯片市场,是“失败者的心态”

【设为星标】、【置顶公众号】、【设置关注公众号】点“赞”、“在看”、“分享”、“收藏”的数量越大,公众号推送机制提取到的数据越多,文章推送得越及时。

免责声明

本文所转载内容,均来自于网络,并不代表本人观点、立场,本人也不为其真实性负责,只为传播网络信息为目的,如有异议请及时联系,本人将予以删除。所有信息仅供在新媒体背景下的研究观点交流,普通个人投资者有可能由于获得的信息不完整,缺乏对研究观点或报告的解读能力,可能会得出有差异的结论。

近日,黄仁勋接受了科技博主 Dwarkesh Patel 的一次长访谈,两人聊了将近100分钟。

这场对话信息量很大,黄仁勋围绕几个关键问题:AI芯片竞争、供应链瓶颈、以及公司战略哲学等话题,作出了大量直接而犀利的回应。

最火爆的部分,是两人围绕对华芯片出口和布局问题,展开了长达数十分钟的正面交锋,精彩十足。

帕特尔从多个角度反复追问同一个问题:卖芯片给中国,是不是在帮对手变强?黄仁勋做了逐一回应。

黄仁勋表示,中国已经拥有大量算力,制造了全球60%以上的主流芯片,能源充足,数据中心有大量闲置产能,还有全球50%的AI研究人员。比如华为刚经历了公司历史上业绩最好的一年。所以,他认为中国没有AI芯片能力、或者通过出口管制遏制其发展,这种想法站不住脚。

黄仁勋对此发出警告。他认为,主动放弃全球第二大市场不会阻止中国进步,反而会迫使中国建立独立的技术生态,长期看将损害美国的技术领导地位。他批评当前美国政策短视,称“是失败者的心态”。

他还表示,中国是全球开源软件和开放模型的最大贡献者。目前这些开源生态还建立在美国技术栈(英伟达)之上。但如果美国把中国排除出去,这些开源贡献者会转向国产技术栈。

此外,黄仁勋还明确表示,外界将英伟达的护城河归结为锁定了稀缺供应链,这是一种误解。他认为,真正的壁垒在于英伟达拥有将“电子转化为Token”的全栈能力,从CUDA生态系统到软硬件协同设计,再到全球数亿颗GPU构成的庞大安装基数。

在他看来,任何上游的供应链瓶颈都能在两三年内攻克,唯独下游的能源政策,才是真正让他担心的长期隐患。

对于市场对CUDA优势是否正在消退的担忧,黄仁勋将CPU比作人人都能开的凯迪拉克,而英伟达的GPU则是F1赛车,需要专业工程师才能榨出极致性能。他公开挑战竞争对手在AI性能基准测试MLPerf(评估AI硬件、软件和服务在训练与推理任务中的表现)上展示所谓的成本优势,称“从第一性原理看毫无道理”。

黄仁勋认为,TPU只能做张量计算,而英伟达做的是更广泛的加速计算,能覆盖科学、数据处理等很多领域。虽然像Anthropic这样的公司确实用了TPU,但那只是特例,不代表整个行业的趋势。而且英伟达每年都推出新架构,这个速度任何ASIC团队都跟不上。

以下为黄仁勋最新专访精华版:

01 护城河神话破灭?英伟达化身“电子转Token”的桥梁

帕特尔:现在很多人觉得,AI会让软件变成“普通商品”。还有一种看法是:英伟达只是设计芯片,制造、封装、组装全靠别人,本质上像在做“外包软件”。那如果软件被商品化,英伟达会不会也被商品化?

黄仁勋:我认为,归根结底,必须有人把电子转化为Token。这个过程极其复杂,涉及的艺术、工程和科学远未被完全理解,转化之旅也远未结束。所以我不太相信商品化会真的发生。

我的理解很简单:输入是电子,输出是Token,中间就是英伟达。我们只做必须自己做的部分,而且那一部分极难,被商品化的可能性很低。

至于软件公司,我反而觉得它们不会被淘汰。像Microsoft Excel、Microsoft PowerPoint、Cadence、Synopsys 这些工具,未来会更重要。

原因是:智能体会爆发式增长。以后不是工程师用工具,而是“工程师 + 一堆智能体”一起用工具,设计空间会被大规模探索,软件使用量反而会飙升。

帕特尔:英伟达和供应链之间有上千亿美元的采购承诺。有人认为,你们真正的护城河不是技术,而是提前锁定了稀缺资源——比如产能和HBM。别人就算设计出芯片,也拿不到足够的供应。这是不是你们最大的优势?

黄仁勋:这确实是我们很难被复制的能力。我们不仅签了大量订单,还说服上游伙伴一起下注未来。我会直接跟他们讲清楚这个行业会有多大,让他们理解为什么值得投资。

他们之所以愿意优先支持英伟达,是因为我们有能力把这些产能变成真实的市场需求——我们的下游太大了。

像 NVIDIA GTC 这样的大会,本质上就是把整个AI生态串起来:上游能看到需求,下游能看到供给,大家一起看到未来。

我们是在为未来建供应链——如果未来收入能到几万亿美元,现在这些投入就是提前铺路。

帕特尔:我想更具体地了解上游是否能够真正跟上。多年来,你们的收入每年都在翻倍。你们提供给世界的算力(flops)每年增长两倍以上。

黄仁勋:在目前这种规模下还能实现翻倍,确实非常不可思议。

帕特尔:你们是台积电N3节点最大的客户,也是N2节点最大的客户之一。根据SemiAnalysis的数据,AI今年会占到N3产能的60%,明年达到86%。如果你已经占了大多数,你怎么继续翻倍?

黄仁勋:在某种程度上,全球上游和下游的即时需求总是大于供应。在任何瞬间,我们都可能受限于水管工的数量,这种情况确实会发生。

02 瓶颈?两三年就碾碎!真正的噩梦是能源政策

帕特尔:按你刚才的说法,水管工应该被邀请参加明年的GTC(调侃表示)。

黄仁勋:其实这是好事。一个行业里需求大于供给,说明机会巨大;反过来才危险。

一旦某个环节出现明显短缺,整个行业都会涌进来解决。比如前两年大家都在抱怨CoWoS封装,但现在基本不说了——产能已经被迅速拉起来,台积电 也在同步扩展封装能力。

AI刚起步时我就一直在讲这些。有些公司很早就信了,比如 Sanjay Mehrotra 领导的 Micron Technology,提前投入HBM和内存,现在回报很好。现在基本所有人都跟上了。

我们的做法是:提前几年就预判瓶颈,并主动去“塑造供应链”。

比如我们投资光通信和硅光子生态,围绕台积电搭建整套体系,推动新技术、扩产、甚至帮伙伴融资——本质上是在把未来的产能提前建出来。

帕特尔:似乎有些瓶颈比其他瓶颈更容易解决。

黄仁勋:我反而最关注“最难的那个”。现在真正稀缺的,其实是人——比如水管工、电工。这也是我不认同“AI会消灭职业”这种说法的原因。类似的误判以前也发生过,比如有人说放射科医生会消失,结果现在反而短缺。

帕特尔:那像EUV光刻机这种核心设备,总不可能无限扩吧?你怎么保证算力还能继续翻倍?

黄仁勋:这些都不是根本问题。只要需求明确,2–3年内就能把产能拉起来——从1台做到10台,再到大规模复制,本质上不难。

关键是抓住核心节点。比如只要我说服了台积电,像 ASML 这样的上游自然会跟进。

我的判断是:任何供应链瓶颈,都不会持续超过2–3年。

而且我们不只是扩产,还在疯狂提高效率——从Hopper到Blackwell,性能提升了数十倍,CUDA 也在不断进化。

黄仁勋:我真正担心的不是供应链,而是下游——能源。没有能源,就没有数据中心、没有AI工厂,也谈不上再工业化。芯片产能、封装能力,几年能解决;但能源建设周期更长,这才是最大的限制。

03 TPU想干掉英伟达?先过CUDA这关

帕特尔:世界上前三大模型中,有两个(Claude和Gemini)都是在TPU上训练的。这对英伟达的未来意味着什么?

黄仁勋:我们建造的东西和别人不一样。英伟达做的是加速计算平台,而不仅仅是TPU。

英伟达做的是“加速计算平台”,而不是只针对某一种任务的芯片。AI只是其中一部分,我们还覆盖分子模拟、物理计算、数据处理等大量领域——整体市场远大于TPU或其他ASIC。

更关键的是,我们的平台是通用、可编程的。

大多数自研芯片(比如TPU)只能自己用,而英伟达的系统任何云厂商都能买、都能卖,所以我们存在于所有主流云里:Google、Amazon、Microsoft、Oracle。

如果你想做“对外卖算力”的生意,你需要一个能服务各种行业的通用平台——这正是英伟达的优势。

另外,很多应用TPU根本做不了。比如我们帮xAI、Eli Lilly 做的事情,都需要更通用的计算能力。

本质上,我们用CUDA打造了一个“什么都能干”的计算平台,而不是一个单一用途的芯片。

帕特尔:但现实是,你们现在的大部分收入还是来自AI。而AI核心就是矩阵乘法,TPU正好是为这个极致优化的,你怎么看?

黄仁勋:矩阵乘法是AI的重要组成部分,但不是全部。

AI真正的进步,来自不断发明新算法——新的注意力机制、新模型结构等等。这些都需要一个可编程的平台,而不是固定功能的芯片。

TPU本质上还是靠硬件进步(类似摩尔定律),性能提升是线性的;但AI的突破,来自“算法 + 系统”的重构,能带来10倍甚至100倍的提升。

这就是英伟达的根本优势。我们不可能仅靠摩尔定律就把Blackwell做到比Hopper强50倍。我们的方法是采用新模型(如混合专家模型),在计算系统中进行并行化、解构和分布式处理。没有CUDA来深入研究并提出新内核,这几乎不可能。

关键有两点:一是架构的可编程性,二是软硬件协同设计。我们可以把计算任务卸载到NVLink或Spectrum-X网络,同时优化处理器、系统、通信、库和算法。没有CUDA,我根本不知道从哪里下手。

04 客户自己写内核?TCO能把对手打回石器时代

帕特尔:现在大云厂都有能力自建软件栈、写内核,甚至用TPU、Trainium替代CUDA。那CUDA还是关键吗?

黄仁勋:CUDA是一个极其丰富的生态系统。如果你想在任何平台上率先构建系统,首选CUDA是明智的——我们支持所有主流框架,甚至对Triton等框架的后端也贡献了大量英伟达技术。

CUDA的价值在三点:生态、装机量、覆盖范围。

第一是生态。CUDA 已经是最成熟的AI计算生态。主流框架和新项目——比如Triton、vLLM、SGLang、NeMo等——都在这个体系上快速发展,我们也在持续为这些框架提供底层支持。

对开发者来说,在CUDA上开发最稳:出了问题,大概率是你自己的代码,而不是底层平台。

第二是装机量。全球有数亿块英伟达GPU,从A100到H100、再到新一代平台,分布在各种设备和场景中。这意味着:你的软件一旦跑在CUDA上,就可以“到处跑”。

第三是覆盖范围。我们存在于所有主流云:Amazon、Microsoft、Google、Oracle。 你不需要赌未来在“哪朵云”上,CUDA在哪都能用,甚至本地也行。 这三点叠加,让CUDA变成“默认选择”。

帕特尔:历史上,英伟达靠着CUDA护城河,在AI硬件和软件上一直保持着超过70%的利润率。但如果大部分客户有能力、也有意愿自己动手,绕过CUDA,那这个利润率还能守得住吗?

黄仁勋:短期内很难。原因很简单:没人比我们更懂自己的硬件。GPU不是CPU那种“谁都能开”的东西,更像F1赛车。你可以用,但要跑到极限,需要深度优化——而我们能帮客户再提升2倍甚至更多性能。而性能提升,直接等于收入提升(同样的机器,多产出token)。

我们60%的收入来自前五大云厂商,但那些业务大部分是面向外部客户的。例如,AWS、Azure、OCI上绝大多数英伟达算力都供外部使用,而非内部。他们青睐我们,是因为我们的触达范围极广,能带来全球最优秀的客户。

这里的飞轮效应在于:装机量、架构的可编程性、生态系统的丰富性,以及全球成千上万家AI公司这一事实。如果你是其中之一,你会选择最丰富、装机量最大、生态最强的架构——那就是英伟达。

这背后的逻辑是:第一,每美元性能出色,客户token成本最低;第二,每瓦性能全球最高,一个1吉瓦的数据中心能产出最多的收入和token;第三,如果你的目标是出租基础设施,我们拥有最多的客户。这就是飞轮起作用的全部原因。

05 当年没投Anthropic,是我最大的遗憾

帕特尔:如果英伟达在性能、成本、能效上都占优,为什么像 Anthropic 还是大规模用TPU?现在的趋势已经不是“全用英伟达”了。

黄仁勋:Anthropic是一个独特的例子,不是趋势。没有Anthropic,哪会有TPU或Trainium的增长?它们百分之百都依赖于Anthropic。我认为这是众所周知且被广泛理解的,并不是说存在大量的ASIC机会,毕竟只有一个Anthropic。

帕特尔:但OpenAI与AMD达成了合作,他们正在制造自己的Titan加速器。

黄仁勋:可以尝试,但现实是——他们绝大多数算力还是用英伟达。而且我不介意大家去试别的方案:不试试,怎么知道英伟达有多强?

做ASIC的前提是:你得比英伟达更好。但这很难。除非我们犯了重大错误,否则很难被超越——毕竟只有我们能做到每年一个新架构、持续大幅跃迁。

帕特尔:我猜他们的逻辑是:它不需要比英伟达更好,只要不比英伟达差70%以上就够了。因为他们要支付给英伟达70%的利润率。

黄仁勋:这也是个误解。ASIC厂商(比如 Broadcom)本身利润率也很高,可能也在60%+。你只是把钱从英伟达换给了别人,并没有真正省多少。

Anthropic之所以用TPU,本质上是融资和绑定关系。像 Google、Amazon 这样的公司,会投入几十亿甚至上百亿美元,换取这些AI实验室使用他们的算力。

当年英伟达没有能力做这种级别的投资,这其实是我的判断失误。不是技术问题,而是资本和生态绑定的问题。如果能重来,如果当时的英伟达有今天这么强大,我一定会毫不犹豫地去做。

06 云厂商已经太多,英伟达不凑热闹

帕特尔:你现在既有钱又有判断力,为什么不更早大规模投资OpenAI、Anthropic?甚至自己做AI实验室或云?

黄仁勋:我们一有能力就做了。如果可以,我会做得更早。但在Anthropic需要我们这样做的时候,我们当时确实没有能力去做。

帕特尔:怎么说?是因为现金的问题吗?

黄仁勋:是的,是投资规模的问题。当时我们从未在公司外部进行过投资,也没投过那么多钱。我们没有意识到我们需要这样做。我总以为他们可以去向风险投资家融资,就像所有公司做的那样。但他们想做的事情是无法通过风险投资完成的。我现在意识到了这一点,但当时我不知道。

但这就是他们的天才之处,这就是为什么他们聪明的地方。他们那时就意识到必须做那样的事情。我很庆幸他们这么做了。即使我们导致Anthropic不得不投奔别人,我仍然很高兴这件事发生了。Anthropic的存在对世界是件好事,我为此感到高兴。

帕特尔:英伟达赚了这么多钱,为什么不干脆自己做云,直接出租算力?

黄仁勋:我们的公司哲学是:只做必要之事,而且越少越好。如果我们不做,真没人会做。NVLink、CUDA生态、整套软件栈,包括让我们亏了20年的那些决定,都是我们必须扛的。但云服务不一样,世界上已经有太多云厂商了,我不做自然有人做。

所以,我们选择不自己做云,而是去扶持做云的人,比如CoreWeave、Nscale、Nebius,没有我们的支持,这些AI云不会是今天的样子。

面对基础模型公司也一样:我们不挑赢家,而是支持所有人。投资一家,就投资所有人。我们希望AI架构能连接更多行业、更多国家,让整个世界建立在美国的技术栈之上。

帕特尔:为什么你刻意不去挑选赢家?

黄仁勋:因为首先这不是我们的工作。英伟达刚起步时,60家3D图形公司里我们是最不被看好的那个——架构是错的,开发者根本没法用。但我们活到了最后。

因此,我认识到这一点:不要挑选赢家。要么让他们都自生自灭,要么关照所有人。

帕特尔:有一点我没弄明白。你前面说:“我们并不是因为那些是新云厂商,就特别关照它们、刻意扶持它们。” 可你后面又列举了好几家新云厂商,说如果没有英伟达,它们根本就不会存在。这两句话放在一起不矛盾吗?

黄仁勋:他们得先自己想活下来,带着商业计划和热情来找我们。如果起步阶段需要一些投资,我们会支持,让飞轮尽快转起来。但我们不想做融资生意,我们的目标是保持商业模式尽可能简单,专注自己的工作,支持生态系统。像OpenAI这样的公司需要300亿规模的投资,而我们深信世界需要他们存在——那我们就支持他们扩大规模。

帕特尔:GPU一直短缺,英伟达在分配配额时是怎么考虑的?会刻意拆分市场吗?

黄仁勋:不,你的前提错了。

第一,没有采购订单,说什么都没用。我们会和每个客户一起做预测、协调供需,但最终你得下单,先到先得。如果你的数据中心没准备好,我们可能先服务别人,纯粹是为了最大化工厂吞吐量。有传言说佩奇和马斯克跟我吃饭求GPU,根本没这回事。吃了顿愉快的晚饭,但从没求过GPU——下单就行了。

帕特尔:为什么不用价高者得的方式?

黄仁勋:因为那是糟糕的商业惯例。我报了价,那就是报价,不会因为需求高涨就改价。我更愿意做可靠的人,做行业的基石。

帕特尔:这也是你和台积电关系密切的原因?

黄仁勋:是的,合作快30年了,甚至没有法律合同,靠的是彼此默契。有时我占便宜,有时我吃亏,但总体来说这段关系非常棒。

关于英伟达,有一件事你完全可以放心——今年,Vera Rubin;明年,Vera Rubin Ultra;后年,Feynman。一年一代,从不缺席。

你去问任何一个做 ASIC 的团队,谁敢押上全部身家告诉你:“我相信他们每年都会准时交付,成本每年还能降一个数量级”?今天,全世界只有英伟达能让你说出这句话。

你想买一张显卡?没问题。你想下一笔一千亿美元的 AI 工厂订单?也没问题。

这个位置,我们走了几十年。背后是巨大的承诺,是巨大的投入。一家公司的稳定和连贯,在这个时代,比什么都重要。

07 中国不是敌人,放弃中国市场才是真的蠢

帕特尔:如果中国的公司、实验室能够获得AI芯片,用来训练像Mythos这样具备网络攻击能力的模型,并运行数百万个实例,这是否会对美国公司和美国国家安全构成威胁?

黄仁勋:首先,Mythos是在相当普通的算力规模上训练出来的,只不过完成这件事的公司非常出色。这种算力和计算类型,在中国已经大量存在。你必须意识到:这类芯片在中国已经存在了。

他们制造了全球60%以上的主流芯片,拥有世界上最优秀的计算机科学家。几乎所有AI实验室里的大多数AI研究人员都是华人,他们占全球AI研究人员的50%。考虑到他们已经拥有充足的能源、大量的芯片和最多的AI研究人员,如果你担心他们,创造一个安全世界的最好方法是什么?

我认为,和中国以对话和研究层面的交流才是最安全的方式。

由于我们目前将中国视为对手,这个领域的交流是缺失的。我们的AI研究人员和他们的AI研究人员必须实际对话,必须在哪些领域不使用AI上达成共识。

比如说在软件中找Bug,正是AI应该做的事。AI软件里也有很多Bug。我很庆幸AI已经达到能够帮助我们提高生产力的水平。

一个被低估的事实是:围绕网络安全、AI安全的生态系统非常丰富。已经有完整的AI初创公司生态系统,正在尝试创造这样一个未来:一个强大的AI智能体,周围环绕着成千上万个AI智能体来保障它的安全。这样的未来一定会到来。认为AI智能体可以在无人监督下运行,这种想法是疯狂的。

这个生态系统需要开源,需要开放模型,需要开放的技术堆栈。只有这样,所有AI研究人员才能构建出同样强大、又能保障安全的AI系统。我们必须保持开源生态系统的活力,这一点不能被忽视。很多这方面的成果来自中国,我们不应该扼杀它。

关于中国,我们当然希望美国拥有尽可能多的计算资源。我们不能让能源成为国家的瓶颈。同时,我们要确保全球所有的AI开发人员都在美国的技术堆栈上进行开发,AI的贡献和进步——尤其是开源部分,能够被美国生态系统所利用。

创造两个生态系统的做法是非常愚蠢的:一个在外国技术堆栈上运行的开源生态系统,另一个在美国技术堆栈上运行的封闭生态系统。我认为那对美国来说是一个可怕的结果。

帕特尔:让美国凭借更多算力先达到前沿能力,让社会提前准备,不是更好吗?

黄仁勋:美国当然应该保持领先。但你的逻辑要成立,前提是他们一点算力都没有。现实是,中国是全球第二大计算市场,算力储备巨大。

帕特尔:但这是真的吗?有人做过估算,中芯国际在工艺节点上确实落后了。

黄仁勋:实际上,他们拥有惊人的能源储备,而AI恰恰是一个并行计算问题。既然能源几乎是免费的,他们完全可以用四倍、十倍数量的7nm芯片堆叠算力。他们有大量空置、电力充足的数据中心,基础设施能力极其庞大。

他们制造芯片的能力全球最强,甚至主导主流芯片市场,产能早已过剩。如果有人认为中国无法获得AI芯片的想法,完全是胡说八道。现实是,他们已经有大量算力,并且已经超过了你担心的那道门槛。

另外还有一个关键点,我之前提到过AI是一个“五层蛋糕”,最底层是能源。充足的能源可以弥补芯片的不足,充足的芯片也可以弥补能源的不足。美国能源稀缺,所以英伟达必须把每瓦吞吐量做到极致。

但如果电力是免费的,你根本不需要在乎每瓦性能。7nm芯片本质上就是Hopper,而今天的模型很大一部分就是在Hopper上训练出来的。充足的能源,正是他们的优势。

帕特尔:他们真的能制造出足够多的芯片吗?

黄仁勋:他们能。证据就是,华为刚刚经历了公司历史上规模增长最快的一年。

帕特尔:他们出货了多少芯片?

黄仁勋:数百万颗。比Anthropic拥有的多得多。

帕特尔:关于中芯国际能出货多少逻辑芯片,以及能拿到多少内存?

黄仁勋:我告诉你实际情况。他们有充足的逻辑芯片,也有充足的HBM2内存。

帕特尔:但如你所知,训练和推理这些模型的瓶颈通常是带宽。如果只有HBM2,跟你们最新的产品相比,内存带宽可能差了将近一个数量级,这个差距非常大。

黄仁勋:你要知道,华为是一家网络公司。

帕特尔:但这并没有改变一个事实:最先进的HBM需要EUV光刻机。

黄仁勋:你错了。你可以像我们用NVL72那样把芯片堆叠在一起,他们已经展示了用硅光子技术把所有计算单元连接成巨型超级计算机的能力。你的前提不成立。

事实是,他们的AI发展得很好。全球最优秀的AI研究人员,正因为算力受限,反而会倒逼出极其聪明的算法。摩尔定律每年只进步约25%,但优秀的计算机科学可以把算法性能提高10倍。计算机科学才是真正的杠杆。

混合专家模型和令人惊叹的注意力机制,都减少了对算力的需求。AI的大部分进步来自算法和编程,而不仅仅是硬件。他们拥有庞大的AI研究人员大军,这难道不是根本优势吗?比如DeepSeek的进步绝非偶然。如果有一天DeepSeek首先在华为架构上运行起来,那对美国将是一个可怕的结果。

帕特尔:为什么?因为目前DeepSeek是开源的,它可以在任何加速器上运行。为什么将来就不会是这样了?

黄仁勋:你的假设恰恰说明了我担心的局面。

如果模型针对华为架构优化,我们就会处于劣势。你刚才描述的情况——一家公司的模型在美国技术栈上运行得最好,我认为那是好消息,而你却把它当成了坏消息。真正的坏消息是:如果全世界的AI模型开发出来后,在非美国的硬件上运行得最好,那对我们来说才是真正的灾难。

帕特尔:我还是没看到证据表明,存在巨大的障碍会阻止你切换加速器。美国实验室在他们的所有云上、在所有不同的加速器上运行他们的模型。

黄仁勋:如果你拿一个针对英伟达优化过的模型,试着在别的平台上运行看看。你会发现,它们运行得并不更好,英伟达的成功就是最好的证据。AI模型在我们的技术堆栈上创建、在我们的技术堆栈上运行得最好,这个事实怎么就那么不合逻辑、那么难以理解呢?

帕特尔:Anthropic的模型在GPU上运行,在Trainium上运行,也在TPU上运行。

黄仁勋:切换平台确实很麻烦。但你去南半球、中东看看:如果将来所有AI模型开箱即用都在中国的技术栈上跑得最好,那你现在的主张——不卖芯片给中国,防止他们追赶,实际上不就是在说,美国丢掉全球市场、让别人的技术成为标准,反而是件好事吗?这太荒谬了。

帕特尔:不卖芯片给中国,他们就只能用华为的。但华为910C的算力、带宽、内存大概只有H200的一半到三分之一?

黄仁勋:但是,他们的芯片产业规模极其庞大,用数量来弥补。而且他们擅长制造,能源现成。

帕特尔:所以你的论点是:他们拥有现成的能源,他们需要用芯片来填满那些能源。能源、芯片和AI研究人员组成的生态系统,才使这一切成为可能。

08 摩尔定律已死,7纳米也能打赢1.6纳米

帕特尔:中国被困在7nm,而你在推进到2nm、1.6nm。他们只能靠造更多芯片来弥补差距。你卖给他们的每一颗芯片,都是在增加他们训练和推理的能力。

黄仁勋:我认为美国应该保持领先,美国的算力比世界上任何其他地方多出100倍。 英伟达制造最先进的技术。我们确保美国的实验室最先知道,并且有最先购买的机会。如果他们钱不够,我们甚至会投资他们。我们在尽一切努力确保美国保持领先。

帕特尔:把芯片卖给中国怎么就能帮助美国保持领先呢?

黄仁勋:英伟达是一家美国公司,我们专门为美国供应Vera Rubin。既然如此,为什么不能制定一个更平衡的规则,让英伟达在全球市场取胜,而不是主动放弃?你为什么要美国放弃全球市场?芯片行业是美国生态系统和技术领导地位的核心组成部分。为什么你的政策主张,会导致美国放弃如此广阔的全球市场?

帕特尔:阿莫代伊曾经有一个比喻:这就像波音在吹嘘我们卖给某个国家核武器,而且导弹外壳还是波音造的。而这件事不知怎么地就增强了美国的技术堆栈。从根本上说,你在赋予他们这种能力。

黄仁勋:把AI和你刚才提到的任何东西相提并论,都是疯狂的。

帕特尔:但AI和浓缩铀很像,对吧?它有积极的用途,也有消极的用途。我们仍然不想把浓缩铀运到其他国家。

黄仁勋:这是一个糟糕的类比。这是一个不合逻辑的类比。

帕特尔:但如果那些算力可以运行一个模型,对所有美国软件进行零日攻击,那它怎么能不算是一种武器?

黄仁勋:首先,解决这个问题的方法是与研究人员对话、与中国对话、与所有国家对话,确保人们不以那种方式使用技术。

第二,我们还需要确保美国保持领先,确保Vera Rubin和Blackwell在美国极度充足。显然,我们拥有的算力是巨大的。我们这里有出色的AI研究人员,我们应该保持领先。

然而,我们还必须认识到,AI不仅仅是一个模型,它像是一块“五层蛋糕”。AI产业的每一层都很重要。我们希望美国在每一层都赢,包括芯片层。放弃整个市场,并不会让美国在芯片层、在计算堆栈的技术竞赛中长期获胜。

帕特尔:那么核心问题就变成了:现在卖芯片给中国,怎么能帮我们长期获胜?特斯拉和iPhone在中国卖得都很好,但中国依然造出了自己的电动车和手机,并且现在正在主导这两个市场。

黄仁勋:你用了像“护城河”这样的词。对我们公司来说,最重要的一件事是生态系统的丰富性,而这取决于开发者。50%的AI开发者在中国,美国不应该放弃这些人。

帕特尔:但是美国也有很多英伟达开发者,这并不妨碍美国实验室将来也能使用其他加速器。事实上,他们现在也在使用其他加速器。我不明白为什么在中国就不会是这样。

黄仁勋:我们的份额在增长,不是在下滑。那种“在中国竞争就会输”的假设,是失败者心态。

计算不是买车。今天买丰田明天换特斯拉很容易,但计算生态极难替换。x86和ARM能活到今天,就是因为换掉它们需要巨大的时间和精力,大多数人根本不想折腾。我们的任务是培育生态、推动技术,然后在市场上堂堂正正竞争。

基于“会输”的前提主动放弃市场,我无法接受。美国不是失败者,这种极端想法太幼稚了。

帕特尔:重点不在于存在某个关键的算力阈值,而在于任何一点边际算力都是有帮助的。所以如果你有更多算力,你就能训练出更好的模型。

黄仁勋:那我只想让你承认一点:美国技术产业的任何边际销售,也都是有益的。

帕特尔:我实际上不这么认为。如果运行在那些芯片上的AI模型能够进行网络攻击,或者那些芯片正在训练具有网络攻击能力的模型并运行更多实例,让它有了成为武器的可能。

黄仁勋:你用的这种逻辑,同样可以套用在微处理器和DRAM上。你也可以套用在电上。

帕特尔:但事实上,我们确实对制造最先进DRAM的相关技术有出口管制。我们对中国的各种芯片制造设备也有各种出口管制。

黄仁勋:我们向中国销售大量的DRAM和CPU,我认为这是正确的。

帕特尔:我猜这回到了根本问题:AI是不是不一样?如果你拥有一种能在软件中发现零日漏洞的技术,这是不是一种我们想要尽量减少中国先达到、并且广泛部署的能力?

黄仁勋:我们当然希望美国保持领先。我们可以控制这一点。

帕特尔:如果芯片已经在那里了,而且他们正在用这些芯片训练那个模型,我们怎么控制?

黄仁勋:我们有海量的算力。我们有海量的AI研究人员。我们在尽可能快地赛跑。

帕特尔:再次强调,我们的核武器比谁都多,但我们不想把浓缩铀运到任何地方。

黄仁勋:我们不是浓缩铀,它是一块芯片,而且是他们自己就能制造的芯片。

帕特尔:但他们从你这里买是有原因的。我们有中国公司创始人的原话,他们说算力是他们的瓶颈。

黄仁勋:因为我们的芯片更好。这一点毫无疑问。你说没有我们的芯片中国就做不起来?那你能承认华为刚刚经历了公司历史上最好的一年吗?你能承认一大批中国芯片公司已经上市了吗?这些事实你认不认?

还有,你也得承认——我们曾经在中国市场份额很大,现在没了。中国占了全球科技产业大约40%的份额。为了某一家公司的利益,就让美国整个科技产业放弃那个市场?这对我们的国家、我们的国家安全、我们的技术领导地位,都是一种伤害。这有什么道理?

帕特尔:我觉得你在陈述两个不同的观点。第一个观点是:如果允许竞争,我们会因为芯片好得多而赢得与华为的竞争。第二个观点是:即使没有我们,他们也会做完全一样的事情。这两个观点怎么能同时成立呢?

黄仁勋:这显然成立。在没有更好选择的情况下,你会选择你唯一的选择。这怎么就不合逻辑了?这非常合逻辑。

我们的芯片更好在生态,不是要不要卖的问题,而是卖了美国也能受益:开发者留在美国技术栈上,美国标准会扩散到全球。你支持的那些政策已经把美国电信挤出了全球市场,现在连自己的电信都控制不了。这就是短视的后果。

帕特尔:这件事的核心是:我们拥有更多算力,所以美国公司能先达到Mythos级别、先修补漏洞。如果中国因为获得更多算力而更早做出同样的模型,那就是向中国卖芯片的潜在代价。你承认这一点吗?

黄仁勋:那我也来告诉你,真正的潜在成本是什么。

我们现在做的事情——让AI技术栈中最重要的一层,也就是芯片层,主动放弃全球第二大市场。后果是什么?他们正好借此发展规模,建立自己的生态系统。未来,AI模型就会按照他们的逻辑、他们的技术栈来优化,而不是我们的。

然后随着AI扩散到全世界,他们的标准、他们的技术栈会变得越来越有优势。别忘了,他们的模型很多是开源的。

帕特尔:我猜我足够相信英伟达的内核工程师和CUDA工程师,相信他们能够优化。

黄仁勋:如你所知,AI不仅仅是内核优化。

帕特尔:当然,但你可以做很多事情,从模型蒸馏到让模型完美适配你的芯片。

黄仁勋:我们会尽力。

帕特尔:你拥有所有的软件。很难想象,即使他们有一个暂时更好的开源模型,会对中国生态系统产生长期的锁定效应。

黄仁勋:中国是全球开源软件和开放模型的最大贡献者,而这些贡献目前都建立在美国技术栈、也就是英伟达之上。

AI技术栈的五层都很重要。应用层被最多人使用、受益最大,但每一层都必须成功。

把AI说成核弹来吓唬人,不是在帮美国。怕AI抢工作就没人做软件工程师,怕AI取代医生就没人学放射科。职业和任务是两码事。极端思维只会把人吓跑。

我们希望美国第一,也需要在每一层领先。你今天盯着Mythos,没问题。但几年后,当美国的技术要推广到全球时,我会告诉你:你今天支持的极端政策,是如何让我们毫无理由地放弃了世界第二大市场。

我们不该主动放弃。输了是技不如人,但为什么要主动认输?没人主张把什么都卖给中国。最好的技术留在这里,最先拥有,同时也要在全球竞争并赢下来。这需要把握好分寸,不是非黑即白。

帕特尔:假设他们会开发适配国产芯片的模型,然后打包出口,主导全球标准。你们几年后到1.6nm,他们可能还困在7nm。在国内可以靠能源换算力,但出口到国际上,7nm必须正面硬刚1.6nm。除非他们把模型优化到让7nm跑得比1.6nm还好,这可能吗?

黄仁勋:Blackwell的性能提升并非源于光刻技术的飞跃,毕竟摩尔定律已死,三年来晶体管数量仅增长了约75%,但Blackwell的整体性能却是Hopper的50倍。

这证明了架构和计算机科学比半导体物理更能决定胜负。AI的强大源于整个技术栈的协同,而CUDA极高的灵活性 让研究人员能轻松实现混合专家模型(MoE)或扩散模型等各种创新架构,因此成为了全球开发者的首选。

总之,被迫离开中国是一个严重的政策失误,因为它会适得其反,通过迫使中国转向内部架构来加速其自主芯片产业的发展。

中国不会永远受困于7纳米,凭借其强大的制造能力,他们会持续实现技术突破。事实上,5纳米与7纳米之间并无10倍的本质差距,在复杂的计算系统中,网络互联和能源效率的重要性完全不亚于制程工艺。

09 没有AI,英伟达照样是一家巨无霸公司

帕特尔:假设未来几年,最先进的3纳米、2纳米产能大部分都被英伟达占满了,但还是供不应求。到那时候,你会不会考虑回头去用比较老旧的7纳米工艺,把那些闲置的产能利用起来?

黄仁勋:没必要。原因很简单:每一代架构的进步,远不止是把晶体管做得更小。背后还有大量的工程、封装、堆叠、数值计算和系统架构的工作。

当你把最先进的产能用完了,再回头去用旧工艺,这不是一件容易的事。那种研发成本,没人负担得起。我们有能力往前跑,但我认为我们没能力往后退。

帕特尔:我和一些人交流过,他们有一个问题:为什么英伟达不同时运行多个不同的芯片项目,采用完全不同的架构?

黄仁勋:当前路径本质是“没有更优解下的最优解”,所有替代方案都已被验证更差,除非实际工作负载(由市场驱动)发生变化,否则不会调整架构。

引入Groq的核心原因在于,Token已经开始具备差异化定价能力。不同用户对响应速度的需求不同,比如开发者愿为更低延迟付费,从而形成按延迟分层的市场。

基于此,我们选择扩展帕累托前沿,新增“低延迟、低吞吐、高单价”的推理模式,不再只追求吞吐,而是用更高单价弥补吞吐下降。

这一决策本质是市场结构变化驱动。在此之外,若资源充足,仍会持续加码现有架构。

帕特尔:假设深度学习革命没有发生,英伟达会做什么?

黄仁勋:我们的方向始终没变:持续推进加速计算。

原因在于,摩尔定律终将失效,通用计算在很多场景下效率不足。因此,我们构建了GPU + CUDA + CPU的架构,将CPU上的瓶颈计算卸载到GPU,实现百倍级加速。

这套能力并不依赖AI,早已广泛应用于工程、科学、物理、数据处理和计算机图形等领域。即使没有AI,英伟达依然会是一家非常重要的公司。基于领域专用加速的计算模式,依然具备巨大的长期价值。

我们从计算机图形起步,但CUDA的意义远超图形本身。粒子物理、流体模拟、分子动力学、地震处理等大量计算密集型问题,都能从中受益。我们的使命,就是用加速计算去解决那些通用计算做不了或做不快的问题。

AI只是其中一个重要应用,而不是全部。正是计算能力的突破,才推动了深度学习的普及,让个人也能完成高水平研究。

因此,我们关注的不只是AI。在GTC上,计算光刻、量子化学、数据处理等非AI领域同样关键。张量计算不是唯一方向,加速计算才是更底层、更广泛的未来。

万水千山总是情,打赏一元行不行?

 
chengsenw
  • 本文由 chengsenw 发表于 2026年4月17日 13:04:34
  • 转载请务必保留本文链接:https://www.gewo168.com/54576.html
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: