黄仁勋:即使AI革命从未发生,英伟达也会是一家大公司

来源:网易科技发布时间:2026-04-16 14:55
黄仁勋
AI芯片
英伟达
生成海报
黄仁勋
NVIDIA公司创始人兼首席执行官
生态系统的丰富性、装机基础的广泛性、存在位置的多样性,这些加在一起让CUDA价值连城。

英伟达CEO黄仁勋最近接受了美国知名科技播客主持人德瓦克什·帕特尔(Dwarkesh Patel)的专访,全面回应了关于公司护城河、谷歌TPU竞争等关键议题。

他强调英伟达的护城河已延伸至供应链深处,通过上千亿美元的采购承诺与台积电及存储供应商建立了深度绑定。

对于TPU竞争,黄仁勋指出Anthropic只是ASIC增长的独特个例而非趋势。英伟达的加速计算覆盖了分子动力学、数据处理、流体力学等远超越AI的广阔市场,且CUDA的高可编程性使其能每年实现10到50倍的性能飞跃。

他同时解释了为何英伟达不亲自成为超大规模云服务商。尽管现金流充沛,英伟达仍恪守做必须做的事且尽可能少做的原则,选择通过投资CoreWeave、OpenAI、Anthropic等支持生态系统,而非亲自下场与客户争利。他同时承认未能更早大规模投资Anthropic是自己的失误。此外他强调即使AI革命从未发生,英伟达仍会凭借加速计算在物理、化学、数据处理等领域成为一家非常大的公司。

关于对华出口,他批评极端的出口管制政策十分幼稚。黄仁勋指出AI算力是芯片与能源的结合。考虑到当前主流大模型主要还是在Hopper这一代架构上训练,中国完全可以通过充沛的电力能源和扩大芯片集群规模,来弥补单颗芯片的性能差距。

以下为黄仁勋专访内容:

控制供应链是英伟达最大护城河?

记者:很多软件公司估值在跌,因为大家觉得AI会把软件变成大宗商品。有种看法是英伟达把设计文件发给台积电,台积电造逻辑芯片和开关,再用SK海力士、美光、三星的HBM封装,然后送到台湾地区的ODM那里组装成机架。本质上英伟达做的是软件,硬件是别人造的。如果软件被商品化,英伟达是否也会被商品化?

黄仁勋:最终总得有人把电子转化成Token。这个转化过程很难被完全商品化。让一个Token比另一个更有价值就像让一个分子比另一个分子更有价值一样,需要大量的技术、工程、科学和发明。这些工作远未被完全理解也远未结束。我不认为这种被商品化的情况会发生。

但我们会让这个过程变得更高效。你问这个问题的方式其实就是我对公司的思考模型,输入是电子且输出是Token,中间是英伟达。我们的原则是做必要的事但尽量少做。所谓尽量少做就是我自己不需要做的就找伙伴合作,让它成为我生态系统的一部分。

今天的英伟达可能是拥有最大合作伙伴生态系统的公司,包括上游下游供应链、所有计算机公司、应用开发者、模型厂商。AI就像一个五层蛋糕,我们在每一层都有自己的生态。我们尽量少做但我们必须做的那部分极其困难,我不认为那部分会被商品化。

另外我也不觉得企业软件公司会被商品化。现在大多数软件公司是工具厂商,比如Excel、PowerPoint、Cadence、Synopsys。我的看法和很多人相反,AI智能体的数量会指数级增长且工具用户的数量也会指数级增长。这些工具的实例数量很可能会暴增。

比如Synopsys的设计编译器会有大量智能体来用它做布局、设计规则检查。今天限制我们的是工程师数量,明天每个工程师身后都会有一群智能体。我们能用前所未有的方式探索设计空间,用的还是今天的工具。工具的高频使用会让软件公司飞速发展。现在之所以还没发生是因为智能体还不够会用工具。要么这些软件公司自己造智能体,要么智能体会变得足够好去熟练使用这些工具,我觉得两者都会发生。

记者:我看你最新的文件里对代工厂、内存、封装有近1000亿美元的采购承诺。半导体研究机构SemiAnalysis认为这个数字会达到2500亿美元。一种解读是英伟达的护城河在于锁定了未来多年的稀缺组件。别人或许有加速器但拿不到内存和逻辑芯片。这是否是你们未来几年的主要护城河?

黄仁勋:这是我们能做到而别人很难做到的事情之一。我们向上游做了巨大承诺,有些是显性的就是你提到的那些。有些是隐性的,比如上游很多投资是我跟那些CEO说我来告诉你这个行业会有多大、为什么会有这么大,我推理给你看并让你看到我所看到的,然后他们才投的。

他们为什么愿意为我投资而不是为别人?因为他们知道我有能力买下他们的供应并通过我的下游卖出去。英伟达的下游需求和下游供应链太庞大了,所以他们愿意在上游投资。

你看GTC大会,大家惊叹于它的规模和人气。那是整个AI社区聚在一起,因为他们需要互相交流与被看见。我让他们聚在一起,让下游看到上游且上游看到下游,所有人看到AI的进步。他们还能见到所有AI原生代、所有初创公司。这样他们就能亲眼验证我告诉他们的事情。我花大量时间,直接或间接地让供应链、合作伙伴、生态系统理解面前的机会。

有人说我的主题演讲像是在上课且有点折磨人。其实那就是我的用意。我得让整个供应链、上下游、生态系统理解即将发生什么、为什么发生、何时发生、规模多大,并且能像我一样系统性地思考。

关于护城河我们其实是在为未来提前布局。如果我们未来几年真的成长到万亿美元规模,到那时自然有能力搭建与之匹配的供应链。但前提是没有我们今天的业务体量和影响力也没有我们业务的高速流转,就像现金流一样供应链也有自己的流转和周转速度。如果业务周转慢没有人会愿意为一个空架子搭建供应链。我们今天能维持这样的规模,根本原因在于下游需求极其旺盛。当他们亲眼看到、听到、意识到这一切正在真实发生,才让我们得以在现有规模下做成现在这些事。

记者:我想具体了解一下上游能否跟得上。你们连续多年收入翻倍,每年向世界提供的算力增长超过两倍。

黄仁勋:在这个规模上还能翻倍确实很惊人。

记者:但你看逻辑芯片。你们是台积电N3节点的最大客户也是N2节点的最大客户之一。SemiAnalysis发现今年AI会占N3产能的60%,明年到86%。如果你已经占了大头怎么翻倍?年复一年地翻倍?我们是否已经进入一个阶段,即AI算力增速必须因为上游限制而放缓?你看到解决办法了吗?归根到底我们怎么才能年复一年地把晶圆厂产能也翻一倍? 

黄仁勋:在任何一个时间点,瞬时需求都可能大于全球上下游的总供应。甚至可能被水管工数量限制,这确实发生过。

记者:水管工应该被邀请参加明年的GTC。

黄仁勋:好主意。但这其实是个好现象。你希望一个行业的瞬时需求大于总供应,反过来就不太好了。如果某个组件缺口太大,整个行业会蜂拥去解决。你看现在已经没太多人讨论CoWoS了。因为过去两年我们拼命解决这个问题现在情况已经不错了。台积电现在知道CoWoS的供应必须跟得上逻辑和内存的需求。他们正在以和扩展逻辑同样的速度扩展CoWoS和未来封装技术。这非常好,因为CoWoS和HBM内存以前是比较小众的,现在它们成了主流计算技术。

我们现在能影响更广泛的供应链了。AI革命刚开始时我说的这些话五年前就说过了。有人相信并投资了,比如美光CEO桑杰·梅赫罗特拉(Sanjay Mehrotra)及其团队。我清楚记得那次会议,我准确地说明了会发生什么、为什么发生以及今天的状况。他们真的加倍投入了。我们在LPDDR和HBM内存上合作,他们大力投资结果取得了巨大的成功。有些人来得晚一些但现在都来了。

每个瓶颈都会得到大量关注。我们现在提前几年就开始预判瓶颈。比如过去几年我们在Lumentum、Coherent和硅光生态系统上的投资,重塑了供应链。我们围绕台积电建立了整个供应链并和他们合作开发硅光整合平台COUPE,发明了很多技术并把专利授权给供应链保持开放。

我们通过发明新技术、新流程、新测试设备比如双面探测、投资公司帮他们扩产来增强供应链。我们在努力塑造生态系统,让供应链能够支撑这个规模。

记者:有些瓶颈好像比其他瓶颈容易解决,比如CoWoS扩产。

黄仁勋:我们负责克服最难的那个。

记者:哪个?

黄仁勋:水管工和电工。这是我担心那些末日论者的地方。他们说工作要消失、岗位要完蛋。如果我们阻止人们成为软件工程师,我们就会耗尽软件工程师。十年前就有同样的预言。有些末日论者说无论如何别当放射科医生,你现在还能在网上看到那些视频说放射科会是第一个消失的职业,世界再也不需要放射科医生了。猜猜我们现在缺什么?放射科医生。

记者:有些东西可以规模化有些则不行,你每年怎么造出两倍的逻辑芯片?最终内存和逻辑都受限于EUV光刻机。你怎么年复一年地拿到两倍的EUV光刻机?

黄仁勋:这些产能都是可以快速规模化的,两三年内就能做到。你只需要向供应链发出一个需求信号。能造一个就能造十个,能造十个就能造一百万个。这些东西复制起来并不难。

记者:你会在供应链里走多远?会直接去找ASML说三年后英伟达要做到年收入两万亿美元,我们需要多得多的EUV光刻机吗?

黄仁勋:有些要直接说,有些间接说。如果能说服台积电,ASML也会被说服。我们要找到关键的瓶颈点。但如果台积电被说服了,几年内你就会有足够多的EUV。

我的观点是没有任何瓶颈会持续超过两三年。与此同时我们还在把计算效率提高10倍、20倍,Hopper到Blackwell是30到50倍。因为CUDA很灵活我们在不断发明新算法、新技术,在增加容量的同时提高效率。这些事情都不让我担心。让我担心的是我们下游的东西。能源政策阻止能源扩展,而没有能源你建不了新产业。没有能源你没法搞一个新的制造业。

我们要让美国再工业化。我们要把芯片制造、计算机制造、封装带回来。我们要造电动汽车、机器人。我们要造AI工厂。没有能源这些都建不起来,而能源需要很长时间。芯片产能是两三年能解决的问题。CoWoS产能也是两三年能解决的问题。

TPU会打破英伟达对AI算力的控制吗?

记者:世界上排名前三的模型里,有两个即Claude和Gemini都是在谷歌TPU上训练的。这对英伟达意味着什么?

黄仁勋:我们做的东西很不一样。英伟达做的是加速计算,不只是一个张量处理单元。加速计算可以用在很多地方,涵盖分子动力学、量子色动力学、数据处理、结构化数据、非结构化数据、流体动力学、粒子物理。除此之外也做AI。

加速计算比这广泛得多。虽然AI是当下的话题且显然很重要和影响很大,但计算比这宽泛得多。英伟达重塑了计算的方式,从通用计算转向加速计算。我们的市场覆盖范围比任何TPU或ASIC都要大得多,我们是唯一一家能加速各种应用的公司。我们有巨大的生态系统,各种框架和算法都能在英伟达上跑。

因为我们的计算机设计成让别人可以操作,所以任何运营商都能买我们的系统。而大部分自建系统你得自己当运营商,因为它们的灵活性不够导致别人操作不了。因为谁都能搭建并操作我们的系统,所以我们存在于每一个云里,包括谷歌、亚马逊、Azure以及甲骨文的云平台。

如果你想租给别人用,那你最好有来自很多行业的庞大客户群做承购方。如果你想自己用,我们当然也能帮你自己运营,就像我们在xAI帮马斯克那样。而且我们能让任何公司、任何行业的运营商都具备能力,你可以给礼来公司建一台用于科学研究和药物发现的超级计算机,我们可以帮他们运营,用于整个药物发现和生物科学领域。

有一大堆应用是TPU做不了的。英伟达的CUDA也是一个很棒的张量处理单元,但它还能处理数据处理的每一个环节、计算、AI等等。我们的市场机会大得多,覆盖范围广得多。因为我们支持现在世界上每一个应用,你可以在任何地方建英伟达系统并且知道一定会有客户。这是一个很不一样的局面。

记者:你们的收入很惊人但不是来自制药也不是来自量子计算,而是主要来自AI。因为AI这个前所未有的技术正在以史无前例的速度增长。那问题就来了,什么才是对AI本身最有利的?TPU本质上是一个巨大的脉动阵列,特别擅长做矩阵乘法。GPU则更灵活且适合那些有很多分支判断或者内存访问不规则的任务。但问题在于AI到底在干什么?说白了AI就是一遍又一遍地做那些非常可预测的矩阵乘法。既然如此你为什么还要在芯片上留出面积给线程束调度器或线程与内存体之间的切换这类通用功能呢?这些面积本来可以全部用来做矩阵乘法。而TPU恰恰就是专门针对当下正在爆发的那部分计算需求设计的。你觉得呢? 

黄仁勋:矩阵乘法是AI的重要部分但不是全部。如果你想出一种新的注意力机制、换一种分解方式、或者发明一个全新的架构即混合状态空间模型(SSM),你需要一个普遍可编程的架构。如果你想做一个融合了扩散模型和自回归的模型,你需要的也是一个普遍可编程的架构。我们能跑你能想到的任何东西。这就是优势。因为它是可编程的,所以发明新算法要容易得多。

发明新算法的能力才是AI进步这么快的原因。TPU和其他东西一样都受摩尔定律影响,每年大概进步25%。要每年实现10倍或100倍的飞跃,唯一的方法是每一年都从根本上改变算法和计算方式。

这就是英伟达的根本优势。Blackwell比Hopper能效高50倍。我第一次说35倍时没人信。后来有人写文章说我留了一手实际上是50倍。单靠摩尔定律做不到,我们靠的是新模型比如专家混合模型(MoE),它们被并行化、分解、分布在整个计算系统里。如果没有CUDA也没有真正深入去写新内核的能力,这很难做到。

这是可编程架构和英伟达极端协同设计能力的结合。我们甚至可以把一些计算卸载到网络结构本身比如NVLink,或者网络里的Spectrum-X。我们可以同时改变处理器、系统、网络结构、库和算法。没有CUDA我根本不知道从哪下手。

记者:这引出一个关于英伟达客户的有趣问题。你们60%的收入来自五个超大规模云厂商。在另一个时代客户是教授做实验,他们需要CUDA且用不了别的加速器,他们只需要用CUDA跑PyTorch且一切都优化好了。但这些超大规模云厂商有能力自己写内核。事实上为了从特定架构里挤出最后5%的性能,他们必须这么做。Anthropic和谷歌主要跑自己的加速器即TPU和Trainium。就连用GPU的OpenAI也有Triton因为他们需要自己的内核。他们不用cuBLAS和NCCL而是有自己的软件栈也能编译到其他加速器上。如果你的大部分客户能且正在做CUDA的替代品,那CUDA在多大程度上还是前沿AI跑在英伟达上的关键因素?

黄仁勋:CUDA是一个丰富的生态系统。如果你想在任何计算机上做开发,首选CUDA是非常明智的。因为生态系统太丰富了,我们支持每一个框架。如果你想写自定义内核,我们对Triton的贡献巨大,Triton的后端有大量英伟达技术。

我们很乐意帮助每一个框架变得更好。框架很多比如Triton、vLLM、SGLang。现在又冒出一堆强化学习框架比如verl和NeMo RL。后训练和强化学习这块正在爆炸。所以如果你想基于某个架构做开发选CUDA最有意义,因为你知道它的生态很好。

你知道如果出了问题,问题更可能出在你自己的代码里而不是底下那堆积如山的底层系统上。别忘了你面对的是多么庞大的代码规模。当系统不工作时你要问自己是我错了还是计算机错了?你当然希望每次都发现是自己错了,因为只有这样你才能始终信任计算机。显然我们自己还有很多bug。但关键在于我们的系统已经被无数次检验过,你可以放心地在上面构建。这就是我想说的第一点即生态系统的丰富性、可编程性和能力。

第二点如果你是个开发者,你最想要的是一个装机基础。你希望自己的软件能跑在很多其他计算机上。你不是只为自己写软件而是为你所在的集群或别人的集群写,因为你是框架开发者。英伟达的CUDA生态系统最终就是它最大的财富。

我们现在有数亿个GPU在外面,每个云里都有。从A10、A100、H100、H200到L系列、P系列以及各种尺寸和各种形状。如果你是个机器人公司,你希望那个CUDA堆栈能直接在机器人内部运行。我们几乎无处不在。这个装机基础意味着一旦你开发了软件或模型,它在任何地方都能用。这个价值无可估量。

最后我们存在于每一个云里,这让我们真正独一无二。如果你是个AI公司或开发者,你不确定会和哪个云服务商合作也不知道想把负载跑在哪里。没关系,我们无处不在包括你自己的机房。生态系统的丰富性、装机基础的广泛性、存在位置的多样性,这些加在一起让CUDA价值连城。

记者:有道理。但我想问的是这些优势对你最大的客户来说到底有多重要?对很多人来说CUDA可能很有价值。但你收入的大头其实来自那些有能力自己搭建软件栈的大客户。特别是如果未来AI进入一些可以用强化学习进行严格验证的领域,那问题就变成了谁能写出在大型集群上跑得最快的矩阵乘法和注意力内核?这是一个非常可验证的优化问题。

那些超大规模云厂商完全有能力自己写这些定制内核。当然英伟达的性价比可能还是更好所以他们可能依然会选择英伟达。但这样一来问题就变成了最后是不是只比谁的硬件规格更好以及每美元能买到的算力和带宽更多?

历史上英伟达靠着CUDA护城河,在AI硬件和软件上都能保持70%以上的利润率。但现在的问题是如果你最大的客户其实有能力绕过这条护城河,你还能维持这么高的利润率吗?

黄仁勋:我们分配给这些AI实验室的工程师数量是惊人的,跟他们一起工作优化他们的软件栈。原因是没人比我们更懂我们的架构。这些架构不像CPU那么通用。CPU有点像凯迪拉克且好开和不飙快车,谁都能开得不错且有巡航控制,一切都很简单。而英伟达的GPU和加速器更像F1赛车。我能想象每个人都能开到160公里时速,但要推到极限需要相当多的专业知识。我们用大量AI来写内核。

我很确定在相当长一段时间内我们仍然会被需要。我们的专业知识常常能让AI实验室合作伙伴轻松再提升2倍性能。优化完一个内核或整个软件栈后,模型速度提升50%、2倍乃至3倍,这很常见。考虑到他们拥有所有Hopper和Blackwell的集群规模,这是一个巨大的数字。提升一倍直接等于收入翻倍。

英伟达的计算堆栈在总拥有成本TCO上是全世界最好的,没人能比。没有任何一个平台能向我展示出比我们更好的性能与TCO比。Dylan的InferenceMAX基准测试就摆在那里,谁都可以用。但TPU不来测且Trainium也不来测。我很鼓励他们用InferenceMAX来展示自己所谓的超低推理成本。但很难因为没人愿意来。

还有MLPerf,我也很想让Trainium来展示他们一直宣称的40%优势。也很想听他们展示TPU的成本优势。但在我看来从第一性原理出发他们说的那些优势完全说不通。所以我认为我们成功的原因很简单就是我们的TCO太好了。

第二你说我们60%的客户是前五大云厂商,但这些业务大部分是面向外部的。比如AWS中使用英伟达的芯片大部分是给外部客户而不是内部用。Azure里的客户显然也都是外部的,甲骨文的同样如此。他们青睐我们是因为我们的影响力大,我们能给他们带来全世界最优秀的客户且这些客户都建在英伟达上。而这些公司之所以建在英伟达上,是因为我们的影响力和多功能性太强了。

所以我认为这个飞轮是装机基础、架构的可编程性、生态系统的丰富性,再加上世界上有成千上万家AI公司。如果你是AI初创公司你会选哪个架构?你会选最丰富的而我们就是最丰富的,你会选安装基础最大的而我们就是最大的,你会选生态最完善的。这就是飞轮。

结合以上几点来看我们的每美元性能最好且客户的Token成本最低。我们的每瓦性能世界最高,所以如果一个合作伙伴建了一个1吉瓦的数据中心,这个数据中心最好能产出最大量的收入和Token,这直接等于收入。你希望它产出尽可能多的Token来最大化收入,而我们是世界上每瓦Token数最高的架构。另外如果你的目标是出租基础设施,我们有世界上最多的客户。这就是飞轮运转的原因。

记者:有意思。我想问题归根结底是实际的市场结构到底是什么样?因为即使有其他公司存在,可能有一个世界里面成千上万家AI公司每家都占大致相等的算力份额。但现实情况是即便通过这五大云厂商,真正在亚马逊上用算力的其实是Anthropic、OpenAI以及那些大型基础实验室。这些大玩家自己有能力也有资源让不同的加速器跑起来。

如果你说的这些关于性价比和每瓦性能等等都是真的,那为什么像Anthropic这样的公司几天前刚宣布和博通与谷歌达成一项涉及多吉瓦的TPU交易,把他们大部分算力放在上面?对谷歌来说TPU也占了他们绝大部分算力。所以如果我看这些大型AI公司似乎他们的算力曾经全是英伟达现在不是了。我很好奇如果纸面上这些优势都成立,他们为什么偏偏选了别的加速器?

黄仁勋:Anthropic只是一个特例并不是什么大趋势。你可以想一想如果没有Anthropic这家公司,TPU哪来的增长?百分之百是因为Anthropic。同样如果没有Anthropic,Trainium又哪来的增长?百分之百也是因为Anthropic。这基本上是公开的秘密了。不是什么ASIC的机会变得很多而是只有一个Anthropic而已。

记者:但OpenAI和AMD有交易且他们自己在造Titan加速器。

黄仁勋:是的,但我觉得大家都承认他们绝大部分算力还是跑在英伟达上。我们仍然会一起做很多工作。我不介意别人用别的东西、尝试别的东西。如果他们不尝试怎么知道我们的有多好?有时候你需要被提醒一下。我们必须不断赢得我们现在的位置。

总有人夸下海口。你看看有多少ASIC项目被取消了。仅仅因为你要造一个ASIC你还得造出比英伟达更好的东西这没那么容易。实际上这不合理除非英伟达一定有什么缺陷。但我们的规模和速度摆在这里,我们是世界上唯一一家每年都推出新品的公司且每年都实现巨大飞跃。

记者:我猜他们的逻辑是它不需要比英伟达更好,只要不比70%差太多就行,因为他们付给你70%的利润率。

黄仁勋:不,别忘了ASIC的利润率也很高。假设英伟达利润率是70%且ASIC利润率是65%。你到底省了什么?

记者:你是说像博通那样的?

黄仁勋:对。你得付钱给别人。据我所知ASIC利润率非常高,他们自己也这么认为且对他们惊人的ASIC利润率很自豪。

所以你问为什么。很久以前我们就是没能力做。当时我没有深刻意识到做一个像OpenAI、Anthropic这样的基础AI实验室有多难以及他们需要供应商本身的巨额投资。我们当时没能力投资Anthropic几十亿美元来换取他们用我们的算力。但谷歌和AWS有能力。他们一开始就投入巨资且作为回报Anthropic用了他们的算力。我们当时就是没能力。

我的失误是我没有深刻意识到他们真的别无选择,没有风投会投50到100亿美元到一个AI实验室指望它变成Anthropic,这是我的失误。但即使我当时理解了我也不认为我们有能力那么做。但我不会再犯同样的错误了。

我很乐意投资OpenAI也很乐意帮他们扩展,我相信这是必要的。后来当我有能力时Anthropic来找我们,我很乐意成为投资者且很乐意帮他们扩展。我们当时就是做不到。如果我能让一切重来,如果当时的英伟达有现在这么大我会非常乐意那么做。

英伟达为什么不成为超大规模云厂商?

记者:多年来英伟达一直是AI领域赚钱并赚大钱的公司。现在你在投资,比如据报道你们已向OpenAI投了300亿美元并向Anthropic投了100亿美元。现在他们的估值涨了且我相信还会继续涨。所以如果这些年来你一直在给他们提供算力且你看到了它的发展方向,而他们一两年前的价值只有现在的十分之一甚至一年前,而你又有那么多现金,那要么英伟达自己成为一个基础实验室投入巨资去做,要么在现在这个估值下更早地做你这些交易。而且你有现金。所以为什么不更早做呢?

黄仁勋:我们在力所能及的时候尽快做了且一有能力就尽快做了。如果我能我会更早做。在Anthropic需要我们做的时候我们就是没能力,那时这不在我们的考虑范围内。

记者:怎么讲?是钱的问题吗?

黄仁勋:是的即投资规模。我们当时从未在公司外部做过投资,更不用说那么大数额了。我们没有意识到我们需要这么做。我一直以为他们可以像所有公司一样去风投那里融资。但他们想做的事风投做不到。OpenAI想做的事风投做不到。我现在认识到了但我当时不知道。

但这就是他们的天才之处,他们聪明就聪明在这里。他们当时就意识到必须做那样的事。我很高兴他们做到了。即使这导致Anthropic去找了别人,我仍然很高兴它发生了。Anthropic的存在对世界是好事且我为此高兴。

记者:我想你们仍然在赚很多钱而且每个季度都赚得更多。既然你有这么多不断赚来的钱,英伟达应该用它做什么?有一个答案是已经出现了一整套中间商生态系统,把资本支出转化为这些实验室的运营支出让他们可以租算力。因为芯片很贵但它们生命周期里能赚很多钱,因为AI模型越来越好。它们产生的Token价值在增加但部署成本高。英伟达有钱做资本支出。事实上据报道你们正在支持CoreWeave且金额高达63亿美元并已经投了20亿。英伟达为什么不自己成为一个云服务商?为什么不自己成为超大规模云厂商并自己出租算力?

黄仁勋:这是我们公司的理念且我认为是明智的。我们应该做必要的事但尽量少做。意思是说在我们构建计算平台的工作上如果我们不做,我真心相信没人会做。如果我们不冒我们冒的那些险,如果我们不按我们的方式做NVLink并不构建整个软件栈,不按我们的方式创建生态系统并不投入20年CUDA并在大部分时间里亏损,如果我们不做没人会做。

如果我们不创建所有CUDA-X库使它们面向特定领域,十五年前我们开始做特定领域库,因为我们意识到如果我们不创建这些特定领域库,无论是光线追踪、图像生成还是早期AI工作、这些模型,或者数据处理、结构化数据处理、向量数据处理,如果我们不创建没人会做。我完全相信这一点。我们为计算光刻做了一个库叫cuLitho,如果我们不做没人会做。所以加速计算之所以能有今天的进步是因为我们做了这些。

所以我们应该做那件事且应该全身心投入并全力以赴去做。然而世界上有很多云,如果我不做总有人会做。所以我们奉行做必要的事但尽量少做的理念,它存在于我们公司的每一天。我做的每一件事都用这个视角来看。

就云而言如果我们不支持CoreWeave存在,这些新云、这些AI云就不会存在。如果我们不帮CoreWeave它们就不会存在。如果我们不支持Nscale他们就不会有今天的成就。如果不支持Nebius他们也不会是今天这样。现在他们做得非常好。

这是一种商业模式。我们应该做必要的事且尽量少做。所以我们投资于我们的生态系统因为我希望我的生态系统蓬勃发展。我希望这个架构、AI能够连接尽可能多的行业、尽可能多的国家,让整个星球都建立在AI之上并建立在美国技术栈之上。这个愿景正是我们在追求的。

还有一件事,有很多优秀的基础模型公司且我们尽量投资所有人。这是我们做的另一件事。我们不挑赢家且我们需要支持所有人。这是我们应该做的也是我们的乐趣所在。这对我们的业务至关重要。但我们也不遗余力地不去挑赢家所以我投了一家就会投所有。

记者:你为什么特意不挑赢家?

黄仁勋:首先这不是我们的工作。其次英伟达刚起步时有60家3D图形公司而我们是唯一活下来的。如果你从这60家里猜谁会成功,英伟达会排在最不可能成功名单的首位。

这是很久以前的事了。英伟达的图形架构恰恰是错的且不是有点错。我们造了一个完全错的架构,开发者没法支持它且它永远不会成功。我们基于良好的第一性原理推理但最终得出了错误的解决方案。每个人都会把我们排除在外但我们活下来了。

所以我有足够的谦逊认识到这一点即不要挑赢家。要么让他们自己照顾自己,要么就照顾所有人。

记者:有一点我没明白,你说我们不是因为他们是新云就优先考虑他们想扶持他们,但你也列举了一堆新云说没有英伟达它们就不会存在。这两件事怎么兼容?

黄仁勋:首先他们自己得想存在并且来请求我们帮助。当他们想存在并且有商业计划、专业知识和热情时,他们显然觉得自己有些能力。但如果归根结底他们需要一些投资来启动,我们会支持他们。但他们越早启动飞轮越好。

你的问题是我们想不想做融资业务?答案是不想。有人在做融资业务,我们宁愿和他们合作而不是自己当融资方。我们的目标是专注于我们做的事且保持商业模式尽可能简单并支持我们的生态系统。

当像OpenAI这样的组织需要300亿美元规模的投资因为他们在IPO之前,而我们深信他们会成为一家不可思议的公司,世界需要他们存在且世界希望他们存在,我希望他们存在并且他们顺风顺水,让我们支持他们并让他们扩展。这些投资我们会做因为他们需要我们。但我们不是想做尽可能多的事而是想做尽可能少的事。

记者:这可能是个显而易见的问题,但我们在GPU短缺的情况下过了好几年,现在因为模型变好导致短缺还在加剧。

黄仁勋:我们确实缺GPU。

记者:是的。英伟达以分配稀缺配额而闻名,不只看谁出价高而是看我们希望确保这些新云存在,比如给CoreWeave一些,给Crusoe一些,给Lambda一些。这对英伟达有什么好处?首先你同意这种分化市场的描述吗?

黄仁勋:不同意。你的前提完全错了。我们对这些事情足够谨慎且非常谨慎。第一如果你不下采购订单光说没用。在收到采购订单之前我们能做什么?所以第一件事是我们和每个人努力工作完成预测,因为这些东西要很长时间才能造好且数据中心也要很长时间。我们通过预测等方式来协调供需这是首要任务。

第二我们尽量和尽可能多的人做预测但最终你还是得下订单。也许无论什么原因你没下订单,我能怎么办?在某个时间点先到先得。除此之外如果你的数据中心还没准备好,或者某些组件还没准备好让你启用数据中心,我们可能会先服务别的客户。这只是为了最大化我们自己工厂的吞吐量且我们可能会做一些调整。

除此之外优先顺序是先到先得。你得下采购订单。当然有一些故事。比如这一切始于一篇关于拉里·佩奇和马斯克跟我吃饭时求取GPU的文章,那从未发生。我们确实吃了饭且是很愉快的一顿饭但他们从未求取GPU。他们只是需要下订单。一旦下了订单我们会尽力把产能分配给他们这不复杂。

记者:好。所以听起来有一个队列,然后根据数据中心是否准备好、何时下采购订单,你在某个时间拿到货。但这听起来仍然不是价高者得。有什么理由不那样做?

黄仁勋:我们从不那样做。

记者:为什么不是价高者得?

黄仁勋:因为那是不好的商业实践。你定好价格然后人们决定买不买。我理解芯片行业其他人会在需求高时涨价但我们不那样做。这从来不是我们的做法。你可以信赖我们。我宁愿做个可靠的人并做行业的基石。你不用事后猜测。如果我报了一个价那就是那个价,就这样。如果需求飙升价格依然稳定。

记者:另一方面这就是你们和台积电关系好的原因吧?

黄仁勋:是的,英伟达和他们做生意快30年了。英伟达和台积电没有签署法律合同但总有一些粗略的公平。有时我对且有时我错。有时我拿了好deal且有时我拿了差deal。但总体而言这段关系非常好。我可以完全信任他们并且可以完全依赖他们。

你可以信赖英伟达的一点是今年的Vera Rubin会不可思议。明年Vera Rubin Ultra会来。后年Feynman会来。再后一年我还没介绍名字。每一年你都可以信赖我们。你去找世界上任何其他ASIC团队随便挑,你能说我可以把全部业务押在你身上且你每年都会为我服务吗?你能说你的Token成本每年都会下降一个数量级且我可以像相信时钟一样相信你吗?

我刚才对台积电说了类似的话。对历史上任何其他代工厂你都不可能这么说。但今天你可以对英伟达这么说。你可以每年都信赖我们。如果你想买10亿美元的AI工厂没问题。想买1亿美元没问题。1000万美元或者只有一个机架都没问题。或者只有一个显卡没问题。如果你想下1000亿美元的订单也没问题。我们是当今世界上唯一一家你可以这么说的公司。

我也可以对台积电这么说。我想买一个或者买十亿个都没问题。我们只需要经过规划流程以及所有成熟的人会做的事。所以我认为英伟达能成为世界AI产业的基石,这个地位我们花了几十年才达到。这是巨大的承诺和巨大的奉献。我们公司的稳定性与一致性非常重要。

英伟达为什么不制造多种不同的芯片架构?

记者:我们之前讨论了台积电和内存等环节的瓶颈。如果未来我们处在这样一个局面即你已经占了N3节点的大部分产能且接下来会占N2的大部分,你会不会考虑回头用N7的闲置产能?比如说AI需求太大且领先节点的扩产跟不上,那你就用旧节点来造Hopper或Ampere但加上我们今天知道的数值格式改进和其他优化。你觉得2030年之前会发生这种事吗?

黄仁勋:没必要。因为每一代架构的提升不光是靠晶体管尺寸。我们在工程、封装、堆叠、数值格式、系统架构上做了大量工作。 

产能不够的时候再回头去搞一个旧节点,那需要投入的研发成本没人负担得起。我们能负担的是往前走而不是往回走。当然如果有一天全球产能真的彻底到头了,问我愿不愿意回头用7纳米?我当然愿意。

记者:有人跟我讨论过一个问题即英伟达为什么不并行做几个完全不同架构的芯片项目?比如像Cerebras那样的晶圆级芯片或者像Dojo那样的大封装甚至做一个不带CUDA的。你们有资源也有人才且可以同时做这些。既然AI和芯片架构的方向不确定为什么要把所有鸡蛋放在一个篮子里? 

黄仁勋:我们可以做只是我们没有发现更好的方向。你说的那些我们都模拟过且结果证明它们不如现在的方案。所以我们不做。我们正在做的就是我们想做的。如果未来的工作负载发生根本性变化我不是指算法而是指实际的计算任务类型,这取决于市场的需求形态,我们可能会考虑增加其他类型的加速器。

比如最近我们纳入了Groq且会把它整合到CUDA生态里。原因在于Token的价值现在已经很高了且可以对Token实行差异化定价。几年前Token要么免费要么很便宜。现在不同客户有不同的需求且愿意为不同的答案付不同的钱。比如我们的软件工程师如果能给他们响应更快的Token让他们效率更高,我愿意为此多付钱。

但这个市场是最近才出现的。所以我们决定扩展帕累托前沿并做一个响应更快但吞吐量更低的推理细分市场。以前吞吐量高就是更好,但现在我们认为可能存在一个高ASP(平均售价)Token的市场即使工厂的总吞吐量下降更高的单价也能弥补。这就是我们做这件事的原因。除此之外如果我有更多的钱我还是会投到英伟达现有的架构上。

记者:这种高端Token和推理市场细分的想法很有意思。假设深度学习革命没有发生英伟达现在在做什么?

黄仁勋:加速计算且我们一直在做这个。我们公司的基本判断是通用计算的扩展能力基本到头了。

所以我们把GPU和CUDA跟CPU结合起来,把CPU上的某些工作负载卸载到GPU上加速。这样可以把一个应用提速100倍甚至200倍。这些应用可以是工程、科学、物理、数据处理、计算机图形、图像生成等等。即使没有AI,英伟达也会是一家非常大的公司。

原因很简单即通用计算继续扩展的路基本走完了且出路在于特定领域的加速。我们起步于计算机图形但还有很多其他领域涵盖粒子物理、流体、结构化数据处理等等都能从CUDA受益。我们的使命就是把加速计算带给世界并推进那些通用计算做不了的应用,帮助突破某些科学领域。早期的应用包括分子动力学、能源勘探的地震数据处理、图像处理等等。

如果没有AI我会很难过。但正因为我们在计算上取得的进步,我们让深度学习变得普及了。任何研究人员、科学家、学生都能用一台PC或一张GeForce显卡做很厉害的科学。这个基本承诺一点都没变。

你看GTC大会开头那部分跟AI一点关系都没有,包括计算光刻、量子化学、数据处理。这些工作依然非常重要。我知道AI很让人兴奋但还有很多人做着非常重要且跟AI无关的工作。张量不是唯一的计算方式。我们想帮助所有人。

记者:非常感谢。

黄仁勋:不客气。我很享受与你的对话。

记者:我也是。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论
icon
最新资讯
更多