文章作者:Lex Fridman Podcast 文章来源:BitpushNews 在这场长达 2 小时 26 分钟的深度对谈中,黄仁勋谈到了 AGI、AI 扩展定律、智能体、英伟达的护城河、台积电与供应链、10 万亿美元市值的可能性,以及他如何运营 NVIDIA、如何看待死亡与传承。整场对话信息量极大,其中最引人注目文章作者:Lex Fridman Podcast 文章来源:BitpushNews 在这场长达 2 小时 26 分钟的深度对谈中,黄仁勋谈到了 AGI、AI 扩展定律、智能体、英伟达的护城河、台积电与供应链、10 万亿美元市值的可能性,以及他如何运营 NVIDIA、如何看待死亡与传承。整场对话信息量极大,其中最引人注目

深度对谈黄仁勋: “我认为,我们已经实现了 AGI”

2026/03/24 10:12
阅读时长 29 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。

文章作者:Lex Fridman Podcast

文章来源:BitpushNews

在这场长达 2 小时 26 分钟的深度对谈中,黄仁勋谈到了 AGI、AI 扩展定律、智能体、英伟达的护城河、台积电与供应链、10 万亿美元市值的可能性,以及他如何运营 NVIDIA、如何看待死亡与传承。整场对话信息量极大,其中最引人注目的一句判断,是他在谈及 AGI 时直言:“我认为,我们已经实现了 AGI。”

为保证阅读体验,以下内容在保留原意基础上有所整编。

Lex Fridman:

AGI 时间表这个问题,其实取决于你怎么定义 AGI。那我换一个也许有点荒唐、但很具体的定义:如果一个 AI 系统已经能基本完成你的工作——发起一家公司、把它做起来、把它做大,并且运营一家成功的科技公司,估值超过 10 亿美元——那我们离这种系统还有多远?5 年、10 年、15 年,还是 20 年?

我说的是那种能完成非常复杂工作的系统:创新、找客户、销售、管理、组建一支由智能体和人类组成的团队,等等。

黄仁勋:

是好公司,还是只是一家公司?

Lex Fridman:

不是一般意义上的“开了家公司”,而是它得值 10 亿美元以上。你知道,把所有这些环节都做成到底有多难。

黄仁勋:

我认为,就是现在。我认为,我们已经实现了 AGI。

Lex Fridman:

你真的觉得,现在就可能有一个 AI 系统运营这样一家公司?

黄仁勋:

有可能。原因在于,你说的是“值 10 亿美元”,但你没说它必须永远存在。

比如说,Claude 这样的系统,完全有可能做出一个 web 服务,或者一个有趣的小应用,突然一下子有几十亿人愿意花 50 美分去用它,然后没多久它又消失了。互联网时代我们见过很多这样的公司,而那些网站中的不少,其复杂度其实并不比今天 OpenClaw 一类系统能做出来的东西高多少。

Lex Fridman:

也就是说,靠病毒式传播迅速爆发,再把这种流量变现。

黄仁勋:

对。只是我不知道具体会是什么。我当年也预测不到那些公司会是哪一家。

Lex Fridman:

你一直是扩展定律的坚定支持者。现在你还相信吗?

黄仁勋:

当然相信。事实上,我们现在拥有的不只是一个扩展定律,而是更多扩展定律。

Lex Fridman:

你讲过四种:预训练、后训练、测试时扩展,以及智能体扩展。你最担心的阻碍是什么?

黄仁勋:

先回头看。最开始,大家担心的是预训练扩展会碰到数据上限。高质量数据有限,模型再大也会撞墙。Ilya 甚至说过类似“预训练结束了”的话,整个行业都因此恐慌,觉得 AI 走到头了。

但这显然不是真的。未来训练数据还会继续扩展,其中相当大一部分会来自合成数据。很多人对“合成数据”感到困惑,可人类彼此传递、修改、增强、再传播的信息,本来就大量是“合成”的。现在 AI 已经能基于真实世界信息生成海量增强数据,所以训练未来不再主要受限于数据,而会越来越受限于算力。

黄仁勋:

第二个扩展定律,是测试时扩展。以前很多人告诉我,训练很难,推理会很容易;未来推理芯片会很小、很便宜、很容易商品化。但这在我看来一直不合逻辑,因为推理就是思考,而思考比阅读难得多。

预训练更像是记忆、泛化、寻找模式;而测试时推理,是面对新问题时去分解、规划、搜索、尝试不同路径。既然这是思考,它怎么可能是轻量计算?事实证明我们是对的:测试时扩展极其消耗算力。

黄仁勋:

再往后,就是智能体扩展。现在我们已经有了一个带大语言模型的 agent,但在测试时,这个 agent 会去做研究、查数据库、使用工具,最重要的是,它会再派生出很多子智能体。

这就像扩展 NVIDIA 一样:扩展我自己很难,扩展 NVIDIA 却可以靠增加员工做到。AI 也一样,下一条扩展定律就是把 AI 乘起来。

而这些 agent 还会继续产生更多数据和经验,其中一部分会被保留下来、重新进入预训练、后训练、测试时扩展,形成持续循环。归根结底,智能会继续扩展,而决定它上限的,最终还是算力。

Lex Fridman:

但真正难的是,你必须提前判断未来 AI 会朝什么方向发展,因为硬件架构的迭代周期远比模型慢。

黄仁勋:

对。AI 模型架构差不多每六个月就会变一次,而系统架构和硬件架构大概三年才变一次。所以你必须提前推断未来两三年的方向。

一部分靠自己的研究;另一部分靠和整个行业合作。我们可能是世界上唯一一家几乎和所有 AI 公司都合作的公司,所以我们能不断听见这个行业真正的“低语”。

Lex Fridman:

所以你是在提前预判未来?

黄仁勋:

其实更简单:你只需要推理。

如果大语言模型最终要成为一个“数字员工”,那它必须具备什么?

它必须访问真实依据,也就是文件系统;

它必须能做研究,因为我不可能等它对过去、现在、未来的一切都无所不知之后,才让它有用;

它还必须会用工具。

黄仁勋:

有些人说,AI 会彻底摧毁软件,不再需要工具。我觉得这很荒谬。

做个思想实验:如果未来十年我们真的造出一个非常强大的人形机器人,它来到我家之后,更可能是用我现有的工具来完成任务,还是把自己的手一会儿变成 10 磅锤子,一会儿变成手术刀,为了烧水又从手指里发射微波?显然,它更可能只是去用微波炉。

第一次不会用没关系,它上网看看说明书,立刻就会了。

所以未来 AI 的关键,不是摆脱工具,而是学会使用工具、访问文件、做研究,并与外部系统形成 I/O。顺着这条逻辑走下去,你会发现:我们其实重新发明了计算机。

黄仁勋:

如果你回头看我两年前在 GTC 画的 agentic systems 架构图,你会发现它和今天的 OpenClaw 几乎一模一样。

这件事之所以现在爆发,是因为模型能力到了,生态项目也成熟了。我觉得,OpenClaw 对智能体系统的意义,就像 ChatGPT 对生成式 AI 的意义一样。

Lex Fridman:

NVIDIA 今天已经是一个横跨芯片、系统、网络、数据中心、软件和生态的平台型公司。你是怎么运营这家公司的?

黄仁勋:

当你设计一台计算机时,你需要有一套“计算机的操作系统”;而当你设计一家公司时,你也应该先想清楚:这家公司到底要产出什么。

我看过很多公司的组织结构图,它们都差不多,但这在我看来没什么道理。公司的架构,应该反映它所处的环境,也应该服务于它最终要产出的产品。

黄仁勋:

我的直接汇报大概有 60 人,实际上还不止。几乎所有人都至少有一只脚踩在工程里:有做内存的,有做 CPU 的,有做光学的,有做 GPU 的,有做架构、算法、设计的。

我不做 one-on-one。因为这根本不可能。如果你真的有 60 个直接汇报,又想把工作做好,就不能靠一对一管理。

Lex Fridman:

所以你们讨论一个局部问题时,其他人也都会在场?

黄仁勋:

对。哪怕讨论的是散热、网络,所有人都在听。因为一个局部问题一定会牵动别的部分:它会影响供电,会影响内存,会影响网络。

在 NVIDIA,没有任何一个问题是靠一个人单独解决的。我们把问题摆出来,然后所有人一起攻击它。因为我们做的是极限协同设计,而从某种意义上讲,整个公司一直都在做极限协同设计。

Lex Fridman:

回头看,NVIDIA 最关键的一步可能就是 CUDA。那几乎像一次生死决策。

黄仁勋:

没错。我会说,那是最接近生死威胁的一次战略决策。

当时我们发明了 CUDA,它把 GPU 能加速的应用范围大幅拓宽。但问题是:怎么吸引开发者?因为计算平台的一切都围绕开发者,而开发者最看重的,不只是技术有多有趣,而是装机量够不够大。

黄仁勋:

我一直相信:装机量定义架构。

你看 x86,并不是最优雅的架构,却成了今天的决定性架构;反过来,很多极其优雅的 RISC 架构反而失败了。原因就在于,真正定义架构的不是美感,而是装机量。

黄仁勋:

所以我们当时做了一个非常艰难的决定:把 CUDA 放进 GeForce,放进每一台 PC,不管用户是否立刻使用它。与此同时,我们去大学、写书、开课,把 CUDA 带给研究者、科学家和学生。

问题在于,CUDA 让消费级 GPU 的成本暴涨,几乎吃掉了公司全部毛利。公司市值一度从六七十亿美元跌到十五亿美元左右。可我们还是坚持把 CUDA 带在 GeForce 上。

我一直说:NVIDIA 是 GeForce 盖起来的房子,因为正是 GeForce 把 CUDA 带给了所有人。

Lex Fridman:

那 NVIDIA 最大的护城河,到底是什么?

黄仁勋:

我们最重要的一个属性,是计算平台的装机量。今天我们最重要的东西,就是 CUDA 的装机量。

黄仁勋:

20 年前当然没有装机量。如果当时有人做了 GUDA、TUDA,也不会自动改变什么。因为这件事从来不只是技术。技术当然重要,但真正让 CUDA 成功的,不是三个人,也不只是一个好主意,而是公司持续投入、持续扩展它的能力边界。不是三个人让 CUDA 成功,而是 4.3 万名员工 和 数百万开发者 一起让它成功。

黄仁勋:

第一层护城河,是装机量。

第二层,是执行速度。在今天这种复杂度下,历史上没有任何公司建造过这种系统,更不用说每年建一次。

从开发者的视角看,如果我支持 CUDA,半年之后它平均就会变强 10 倍;如果我先把开源包做在 CUDA 上,我一下就能触达几亿台计算机、所有主要云、所有主要计算机公司、所有行业、所有国家。

而且开发者相信 NVIDIA 会一直维护 CUDA、一直优化库、一直投入。这种信任,才是壁垒的一部分。

黄仁勋:

我们的第二个核心优势,是生态系统。

我们把极其复杂的系统做了垂直整合,但同时又把它横向接进了所有人的计算机里:Google Cloud、Amazon、Azure、新型云公司、超级计算机、企业系统、边缘场景、汽车、机器人、卫星,甚至太空。

一个架构,覆盖全世界几乎所有行业。这个生态的广度,本身就是巨大的壁垒。

Lex Fridman:

供应链会让你睡不着吗?比如 ASML、台积电先进封装、SK 海力士的 HBM。

黄仁勋:

一直都在想,而且一直都在做。没有任何一家公司曾经像我们这样,在高速增长的同时还在继续加速增长。

在整个 AI 计算世界里,我们的份额还在继续上升。所以供应链,上游和下游,对我们都极其重要。

黄仁勋:

我花大量时间去告诉合作伙伴的 CEO:现在发生了什么,未来短期的增长驱动是什么,接下来还会发生什么,我们还要去哪里。

某种程度上,我对供应链 CEO 做的事,和我对 NVIDIA 员工做的事是一样的:告知、塑造、启发。

黄仁勋:

比如几年前,我说服了一些 DRAM 行业 CEO:虽然当时 HBM 还是一种很稀有、主要只在超级计算里使用的内存,但它未来会成为数据中心的主流内存。

起初这听起来很荒谬,但他们中的几位相信了,于是开始投资建设 HBM 产能。我们还推动把原本给手机用的低功耗内存适配到数据中心和超级计算场景。很多人最开始都觉得这很奇怪,但后来这些方向都跑出来了。

Lex Fridman:

所以你不只是在塑造 NVIDIA,也在塑造台积电、ASML、内存、封装,甚至更广泛的整条产业链。

黄仁勋:

上游、下游,都是。

Lex Fridman:

那你担心瓶颈吗?

黄仁勋:

不担心。因为我已经告诉他们我需要什么,他们理解了,也告诉我他们准备怎么做,而我相信他们会做到。

Lex Fridman:

外界一直流传一个故事:台积电曾经邀请你去接班,你拒绝了。这是真的吗?

黄仁勋:

是真的。那是一个令人无比荣幸的邀请。台积电是历史上最具决定性的公司之一,张忠谋也是我一生中最敬重的企业家和朋友之一。

但我拒绝了,不是因为那个邀请不够伟大,而是因为我当时非常清楚,我在 NVIDIA 正在做的工作同样极其重要。我已经在脑海里看见了 NVIDIA 会成为什么、会产生怎样的影响。而让这件事发生,是我的责任。

Lex Fridman:

所以现在你能以另一种方式同时帮助两家公司。

黄仁勋:

对,现在我可以帮助两家公司。

Lex Fridman:

你觉得 NVIDIA 将来会值 10 万亿美元吗?或者换个问法:如果这件事真的发生,那会是一个怎样的世界?

黄仁勋:

我认为,NVIDIA 的增长极有可能继续下去,在我看来,甚至是不可避免的。

黄仁勋:

为什么?先有两个根本性的技术原因。

第一,计算已经从检索式计算,转向了生成式计算。过去的计算机,本质上更像文件检索系统:人类预先写好、录好、画好内容,放在网络和文件里,再通过推荐与检索把它们取出来给你。

但现在,AI 计算机是上下文感知的,它必须实时处理和生成 token。也就是说,我们从一个“以存储和检索为中心”的世界,走向了一个“以实时计算和生成为中心”的世界。旧世界更需要存储,新世界更需要海量计算。

黄仁勋:

第二,计算机过去更像仓库,现在更像工厂。

仓库本身不直接创造收入,但工厂会。今天的计算机不再只是存东西、取东西,而是在直接生成有价值的产出。

不仅如此,这些产出——也就是 token——正在形成自己的经济层次:有免费 token,有高级 token,也会有不同等级的 token 服务。它会变成一个真正的经济体系。

Lex Fridman:

如果 agents 会无处不在,那接下来的主要瓶颈是什么?

黄仁勋:

电力是问题,但不是唯一的问题。也正因为如此,我们才如此强调极限协同设计,好让“每瓦每秒产出的 token 数”继续以数量级提升。

过去 10 年,按摩尔定律,计算能力大概增长 100 倍;而我们把系统规模和能力推进了 100 万倍。我们还会继续这样做。

黄仁勋:

我一直很想推动的一件事是:让更多人理解,电网大部分时间其实都存在大量闲置电力。

今天的问题在于,数据中心合同往往要求极致的“六个九”稳定性,结果导致整个电网都得按最极端场景配置。我的想法是,能不能让数据中心在极少数紧张时刻主动降功率、迁移负载、优雅降级,从而把平时闲置的电力更充分地利用起来。

只要需求被明确了,这就是可以被工程化解决的问题。

Lex Fridman:

AI 会不会让编程消失?

黄仁勋:

不会。它会改变编程。

未来的编程更像一个连续光谱:有时候你会把规格写得非常精确,因为你想得到一个很明确的结果;有时候你会故意少定义一点,让 AI 和你一起探索,把想法推得更远。

所以编程不会消失,只是“写规格”本身,会越来越像编程。

Lex Fridman:

你觉得芯片最终能拥有和人类一样的意识吗?

黄仁勋:

我不知道芯片会不会真正紧张。

AI 当然会识别紧张、理解焦虑,也会理解各种情绪,但我不确定它会不会真的“感受”这些东西。

所以我一直觉得,得把“智能”和“人性”拆开。智能包含感知、理解、推理、规划这些能力,但它并不等于完整的人性。

黄仁勋:

我甚至一直说,智能是一种商品。

我身边的人在各自专业上都比我更聪明,受过更好的教育,也更深入。但我仍然坐在中间协调他们。

这说明,人生真正重要的东西,不只是“智能”这一个词。人的痛苦承受能力、决心、意志、同情心、慷慨,这些都不是“智能”能概括的。

不要让智能被民主化、被商品化这件事让你焦虑。你应该被这件事鼓舞。

Lex Fridman:

NVIDIA 的成功、无数人的生活,都在某种程度上依赖于你。但你终究只是一个人,也会死。你会想自己的死亡吗?你怕死吗?

黄仁勋:

我真的不想死。

我有很棒的人生,很棒的家庭,也有非常重要的工作。

我现在经历的,不只是“一生一次”,而是某种“人类级别的一次性经历”。NVIDIA 是历史上最具影响力的科技公司之一,我们做的事情非常重要,我非常认真地看待它。

Lex Fridman:

那你怎么想继任这件事?

黄仁勋:

我很有名的一句话是:我不相信 succession planning(接班人规划)。

这不是因为我觉得自己不会死,而是因为:如果你真的担心自己离开之后公司的未来,那今天最重要的事,不是写一份接班计划,而是持续不断地传递知识、信息、洞察、技能和经验。

黄仁勋:

这也是为什么我总是在团队面前当场推理。

每一次会议,都是推理会议;

我在公司里、公司外花的每一分钟,本质上都是在尽快把知识传给别人。

我学到的任何东西,都不会在我桌上停留超过一瞬间。还没等我完全学明白,我已经在把它指给别人:去学这个,这太重要了。

市场机遇
Delysium 图标
Delysium实时价格 (AGI)
$0,01199
$0,01199$0,01199
-0,99%
USD
Delysium (AGI) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。