对话 | 微软CEO纳德拉谈2025 AI行业转折点:DeepSeek们改变了什么?没改变什么?(附视频)_腾讯新闻

对话 | 微软CEO纳德拉谈2025 AI行业转折点:DeepSeek们改变了什么?没改变什么?(附视频)_腾讯新闻

https://news.qq.com/rain/a/20250221A018X900

(关注公众号设为🌟标,获取AI深度洞察)

【文章核心预览:】

  • 1、纳德拉回应AI价格战:效率提升将重塑需求,但关键是能否带动GDP增长至10%

  • 2、微软AI收入130亿美元,4年后目标1300亿,但提醒"不能只看供给端自嗨"

  • 3、量子计算迎来"晶体管时刻",预计2027-2029年商用

  • 4、发布游戏AI系统Muse,展示微软在"世界模型"领域布局

随着DeepSeek等新兴力量在AI效率和成本上的突破,整个行业都在追问:低成本模型是否会重塑当前由OpenAI、谷歌和微软主导的AI格局?这场效率革命究竟会带来怎样的改变?

昨天2月20日,在这场长达一个多小时的深度对话中,微软CEO萨蒂亚·纳德拉(Satya Nadella)首次公开回应了当前的AI行业变革,给出了一个出人意料的答案。"每当像DeepSeek这样在'单位令牌性能'效率前沿上实现突破,就会推动整个行业的需求曲线向外扩张,"他说,"但更重要的是要看到,如果只是供给端在自嗨,却没法真正把投资转化为客户价值,那就会跑偏。"

作为全球市值最高科技公司的首席执行官,纳德拉的思考远超表面的价格竞争。当整个行业都在为计算成本的大幅下降欢呼时,他却在关注另一个更具战略性的问题:AI技术究竟能在多大程度上推动实体经济的根本性增长?"如果我们说这会像'工业革命'一样,那就让它真能带来类似工业革命的增长率,"他说,"这意味着10%的增长,或者至少7%,发达国家通胀调整后还能有5%。这才是真正的标志。"

主持人: Satya,非常感谢你来到我的播客。

嘉宾Satya Nadella:  谢谢!

一、回顾科技的历史

主持人: 你所说的 80 和 90 年代最终哪些决策持续成为长期赢家,哪些没有?尤其是当你回想你曾在 Sun Microsystems工作过——他们在 90 年代互联网泡沫时也经历过一些有趣的事情。人们常说当时的数据中心建设是个泡沫,可与此同时,我们今天的互联网也正是那时所构建基础的结果。那么,关于哪些东西会经得起时间考验,哪些只是短暂的,你从中学到什么?

Satya Nadella: 如果要回顾一下,我参与过的四次重大转变:其一是客户端以及客户-服务器,也就是图形用户界面的诞生,以及 x86 架构让我们可以构建服务器。这一切对我来说都很清晰。我还记得在 1991 年去参加当时名为 PDC 的大会,那年是在 Moscone 中心举办的。那时我还在 Sun,但我还是去了。在那里微软首次阐述了 Win32 接口,我看得很明白将会发生什么:服务器也会转向 x86。只要你看到谁拥有规模优势,你就必须押注哪里会出现“结构性”的成功。客户端上的事情会在服务器端重演,然后你就能够真正构建客户端-服务器的应用程序。所以说,应用模型变得很清晰。随后,万维网对我们来说是一件大事。从我刚加入微软开始,我们就不得不应对它。Netscape 浏览器或者 Mosaic 浏览器是在 1993 年 12 月或 11 月左右发布的,对吧?应该是 Andreessen 和他的团队那时做的。这带来了巨大的改变。当时有趣的是,我们好不容易在客户端-服务器这波浪潮上刚要有所建树,看起来我们要赢了,然后浏览器这个新东西就出现了。所以我们不得不做出调整。而我们也在调整上做得还不错,因为浏览器等于是一个全新的应用模型。我们借助一切可用方式来拥抱它,不管是把 HTML 引入 Word,还是自己做个浏览器去竞争,或者说在我们的服务器端堆栈里做一个 Web 服务器去抢市场。当然,我们还是错过了万维网上最大的商业模式——我们都以为网络是去中心化的,谁能想到搜索竟会成为网页组织的最大赢家?所以谷歌看到了这一点并执行得非常好,而我们没能预见到。这对我来说也是个教训:你不仅要看准技术趋势,还要看清在这种趋势下价值是如何创造、以及创造在哪里。这种商业模式层面的转变有时候比技术趋势本身还要更难捕捉。

主持人: 那在人工智能上,价值会在哪里创造呢?

Satya Nadella: 这是个非常好的问题。我觉得有两个领域是我可以比较有把握地谈一谈的。首先是那些做得好的超大规模云,因为你如果回到 Sam Altman和其他人所说的,如果“智能与计算的对数成正比”,那么能做大量计算的人就是大赢家。还有一个有趣的点在于,任何 AI 工作负载的底层,比如说 ChatGPT,大家都很关注 GPU 这边发生的事情,而且这当然很好。但在我看来,我的“机群”里,不仅是 AI 加速器(GPU 等),还要配合存储和常规计算,而且规模要足够大才能支撑。对吧?所以,在大规模之下,你就必须扩容。实际上,这些 AI 工作负载就像天上掉馅饼一样,因为它们需要更多计算力。不仅是训练需要大量计算,推理同样需要。当你考虑一个 AI 代理(agent)时,它会指数级地增加对计算的需求。因为一个人调用了一个程序,这个程序又会调用更多程序,这样就会创造出海量的需求和规模。因此,我们的超大规模业务,Azure 业务,乃至其他超大规模云业务,我认为会在这里获得非常大的机会。

然后再往上,就有些模糊了。有人会说:“嘿,会不会出现赢者通吃?”我并不这样认为。这是我另外一个体会:理解哪些市场是“赢者通吃”,哪些不是,这本身非常关键。我记得在做 Azure 的早期,亚马逊已经遥遥领先,有投资者告诉我,“哦,没戏了,你赶不上了,亚马逊就是赢者通吃。”但我之前在客户端-服务器的时代和 Oracle、IBM 竞争过,我知道企业客户是不会容忍“赢者通吃”的。结构上,超大规模云就不太可能是赢者通吃,因为客户都很聪明。消费市场可能会有赢者通吃的情况,但只要是企业买单,就一定会希望有多家供应商。所以你只要成为其中一家就够了。我想在模型这个层面也会发生类似情形。一定会有开源的做法,也会有某种牵制力。就像过去 Windows 是闭源操作系统,但市场上一定会出现一个互补的开源系统一样,以此来制衡它。从某种程度上,这种制衡是自然存在的。我认为在大模型方面也会如此。也许会有一些闭源模型,但肯定也会有开源替代方案,而这种开源替代方案会确保闭源模型无法彻底拿下“赢者通吃”。这是我对模型层面的看法。而且,如果 AI 真像人们说的那么强大,各国政府也不可能坐视不管。在全世界范围内也是如此。所以我并不觉得会是“赢者通吃”。再往上就是我们熟悉的东西了。消费领域有些类别或许存在“赢者通吃”,因为存在网络效应。ChatGPT 就是很好的例子——这是一个已经达到规模的消费级产品,而且已经获得了真正的“逃逸速度”。我去应用商店看,它一直排在前五名,我心想:“哇,这太不可思议了。”他们利用了先发优势并把它转化为应用层面的优势。这在消费领域的确可能发生。但在企业领域,我觉得各个细分领域会出现不同赢家。这就是我的分析方式。

二、对AI的深度思考

主持人: 我有很多问题想追问。我们还得马上聊聊量子的事情。但就你刚才说的模型会被商品化这一点:也许在几十年前也有人对云计算做过类似论断——“从根本上说,它不过就是芯片和机箱”,但最终,你和其他一些人却在云端获得了惊人的利润率,因为你们找到了发挥规模经济、并且往里叠加其他价值的方式。如果我们跳过所有术语,本质上讲,如果你能先做出通用人工智能,让它帮助你做更好的 AI——目前还处于用合成数据(synthetic data)和强化学习去训练,未来也许会出现自动化的 AI 研究者。这感觉就是一个相当强的优势巩固手段。你怎么看?就像真的领先就真的重要。

Satya Nadella: 在规模上,没有什么真正是“商品化”的。就像你说的云计算,一开始谁都觉得是“通用货”,可实际上,当你做大规模后……这就是为什么运营超大规模云的“诀窍”非常重要。有人可能会说:“哎呀,这不就是把服务器机架起来吗?”但在超大规模云出现的早期,大部分人以为“有那么多托管服务商,这些生意看起来都不怎么样,超大规模云能有什么前景?”可事实证明,它确实是一桩好生意,因为运营 Azure 这样覆盖全球 60 多个区域的计算服务,这里面的门槛和诀窍是非常高的,不是你想复制就能复制的。我刚才的意思更多是:这是不是一个“赢家通吃”的市场?因为你必须得想明白,你投身的市场究竟是不是“赢家通吃”。我更喜欢进入那种市场容量(TAM)很大,同时不会被一个玩家吃光的领域。能容纳多家共赢的大市场才是最好的,而你只要成为其中之一就行。所以,我看好的那层是“超大规模云”。在模型层面,它依然要在某家超大规模云上运行。模型是需要状态的,这就需要存储,需要常规计算来运行那些代理以及代理环境。所以这种紧密联系,我认为会一直存在。不是说有了一个模型就够了;模型也需要存储,需要运行,这都需要大规模计算环境的支持。此外还要看到,如果这个东西真像人们所说的那么重要,国家也不会让私营企业一家独大。所以,我觉得不会出现某个人拿下全部模型的局面。

主持人: 在超大规模云这一层面,还有一个有意思的点,就是你也有一定的优势,特别是在推理方面。毕竟训练完的 GPU 也可以给推理用,你可以在推理端收取费用,并且可能继续训练未来的模型,这就意味着你可以在数据中心和 GPU 上分摊成本。我想问的是:你怎么看待微软和 Azure 在“超大规模”这个层面上扮演的角色?是主要做预训练吗?还是会更偏向提供推理,比如执行 O3 等推理服务?或者说你会对市面上的所有模型都提供托管和部署,不带偏见?

Satya Nadella: 这个问题问得好。我们想要做的就是,某种程度上说,继续“骑着摩尔定律”往前走。我觉得这会和我们之前所做的一切类似:每年都对机群进行更新升级,根据硬件的生命周期来做折旧,并且不断提升调度部署的能力,让这些资源在运行不同任务时保持高利用率。有时是大规模的训练任务,需要超高的峰值浮点运算,而且这些浮点必须集中、协同在一起。这没问题——我们应该有足够的数据中心来提供这样的能力。可归根结底,这些规模巨大到一定程度后,即便是预训练也可能需要跨多个数据中心。到那个时候,就没有什么本质区别了,这都是分布式计算嘛。所以在我看来,构建 Azure 的思路就是:把分布式计算当做常态,去打造足够的规模,一方面能满足大型训练任务,另一方面能满足推理需求。更别提强化学习或许会让那些已经训练好的大模型继续训练出各种高度专用的“蒸馏”子模型。它们和真正的训练相比,其实也要消耗类似规模的计算。所以要为此打造一个统一的计算机群。另外,还有推理需要。速度极限毕竟还是光速啊,你不能只在德州放一个数据中心就打算服务全世界。你必须在世界各地部署推理机群。所以我对“真正的超大规模云机群”的构想就是:不仅要在世界各地都有推理设备,还需要把存储和计算部署到哪些地方。因为训练数据也要就近存储,应用程序也要运行在这些地方,而不是仅仅在云端跑一个加速器。我就是这样看待我们对“超大规模云”建设的。

主持人: 你们前不久公布的人工智能年收入是 130 亿美元。如果看你们的年增长率,再过四年可能就是它的 10 倍,也就是 1300 亿美元。如果增长一直维持,你认为到那个规模时,你会用那些“智能”去做什么?是在 Office 里体现吗?还是帮别人做托管?或者你得做出 AGI 才能有那么大的收入?你觉得会是什么场景?

Satya Nadella: 我一般的思考是这样的,Dwarkesh,这问题问得很好。某种程度上,如果真的出现了这种爆发式、富足式的“智能”供应,那首先要观察的就是 GDP 的增长。在我谈微软具体营收之前,先说全世界唯一的“调节器”就是现实中的经济增长。这就是为什么大家对 AGI 产生各种激动,但其实我们也要看看现实:发达国家 GDP 增长是多少,2%?去掉通胀就基本等于零。所以,如果是 2025 年,至少就我所知,我不是经济学家,我也看得到增长很乏力。所以,首先我们需要的是,当我们说这会像“工业革命”一样,那就让它真能带来类似工业革命所带来的增长率。对我来说,这意味着 10% 的增长,或者至少 7%,发达国家通胀调整后还能有 5%。这才是真正的标志,不能只是供给端在自嗨。有不少人正在写文章,提到 AI 的最大受益者不一定是科技公司,而会是那些在各个行业使用 AI 的企业,因为 AI 成为了廉价而丰富的商品,从而带来生产力的提升,让经济能更快地发展。如果真是那样,我们做科技的肯定也能过得不错。但对我来说,关键时刻不在于我们自吹自擂说拿到了什么 AGI 里程碑,这更多像是自说自话地拼命跑分。真正要看的“跑分”是:世界经济是否真的能从 2% 飞到 10%?

主持人: 如果全球经济大概是 100 万亿美元,你说它涨到 10% 的年增长,那就相当于每年额外多生产 10 万亿美元。如果那真能发生,你作为一家超大规模云提供商,光 80 亿美元营收似乎都算小了——是不是应该到 8000 亿美元那种量级?

Satya Nadella: 没错。但这就是典型的“供给侧”说法嘛,——“我们先把它建起来,他们就会来用”。确实,我们已经承担了不少风险,去做投资了。但最终还要看供给和需求能不能对得上。这就是为什么我会紧盯两边。要是只看供给侧自己嗨,却没法真正把投资转化为客户价值,那就会跑偏。这也是我为什么会时常去关注推理营收——很多人其实并不公开谈自己的真实营收,但对我来说这就是一个重要的指标,可以帮助我判断,你是不是能把“昨日的资本投入”转化为“今日的需求”,然后再有信心继续加倍或指数级地投资,而且不会遭遇严重的供需错配。

主持人: 我感觉你在这儿似乎提出了两种看似矛盾的观点。一方面,你所做的很棒的一点就是敢于早投,比如 2019 年就投了 OpenAI,那时候还没有 Copilot 或任何具体应用。如果回顾工业革命,当年那些大规模建设铁路或其他基建,许多都不是“我们先卖票赚到钱,再去投资”。实际上有很多项目亏了钱。如果你真的相信人工智能能像下一次的工业革命一样,让世界增长率翻几倍,那么再想想:“GPT-4 能带来多少营收?” 这似乎就有些短视了。如果你真觉得 AI 有可能把世界经济增速提高 5 倍、10 倍,那么是不是该“放手一搏”,直接花几千亿去建计算能力?万一成功了呢?

Satya Nadella: 这就是有趣的地方。平衡地看问题很重要。别忘了,建算力不是目的,关键还要把它转化为实际需求。你不仅要能训练下一个大型模型,还要能服务它,把它用起来。否则,仅仅训练出一个模型并不代表你会得到收益。所以,这不是一场“只要把模型训练出来就赢了”的竞赛,而是要把它变成在现实世界中被使用的商品,为客户提供实际价值。有了这个完整逻辑,你的投资才有意义。话说回来,我也同意一定会出现“过度建设”——就像你提到的互联网泡沫时代,大家都在大举建设数据中心,里面浪费了很多资金。但也正因为如此,我们才有了互联网的基础设施。现在,大家也意识到“AI 需要更多能耗,需要更多计算”。所以每家企业、每个国家都在抢跑。对我来说,这真的很棒,我自己也要租用很多设施。我也很高兴在 2027、2028 年能租到别人的容量,因为看到大家都在大规模建数据中心,我会觉得:“太好了,这样所有计算的价格都会下降。”

三、 DeepSeek 模型的崛起

主持人:  说到价格下降,你前不久在 DeepSeek 模型发布后发推文提到过“杰文斯悖论”(Jevons’ Paradox)。能展开讲讲吗?杰文斯悖论通常发生在需求具有高度弹性的情况下。如果我们说“智能”会因为价格下降而被卡住瓶颈,你怎么看?因为就我自己的消费级使用场景来看,智能已经很便宜了——每百万 tokens 才两美分。如果真的要降到 0.02 美分,我并不觉得自己在乎那种级别的降价。我更希望它变得更聪明。就算你需要向我收 100 倍的费用,也没问题,只要能做一个大 100 倍的训练,我很乐意买单。但也许你在企业端看到了不一样的东西。你觉得智能的哪些关键应用,会需要它降到每百万令牌 0.002 美分的水平呢?

Satya Nadella: 关键在于令牌 的实用性需要同时变得“更聪明”且“更便宜”——两者都要发生。任何时候出现突破,比如 DeepSeek 在“单位令牌  的性能”这条效率前沿上实现了提升,就会改变曲线,推动前沿往外扩张,这自然会带来更多需求。云计算的发展也经历过同样的过程。当时我们还以为:“天啊,客户-服务器时代已经把服务器卖遍了。” 结果一旦开始把服务器放到云上,人们就开始买得更多,因为他们能以更便宜、更灵活的方式买到,而且按用量付费,而不是买许可。这让市场大大扩张了。我记得以前去印度这种国家推广“这是 SQL Server”,那时虽然我们能卖出去一点,但规模不大。可当我们把云服务带到印度,规模就远远超过了我们之前在服务器时代所能做到的。我觉得,这个道理在其他地方也一样成立。再举例,如果你想让发展中地区,比如“全球南方”的一些国家,用极其便宜的令牌 来提供医疗服务,那将带来巨大的变革。

主持人: 我想有人会听到你这样说,然后觉得,“这些在旧金山的人有点天真,他们并不了解在现实世界中真正部署这些东西会碰到什么问题。”而你跟财富 500 强公司打交道,并帮助他们把这些技术部署到数亿乃至数十亿人的场景中。你觉得这些能力的部署速度会有多快?当你手里真的有了可用的“智能代理”,能做远程工作、具备合规性,但也面临各种瓶颈时,它的部署过程是否还会受到很大限制?还是说这个过程会很快地得到推进?

Satya Nadella: 这绝对是个挑战,因为真正的问题在于“管理变革”或“流程变革”。我常用一个类比:想象在个人电脑和电子邮件、电子表格出现之前,一个跨国公司是怎么做“预测/预报”的?他们会传真的往来,然后有人收集这些传真,写成内部备忘录,再继续发送给别人做数据录入,最终可能在下个季度前夕才得到一个预测结果。后来有人说:“嘿,我可以用 Excel,然后发电子邮件,让大家去更新,最后我就能得到一个预测结果。” 整个预测业务流程因此发生变化,因为工作的“载体”和“工作流”都变了。现在引入 AI 到知识工作里,也需要这样的流程重构。实际上,当我们谈到“智能代理”时,本质上就是在构建一个新的工作模式和工作流。举例来说,为了准备我们的播客,我会对我的 Copilot 说:“我要和 Dwarkesh 谈量子公告和我们新做的游戏生成模型。给我一份在此之前我应该读什么材料的总结。” 它知道那两篇发表在《自然》上的论文,并把它们提取出来。然后我还说:“把这些内容整理成‘播客对话’的格式。” 它就给我生成了一个非常棒的“双人对话”式摘要。接着我就把这个文稿放进 Pages(我们用的一种文档平台)里,然后分享给我的团队。对我来说,新的工作流程就是:借助 AI,然后再和同事一起完成知识工作。

对于每个做知识工作的人来说,这就是一次深刻的变革:要突然学会用这些新模式来完成工作。具体来说,这在销售、财务、供应链等不同部门都会发生。对已有规模的公司而言,我觉得这会类似于当年制造业拥抱“精益生产”那种过程。我喜欢举这个例子,因为精益生产为制造业提供了一种端到端流程提升的方式,通过持续改进,一边减少浪费,一边增加价值。现在,这种方法会降临到“知识工作”上,相当于让知识工作也变得“精益”。管理团队和知识工作者要做很多努力,这会需要时间。



Read Next page

Report Page