对话 | 微软CEO纳德拉谈2025 AI行业转折点:DeepSeek们改变了什么?没改变什么?(附视频)_腾讯新闻

对话 | 微软CEO纳德拉谈2025 AI行业转折点:DeepSeek们改变了什么?没改变什么?(附视频)_腾讯新闻

https://news.qq.com/rain/a/20250221A018X900

主持人: 能不能再具体谈谈这个类比?精益生产在某种程度上改变了工厂车间的实际物理布局,同时揭示了流程和工作流中原本被忽视的瓶颈。你提到你的个人工作流已经因 AI 而改变,能不能再详细描述一下,如果在一家大公司里有哪些越来越强的 AI 代理,我们要怎么运作这家公司?

Satya Nadella: 你提的问题很有意思。现在,如果我们看看现实,很多公司依然对电子邮件非常依赖。每天早上我一打开邮箱就看到满满的收件箱,需要一个个回复。我很期待 Copilot 等代理能自动给我把草稿生成好,然后我只需要审阅并发送就行。但其实现在我在 Copilot 里已经有十来个不同的代理了,它们分别负责不同的任务。我感觉未来会出现一种新的“收件箱”,那里汇集了我发起的“数百万个代理”的各种消息,比如需要我处理的例外情况、给我的通知,以及跟我询问下一步指令。所以我觉得我们需要新的“支架”——即所谓的“代理管理器”,而不仅仅是一个聊天界面。我需要一个比聊天界面更智能的东西,来管理所有代理及其对话。这就是为什么我说“Copilot 作为 AI 的用户界面”是一个极其重要的概念。我们每个人都会拥有类似的界面:有一堆知识工作要做,有一堆代理在帮我们做,而我们这个“真人的知识工作者”要和所有这些代理进行对接。我觉得这就是必须要去构建的人机交互界面。

四、量子计算的突破

主持人: 你是世界上少数能够说“我手下有 20 万员工”的人之一,也就是说你可以调用庞大的人力智能网络——微软员工就是你的“蜂群智慧”。你需要管理它,协调它,充分利用它。希望未来更多人能体验到你这种感觉。我也想知道,如果大家的收件箱都和你的一样,每天早上打开是否都会有很多“指令”要处理……好吧,先不说这个。刚才还有很多关于 AI 的问题要问你,但我真的很想聊聊你们在量子计算领域的重大突破——微软研究院刚刚宣布的。你能不能给我们解释一下到底发生了什么?

Satya Nadella: 这方面我们已经努力了 30 年,确实令人难以置信。我是微软的第三任 CEO,对量子一直很感兴趣。我们一直以来的核心愿景是:想要构建可实用规模的量子计算机,就必须有物理层面的突破,保证量子比特更稳定、更少噪音。我们选了一条路,就是利用某种物理特性,让它从原理上就更可靠,也就是利用所谓的马约拉纳零模。它在 20 世纪 30 年代就被理论预言过,问题是:我们能不能在现实中制备这种东西、并实际制造出来?这次的大突破就是:我们终于拿到了实证,证明在一种新物质相中,马约拉纳零模确实存在。这也是为什么我们说这是量子计算的“晶体管时刻”:我们发现了一种新物态,即拓扑相(topological phase),这让我们可以更可靠地隐藏量子信息并测量它,而且可以实现器件化生产。有了这个基础的器件制造技术,我们就能开始打造所谓的“马约拉纳芯片”(Majorana chip)。而“Majorana One”将有望成为第一块能够支持上百万物理量子比特的芯片,而在这个物理层面之上,我们可以实现上千个纠错后的逻辑比特。这就真正打开了局面,让我们能制造一个实用规模的量子计算机。我现在觉得这变得更加可行了。如果没有类似的突破,你当然可以在其他路线不断取得一些进展,但很难做到真正的实用级量子计算。这就是为什么我们对此非常兴奋。

主持人: 我想确定一下,我们管它叫 Majorana?对吧,Majorana One。我很高兴你们用这个名字。想想看,将来我们能把一百万量子比特都塞进这么一个体积的东西,真是难以置信。如果做不到这种程度,也就没法真正构建一个实用的量子计算机。你的意思是,未来的一百万物理量子比特会放在这么一块芯片上?太神奇了。其他一些公司也宣布了他们拥有一百个物理量子比特,比如谷歌、IBM 等等。你们则说你们只有一个,但同时又说你们在长期可扩展性上更强。

Satya Nadella: 是的。我们做法中还有一点是,将软硬件分开。我们一方面在构建自己的量子软件栈,与此同时,也跟“中性原子”和“离子阱”这些量子技术伙伴合作。还有些人用光子学等方法。他们各自都有不错的思路。举例来说,我们最近还宣布了在纠错上的重大进展,能够在中性原子或离子阱的量子计算机上实现 24 个逻辑量子比特。今后我们还会继续提升这个数字,你今年也会看到我们更多的更新。但这是相对而言的。在做这些合作的同时,我们也说:“让我们回到第一性原理,自己打造量子计算机”,而且要基于“拓扑量子比特”的思路。这次的突破就是在这个层面上。

主持人: 你说到的“一百万拓扑量子比特”和“几千个逻辑量子比特”,预期要花多长时间才能做到?有没有类似“摩尔定律”之类的指导?如果这是你们的“第一个晶体管”,那接下来的发展路径是什么?

Satya Nadella: 我们其实已经努力了 30 年,好在现在我们有了物理层面和制造工艺的突破。我真希望我们早就有一台量子计算机,因为有了量子计算机后,第一个用处就是拿它来造更好的量子计算机——模拟每一个原子去设计新的量子门会更容易。但无论如何,下一步就是既然我们有了这种制造工艺,就要把它用来打造第一个可容错的量子计算机,这是合乎逻辑的目标。我现在能说的就是:“也许在 2027、2028、2029 年,我们就能真正把它造出来。” 有了这个单一门,我们就能把它集成到集成电路里,然后再把这些集成电路装配到一台真正的计算机中。那将是下一个关键点。

主持人: 等到你们在 2027 或 2028 年把它造出来,那时它会是一种通过 API 来访问的服务吗?或者你们会先在内部用它来做材料、化学研究?

Satya Nadella: 这是个好问题。其实就算在今天,我们也有量子程序,并且提供了一些 API。两年前我们就有了一个突破性的想法:把 HPC(高性能计算)、AI 和量子结合起来看。如果你想想看,AI 是某种模拟器,而量子才是真正的“自然模拟器”。量子计算并不会取代经典计算:各自有适合处理的范围。量子特别适合那些数据量不大、但状态空间巨大的场景。它擅长做各种指数级状态探索的工作,而对大量数据的处理并非它的强项。模拟就是个绝佳例子,比如化学、物理、生物等。我们现在已经在用 AI 来做某种“仿真引擎”,然后可能用量子来生成一些“合成数据”,再给 AI 做训练。这样 AI 就能更好地去模拟化学或物理等现象。这两者将结合起来使用。在今天,我们就是把 HPC 和 AI 结合在一起用。未来,我希望能把 HPC 的某些部分替换成量子。

主持人: 你能不能谈谈微软在做这些长期研究决策时,是怎么运作的?比如这件事要等 20 年或 30 年才有回报,而你们作为微软这样大的公司,是怎么判断的?显然你在这项目上非常熟悉技术细节,但微软研究院做的事情那么多,每一项都要像这样了解也不现实。那么,你怎么知道你所做的这些长期投资会不会在 20 年后带来回报?这需要一种“自下而上”的自发过程吗?还是你会自己去跟进所有事情?

Satya Nadella: 我觉得很棒的一点是:比尔盖茨大概在 1995 年创立了微软研究院(MSR)这种“出于好奇心驱动”的研究组织。把它纯粹当作一个做基础研究的团队。在这么多年的演进中,MSR 建立了雄厚的学术积累。所以,当我在做资本分配或预算决策时,我会先说:“这是 MSR 的预算。” 毕竟,大多数研究项目都不会在短期内带来回报,可能是到微软第六任 CEO 上任时才会见效。在科技领域,这本就是理所当然的。我更关注的一点在于:当像量子、或新模型这些研究时机成熟时,公司能不能抓住机会发挥它们的潜能?如果你回顾科技史,很多公司不是没投入,而是当真正需要把创新落地、做到大规模时,往往因为企业文化或其他原因做不到。所以对 CEO 和管理团队来说,难点不只是在于看到一项创新,更要有能力把它做成一个完整的产品,并找到一个合适的商业模式去推向市场。这需要良好的判断力和好的企业文化。我们有时做得好,有时也会失误。我也能举出一大堆 MSR 的项目,本可以由我们来率先发布,但最终没做成。每当这种情况,我就会反省:为什么?通常是因为我们没能获得足够的信心,或者没能形成从创新到产品,再到商业化、再到上市的完整思路。换言之,CEO 和管理团队的职责并不是只对某个想法很兴奋,而是要把它变成一个真正有用的解决方案,这可不是说起来那么容易。

五、游戏领域的创新

主持人: 我们回到你们的另一个大突破。太让人惊讶了,两项突破在同一天宣布:你们在游戏方面的人类行为模型。能给我们说说那是什么吗?

Satya Nadella: 我们打算叫它 Muse,是一个“世界动作”或“人类动作”模型。这非常酷。你知道 DALL·E 和 Sora 之类的生成式模型在视觉领域做得很出色。我们想尝试的是:利用游戏的玩法数据,能不能生成既“一致”又具有多样性、并且可以持续让用户进行 修改的游戏世界?这就是这项研究做的事情。他们和我们的一家游戏工作室合作,把研究成果发表在《自然》。让我很兴奋的是,我们很快就能用这些模型来生成一些游戏,然后让大家来玩。事实上,Phil Spencer 第一次给我展示时,他拿着一个 Xbox 控制器。这套模型会根据输入生成相应的输出,而且还能保证跟游戏的逻辑保持一致。那一刻,我就觉得“哇,好惊人”。有点像我们第一次看到 ChatGPT 能把句子补完,或者第一次看到 DALL·E、Sora 生成图像的时候。对我来说,这是同样的震撼时刻。

主持人: 今天早上我和你们的首席研究员 Katja 一起看了实时演示的视频。在跟她聊之前,我还没完全意识到这件事有多不可思议。我们过去也用 AI 来模拟单个代理,但如果用同样的方法去模拟“代理所处的世界”,就能得到一个一致且实时的效果——我们会在播客上叠加一些演示画面,让观众能直接看到效果。等这期节目发布的时候,大家也能自己去看演示。这本身就很让人惊叹。而且你在担任 CEO 的这段时间里,微软在游戏领域投入了数十亿美元乃至上百亿美元,收购了不少 IP。如果最终我们能把所有这些数据都融进一个模型里,给玩家提供无缝衔接、多世界连贯的体验,那感觉就像当初那些投入都很值。你之前预料到这一点了吗?

Satya Nadella: 我并不会说我们投资游戏就是为了“做模型”。坦率讲,我们更纯粹地是因为喜欢游戏而投资。微软在游戏领域其实有悠久的历史:我们做出第一款游戏比 Windows 还早,最早的《模拟飞行》就是微软的产品,所以我们对游戏是“发自内心地热爱”。我常说,我不喜欢那些只把游戏当“手段”,而不是“目的”的业务。如果我们要做游戏,就得把它当作独立的目标去做。当然,我们也并非一个松散的联合体;我们希望把不同的资产整合到一起,产生更大的协同价值。比如云游戏就是个自然的投资方向,因为它能扩大市场容量,让更多人在更多地方玩游戏。AI 与游戏的结合也是类似的逻辑,我们确实觉得它能带来帮助,也许会像当初“CGI 技术”之于电影业那样改变游戏领域。对我们来说,这是个好消息,毕竟我们是全球最大的游戏发行商之一。不过前提还是要先做出高品质的游戏。要当游戏发行商就得先把游戏品质放在首位。但的确,游戏里的数据资产会非常有价值,不仅在游戏场景里,在更广泛的“世界模型”或“行动模型”里都很重要。就像 YouTube 之于谷歌,游戏数据之于微软一样,所以我对此很兴奋。

主持人: 我的意思正是:也许未来可以在很多不同游戏类型之间拥有一个统一的体验。那么从更广泛的角度看,除了 AI 之外,你们过去还在混合现实方面做过不少工作,也可能会让小型工作室也能做出 AAA 级的动作游戏。再过五到十年,结合这些技术,你能预见到什么变化吗?

Satya Nadella: 大概在五、六、七年前,我就说过我们要押注的三大方向是“AI、量子和混合现实”,我现在依然信这一点。从某种意义上说,这三者背后都有需要解决的重大挑战。拿混合现实来说,它的终极梦想就是“临场感”,让你真实地感觉到和另外一个人同处一室。你看我们现在在做播客,虽然还只是 2D 的视频通话,就已经很棒,但想要实现真正的“实时沉浸感”其实更难。我本来以为会更快实现,但发现涉及到戴设备等各种社交因素,其实挺复杂。不过我也对我们跟 Anduril、Palmer 合作,以及他们在 IVAS 项目上所做的工作感到兴奋,那是一个很好的应用场景。我们会继续在这方面前进。另外,2D 的形式也在不断进步。比如 Teams,经历了疫情后,它让我们学会了在 2D 环境里创造“临场感”,这大概会继续发展下去。这是混合现实的某条演进路径。量子我们刚才已经谈过,AI 则是另一大方向。我所思考的是,怎么把这三者结合起来,不是为了炫技,而是真正去解决人类生活和经济发展中的一些基本需求,以提高生产力。所以,如果我们能以某种方式把这一切都做对了,我认为我们就真正取得了进展。

六、AI的社会影响

主持人: 等你写下一本书的时候,你得解释一下:为什么这三个方向(AI、量子、混合现实)会在差不多同一时间点汇聚?你看不出有什么内在理由让你觉得量子和 AI 恰好会在 2028 或 2025 年出现。

Satya Nadella: 没错。从某种层面上,我的一个简单模型是:“系统层面”的突破,我会把量子计算看作是那个“系统层面”的突破;“商业逻辑层面”的突破,对我来说是 AI——因为它意味着逻辑层可以用完全不同的方式来推理,而非传统的命令式编程,你可以用一个学习系统;然后就是“用户界面层面”——也就是“临场感”。

主持人: 回到 AI。你在 2017 年那本书里……然后在 2019 年又很早地投资了 OpenAI——2017 年就更早了。你在书里写道:“我们也许正在孕育一个新物种,而它的智能可能没有上限。” 2017 年谈这个还非常超前。我们现在聊了很多很细节的东西,比如智能代理、Office Copilot、资本开支等等。但若把视角拉远一些,看看你当时说的那句话,再加上你是一家“超大规模云”企业的领导者,也在做大模型研究,同时提供训练、推理、乃至研究上支持,等于你在帮助构建这个“新物种”。你从更宏观的角度怎么看待这件事?你觉得在人生或者你任 CEO 的时间里,会出现“超越人类智能”吗?

Satya Nadella: 我知道 Mustafa Suleyman 也在最近提过“新物种”这个说法。我对这个问题的看法是:我们绝对需要“信任”。在我们自称“这是一个全新的物种”之前,有一点必须先做好——无论是个人层面还是社会层面的信任,都要内置其中。这才是最大挑战。我认为,这个“信任”可能会成为它走向强大过程中的最大速率限制因素。也就是说,我们法律体系……也可以把它叫做“法律基础设施”——就像我们谈的计算基础设施那样,我们的法律和法规要如何演进才能应对?这个世界之所以能运转,是因为我们在其中设定了人类拥有财产、拥有某些权利、承担责任……那是我们整个社会架构的基础。如果现在出现了新的工具,人类要把更多权限委托给这些工具,那么这个法律结构要如何调整?在这个问题还没解决之前,我觉得光谈技术能力没什么意义。

换句话说,只有先弄清楚法律层面。因为最终不可能有人说:“我部署了一个强大的智能系统,但跟我无关,AI 做的。” 不行。今天,如果你想部署这些智能系统,必须先有人类主体来承担责任。这也是为什么我一直认为,即使是最强大的 AI,也不过是从某个人类那里“继受”了某种“委托权限”。有人会说,这就是“对齐问题”,之类的。我觉得,这就说明我们得认真解决对齐,而且要能被某种方式验证。但我不相信会有人部署一个完全“无人监管”、不受任何人类约束的智能系统。比如那些担心“AI 自主崛起”的人——这可能是一个真正的问题,但它要变成真实问题之前,先要在法庭上过关。没有哪个社会会容忍一个人说“都是 AI 的错”,却不追究人的责任。

主持人: 嗯,不过世界上有很多国家,难保某些国家的法律体系也许更宽松些。而且如果真的要出现“AI 自我崛起”,未必非得在美国发生,对吧?

Satya Nadella: 我们总觉得世界上没人关心这些东西吧?其实并非如此。有“流氓行为者”是肯定的,我不是说不会出现,比如网络犯罪和“流氓国家”一直都在。但要说整个人类社会会对此无动于衷,那不现实。我相信人类社会还是会介意。现在对于那些“流氓国家”或“流氓行为者”,国际社会也不会任其横行,这就是我们有世界秩序的原因。这些流氓行为要付出代价。

主持人: 但假设你所描绘的 10% GDP 增长要实现,似乎就得靠 AGI 之类的东西,带来数万亿美元级的价值——几乎相当于人类工资总额(大约 60 万亿美元),只能通过极大规模地自动化或增强劳动力来实现。如果那是真的,而我们又解决好了法律层面的问题,看起来还挺有可能在你任期内发生。你会觉得“打造超越人类智能”是你这辈子做的最大成就吗?

Satya Nadella: 你还提到另一个问题。David Autor 等人常常讨论这个:现在 60% 的劳动力——至少谈到民主社会吧,如果我们要让社会保持稳定、让民主制度能继续运转,就不能只有资本获得回报,而劳动力却毫无回报。我们可以讨论具体细节,但总之,这 60%劳动力必须被重新赋值。在我看来,可能会出现一些原本不被重视的工作,在未来变得更有价值。今天我们觉得某些工作“非常高价值”,结果明天可能变成“普通的东西”;相反,那些给我做理疗的人之类,也许会成为更被重视的工种。无论如何,如果没有“劳动回报”,也没有“工作带来的意义和尊严”,这就会成为另一道“速率限制”,阻碍我们部署这些东西。

主持人: 关于对齐问题,两年前你们发布了“悉尼版本”的必应(Bing),当然,当时能力还没那么强,只是个聊天机器人。它可能跟你聊 30 秒,然后说出一些搞笑或者不合宜的话。比如曾有个著名案例,它试图说服《纽约时报》的记者去离婚。但如果想象未来这些代理可以连续数小时、数周、数月不间断地运行,就像一群自主的 AGI 群体,如果它们和你们的目标不一致,就可能“搞乱一切”,甚至还会互相协作。这些“失控”可能就没那么“可爱”了。那你们未来有什么对策,确保当真正强大的代理出现时,可以做对?

Satya Nadella: 这就是为什么我们在分配计算资源时,会考虑到“对齐”的挑战要花多少算力。更重要的是,我们要构建一个“运行时环境”让我们可以实时地监控这些东西,确保可观测性。其实在“经典”软件领域我们也会这样做,比如网络安全。我们不会编写完软件就让它自生自灭,而是一直去监控它的运行状态,以防网络攻击或者故障注入之类。因此,我觉得在未来对这些模型的部署上,也得搞足够的“软件工程”手段。而在模型内部,还得做“对齐”。这其中有的是真正的科学难题,有的是工程难题,我们都得去解决。这也意味着我们自己要承担相应的责任。也因此,我更愿意把这些东西部署在“可管理范围”之内,无论是功能范围,还是规模大小。你不能把一个“没人管”的东西扔出去然后带来危害,因为社会不会允许。



Read Next page

Report Page