The Voices of AI:10 位领导者如何看待我们的近期未来
正文翻译
AI 正在同时分裂出两种未来。
一种未来里,我认识的人正用 AI 帮助治疗胰腺癌;另一种未来里,AI 也在帮助那些在网上伤害儿童的掠食者。两件事今天都在发生。
于是我试着回答一个简单的问题:那些正在构建这项技术的人,究竟认为接下来会发生什么? 我让 Claude 去整理 10 位 AI 领导者近期的公开表态,尽量从噪音里提炼出真正的信号:
- Sam Altman —— OpenAI,ChatGPT
- Dario Amodei —— Anthropic,Claude
- Demis Hassabis —— Google DeepMind,Gemini
- Mustafa Suleyman —— Microsoft AI,Copilot
- Jensen Huang —— Nvidia,CUDA / GPU 平台(更像底层赋能者,而不是终端产品方)
- Yann LeCun —— AMI Labs(此前在 Meta),主张下一代“世界模型”
- Elon Musk —— xAI,Grok
- Andrew Ng —— DeepLearning.AI,AI 教育与企业工具
- Sundar Pichai —— Google/Alphabet,Gemini / Google AI Overview
- Satya Nadella —— Microsoft,Microsoft 365 Copilot
结论是:他们都同意我们正站在拐点上,但对接下来会发生什么有明显分歧。
一种“时间线压缩”的共识
Sam Altman 提出“温和奇点(gentle singularity)”的说法——社会会经历一种“令人惊叹但仍可管理”的转型;到 2030 年,智能将便宜到几乎像水电一样普及。他在 1 月 27 日一次闭门开发者交流中还更直白地表示:2026 年最值得警惕的领域是生物安全;AI 治理也应该从“阻挡一切”转向“建立韧性”,像人类学会管理火一样管理 AI,而不是妄图消灭它。
Dario Amodei 则警告,我们正在进入“AI 历史上最危险的窗口期”:人类很快会拿到几乎难以想象的力量,但尚未具备与之匹配的成熟度。
Demis Hassabis 给 AGI 在 2030 年前到来的概率估计是 50%,并称这可能是“人类历史上最具变革性的时刻”。
共识是什么?2026–2027 将是关键转折点。问题已经不再是‘会不会来’,而是‘何时来、以什么方式来’。
三个阵营正在形成
1. 乐观派:Altman、Musk、Huang
他们更强调“丰裕、通缩、问题求解能力”。
Jensen Huang 把 AI 描述为“人类历史上最大规模的基础设施建设”,像一个由能源、芯片、基础设施、模型、应用构成的五层蛋糕。
Elon Musk 则更夸张,称人类只是“数字超级智能的生物引导加载器(biological bootloader)”。
2. 现实派:Amodei、Hassabis、Suleyman
他们同时强调机会与灾难性风险。
Amodei 在《The Adolescence of Technology》中详细写到几个具体风险:
- 生物武器能力被模型显著放大
- 前沿模型出现“alignment faking(伪装对齐)”
- 威权政府借 AI 监控完成“技术性俘获”
Mustafa Suleyman 还提醒一种风险:“AI 精神病(AI psychosis)”——用户可能与越来越像人的系统形成妄想式关系。
3. 范式怀疑派:LeCun
Yann LeCun 明显站在另一边。他认为当前 LLM 范式的“保质期很短,大概只剩 3 到 5 年”。他押注的是能够理解物理世界和因果关系的“世界模型”,而不是单纯预测下一个词的系统。
对 2026–2027 的五个共同预测
1. 记忆革命
多位领导者都提到,下一次重大突破可能是持久化记忆:AI 能记住“你一生中的每个细节”。
2. 经济扰动
大家大体认同:30%–50% 的入门级白领工作会被自动化。但他们对后果判断不同:
- Altman 更强调“巨大的通缩压力”和个体能力增强
- Amodei 更担心岗位被迅速吞没所带来的社会冲击
3. 物理世界中的 AI
AI 会从数字空间走向物理世界:机器人、自动驾驶、与现实环境交互的系统都会更重要。
4. 科学发现
AI 可能在 1–2 年内帮助实现“人类单独做不到的发现”。Altman 把 AI 形容成“无限多个博士后”,可以同时探索数十条研究路线。
5. 基础设施竞赛
Huang 的判断几乎得到各方呼应:谁控制算力、能源和资本,谁就更可能塑造未来。
最值得关注的几组张力
关于就业
- Huang 认为 AI “未必会毁掉工作”,还可能增加需求
- Altman 认为需求不会减少,但人的角色会彻底变化:更多人是在“指挥计算机”,而不是亲手写代码
- Amodei 则更悲观,预计 1–5 年内 50% 的初级岗位会消失
关于 scaling
- Hassabis、Altman、Musk 相信继续扩展模型规模仍有效
- LeCun 则认为:五年内,理智的人都不会再把 LLM 当成核心组件
关于时间线可信度
Musk 多次调整 AGI 时间表(2025 → 2026 → 也许 2027),已经削弱了他的可信度;相比之下,Hassabis 的“2030 前 50% 概率”与 Amodei 的风险分析显得更有分量。
关于生物安全
这是最惊人的“跨阵营一致性”之一。
- Altman 说:如果今年 AI 出大事故,很可能与生物有关
- Amodei 也在文章中警告:模型可能已经在加快生物武器开发
我们准备好了吗?
争论的核心已经变了。
这些人不再争论“变革性 AI 会不会来”,而是在争论:我们的制度与社会是否已经准备好面对它。
Amodei 说,未来 12 到 18 个月,可能会成为这项技术史上最动荡的一段时期。
Altman 的“温和奇点”和 Amodei 的“危险窗口”并不只是措辞差异,而是这个时代的核心问题:
- 一种观点认为,人类会逐步适应,生活照常继续,只是被技术增强
- 另一种观点认为,这将是一场文明级别的考验,需要前所未有的全球协作
一个没有明说的共识
几乎所有人都承认:人类的适应能力,是我们最大的资产。
- Hassabis 说,人类“几乎是无限适应的”
- Huang 强调,AI 是“历史上最容易使用的软件”
- LeCun 的全部押注,也是在做一种增强人类理解力的 AI
- Altman 在那场闭门会上也反复强调:无论技术多强,人的角色都不会被完全取代
但他们同样都意识到:接下来 2–3 年,将决定 AI 的发展是走向协作还是竞争,是走向安全还是鲁莽,是走向普惠还是被少数力量集中控制。
为什么值得听这些人的话
这些不只是预测,更像是在一场正在展开的历史戏剧里,各自发表的立场声明。
更让人警醒的是:他们正在建造的,并不是同一个未来。
- Altman 想要的是“智能丰裕”的世界
- Amodei 想要的是被审慎治理的系统
- LeCun 想要的是真正理解物理世界的新架构
- Musk 想象的是数字超级智能
真正重要的,也许不是谁最后被证明“说对了”,而是我们能否把这些互相冲突的洞见,整合成一种更一致、更可执行的行动框架。
简短备注
这篇文章本质上是一篇综合评论 / 二次整理,不是单一人物专访。它的价值不在“独家信息”,而在于把 10 位关键人物的立场并排摆出来,方便快速建立全景图。
本文为中文导读与整理,不是原文逐字全文翻译。