如果说 2023 年是 AI 的 “惊奇元年”,那么站在 2026 年 2 月的今天回望,我们不得不承认:
当初那种 “明天就会被取代” 的集体焦虑已经消退,取而代之的是一种更深沉、更复杂的现实感。AI 并没有像某些末日预言家宣称的那样瞬间接管世界,也没有像泡沫论者预言的那样销声匿迹。相反,它像电力一样,正在无声却剧烈地重构着从医疗到代码、从课堂到心理诊室的每一个毛细血管。
为什么在这个时间点,我们依然需要回到基础问题:
“AI 到底要把我们带向何方?”
因为当热度褪去,分歧才真正显露。为了厘清这团迷雾,NYT 的Opinion 版面在昨天(2026 年 2 月 2 日)推出了一项重磅互动策划:
《Where Is A.I. Taking Us? Eight Leading Thinkers Share Their Visions》。
这是一次罕见的 “思想切面”:
它汇集了八位来自完全不同立场——从乐观的创业者到警惕的历史学家——的顶尖大脑,迫使他们回答同一套关于未来五年的具体问题。这篇长文博客将带你通过中文语境深入解读这份互动档案。我们不做简单的翻译搬运,而是试图构建一个更清晰的认知框架。以下是本文的阅读路线图:
本文阅读路线图
- 全景扫描:一张表看懂 8 位思想家的立场光谱。
- 核心分歧:从 “最大赌注” 看他们对未来五年判断的本质差异。
- 领域深潜:逐一拆解医疗、编程、教育等 7 大战场的落地真相(含外部数据核查)。
- 概念祛魅:关于 AGI、误解与 2030 年的真伪命题。
- 行动指南:给普通人的 “工地与健身房” 生存策略。
这篇互动文章怎么读:八位受访者与一套问题清单
NYT 这项策划的精妙之处在于 “并置”。它没有让专家们自说自话,而是用一套标准化的问卷(包含开放式预测、选择题和二选一判断)“拷问” 每一个人。这种结构让读者能直观地看到:面对同一个 “医疗影响” 或 “教育变革” 话题,一位创业者和一位伦理学家看到的图景可能是完全相反的。在进入具体观点之前,我们需要先认识这八位 “辩手”。他们的背景决定了他们眼中的 AI 滤镜:
姓名 | 原文头衔/身份标签 | 典型立场关键词(编者注) |
|---|---|---|
Yuval Noah Harari | Historian (历史学家) | 文明风险、异己物种、监管 |
Melanie Mitchell | Computer scientist (计算机科学家) | 技术祛魅、反过度炒作、理解局限 |
Carl Benedikt Frey | Economist (经济学家) | 就业替代、生产力悖论、技能溢价 |
Gary Marcus | Cognitive scientist (认知科学家) | 质疑大模型、强调符号推理、不可靠性 |
Nick Frosst | Co-founder of Cohere (AI 创业者) | 工具化、基础设施化、务实落地 |
Ajeya Cotra | A.I. risk researcher (AI 风险研究员) | 自动化加速、灾难风险、异质性 |
Aravind Srinivas | CEO of Perplexity (AI 搜索 CEO) | 个人赋能、知识获取、用户代理 |
Helen Toner | A.I. policy researcher (AI 政策研究员) | 安全治理、短期风险、特定领域效能 |
为了帮助大家建立全局视野,我制作了一张 “观点地图”。这张图展示了这些讨论所覆盖的广阔疆域——从最核心的技术安全与法律地位,向外辐射到具体的社会肌体:医疗、工作、教育与创造力。
问题一:五年内最大的 “赌注”——分歧从哪里开始
文章的第一个问题直击要害:“你对未来五年 AI 的最大赌注是什么?”(What is your biggest bet about the future of A.I. in five years?)。这是一个暴露底牌的问题,八个回答揭示了三种完全不同的未来叙事。
叙事一:不仅仅是工具,而是新实体
Yuval Noah Harari 抛出了一个最具颠覆性的法律预言:解读:Harari 关注的不是 AI 能 “做” 什么工作,而是它在人类社会中的 “身份”。一旦 AI 拥有法律人格,责任归属、财产权利乃至政治参与的逻辑将被彻底改写。这标志着 AI 从客体向主体的潜在跃迁。
“Within five years, A.I. agents are likely to become legal persons in at least some countries.”(五年内,AI 代理很可能在至少某些国家成为法律主体。)
Ajeya Cotra 则从另一个角度强化了这种 “独立性”:解读:这是著名的 “递归自我改进” 概念的落地版。如果 AI 开始接管 AI 的研发与迭代,人类在其中的位置将变得微妙。
“A.I. companies may have substantially automated their own operations with A.I. ... this could make A.I. progress go much faster.”(AI 公司可能用 AI 大幅自动化自身运营……这会让 AI 进步速度大大加快。)
Aravind Srinivas 同样强调了 AI 的代理权,但落脚点在个体赋能:解读:他赌的是 AI 权力的去中心化。未来不是一个超级大脑统治一切,而是每个人都有自己的数字代理人,这些代理人将为用户的隐私和权益而战。
“People want highly personal A.I. assistants... It’s their A.I., not the A.I.”(人们想要高度个性化的 AI 助手……是 “他们的” AI,而不是 “那个” AI。)
叙事二:祛魅后的基础设施化
与上述激进观点截然相反,实战派代表 Nick Frosst 给出了一个反直觉的预测:解读:这是技术成熟的标志。当一项技术不再是新闻头条,而是像电力一样无处不在且不可见时,它才真正改变了世界。他认为最平庸的应用场景(The most banal use cases)才蕴含着最大的变革力量。
“A.I. will become boring in the best way. It’ll fade into the background like GPS or spreadsheets...”(AI 会以最好的方式变得 “无聊”。它将像 GPS 或电子表格一样隐入后台……)
Carl Benedikt Frey 则在这个维度上泼了一盆冷水:解读:即使 AI 像织布机一样普及,如果它只是让我们更快地发邮件、填表格(“更便宜的电子表格”),而没有创造出全新的产业,那么它对经济增长的贡献将被高估。
“A.I. won’t deliver lasting prosperity if it’s used mainly to automate what we already do...”(如果 AI 只是用来自动化我们已经在做的事,它不会带来持久繁荣……)
叙事三:技术瓶颈与信任危机
怀疑论者们依然坚定。Gary Marcus 明确划定了时间红线:解读:他是在对抗当前极度乐观的 “Scaling Law”(缩放定律)信仰,认为单纯堆算力无法突破推理能力的质变瓶颈。
“No way will artificial general intelligence (AGI) arrive by the end of 2027, and most likely not even by the end of 2032.”(AGI 绝不可能在 2027 年底到来,甚至很可能 2032 年底也不会。)
Melanie Mitchell 和 Helen Toner 则聚焦于 “能力” 与 “信任” 的错位:解读:这揭示了一个深刻的悖论——AI 将呈现出一种 “偏科” 的怪物形态:它既是诺贝尔奖级别的科学家,又是连基本生活常识都搞不定的智障。这种 “高能力、低可靠性” 将是未来五年的常态。
Mitchell: “No one will consider the ability to converse fluently a definitive sign of intelligence.”(没人会再把流畅对话视作智能的确切标志。)
Toner: “...A.I. systems that can clearly contribute at the cutting edge... but that you still wouldn’t trust with planning summer camps for your kid.”(AI 能在前沿科学做贡献,但你还是不敢让它给孩子规划夏令营。)
问题二到八:当 AI 进入具体世界——七个领域的 “增效、替代与反噬”
当宏大的赌注落入尘埃,我们看到的是 AI 在不同行业引发的剧烈震荡。以下是七个具体战场的战况分析。
1. 医疗:减负与创新的温差
医疗是人们寄予厚望的领域,但专家们划出了一条清晰的界线:管理提效 vs 科学突破。Nick Frosst 肯定了前者:AI 将绝对性地减少医生在病历审查、信息整理上的工作量(“reducing their workload per patient”)。这是立竿见影的 “减负”。但在新药研发上,他异常冷静:“People will probably be disappointed.”(人们可能会失望。) 他认为 AI 擅长分析模式,却不擅长提出全新的生物学构想。Gary Marcus 补刀指出,除了 “写病历(medical note taking)”,目前尚未看到大规模的真实世界应用落地。中文评述:这提醒我们,不要把 “AI 预测蛋白质结构”(AlphaFold 的成就)等同于 “AI 能独立治愈癌症”。从发现分子到临床成药,中间不仅是算力问题,更是复杂的生物学与监管问题。
2. 编程:效率提升背后的信任赤字
编程是被 AI 渗透最深的领域。Yuval Noah Harari 指出这是 AI 的 “理想游乐场”,因为它纯粹是信息处理,没有物理限制。Carl Benedikt Frey 引用了硬核数据来支撑这种变革,同时也指出了隐忧:
数据核查
- 效率暴增:在一项随机对照试验中,使用 GitHub Copilot 的开发者完成任务速度加快了 55.8%。
- 普及与怀疑并存:2025 年 Stack Overflow 调查显示,84% 的开发者正在或计划使用 AI,但仅有 33% 的人信任其输出,46% 表示不信任。
这构成了一个有趣的局面:我们离不开它,但我们不敢全信它。“Review by humans still matters”(人类审查依然重要)不仅是一句口号,更是目前软件工程的安全底线。
3. 科学研究:谁在提问,谁在回答?
Aravind Srinivas 提出了一个精辟的分工论:“Humans have always been great at having questions. A.I. will be great at having answers.”(人类擅长提问,AI 擅长回答。) 他认为 AI 将作为知识库的超级索引,加速答案的获取。但 Melanie Mitchell 警告说,科学的核心往往不是解答,而是设计。规划实验程序、理解数据的语境偏差、提出从未被问过的好问题——这些依然是人类科学家的护城河。AI 目前更像是一个超级勤奋但缺乏原创性的实验助理。
4. 交通:自动驾驶的 “电车难题” 是速度
Helen Toner 对自动驾驶寄予厚望,理由非常硬核:数据。NHTSA 估计 2024 年美国有约 39,345 人 死于交通事故。如果 AI 能大幅降低这个数字,其伦理价值是巨大的。然而,她也承认 “rollout is proceeding relatively slowly”(推广相对缓慢)。相比于媒体对 “Robotaxi” 的热炒,Nick Frosst 更看好后台的物流优化:预测性维护、路线规划。这些看不见的 AI 正在让交通网更高效,虽然它们不如无人驾驶汽车那样性感。
5. 教育:作弊的恐慌与回归的本质
这是目前争议最大的领域。Gary Marcus 直言目前的冲击主要是负面的:论文作业(Term papers)作为评估手段已经失效,学校陷入迷茫。但 Carl Benedikt Frey 看到了危机的另一面:回归。当 AI 导师能从技术上胜任知识传授时,人类教师的价值将回缩到最本质的层面——面对面的辩论与指导(in-person, tutorial-style teaching)。他呼吁设立 “无 AI 时间”(A.I.-free time),逼迫学生进行独立的智力探索。这或许意味着,未来的精英教育将更加复古,强调苏格拉底式的当面对话,而非屏幕前的标准化测试。
6. 心理健康:亿万人的小白鼠实验
Yuval Noah Harari 再次拉响警报:我们正在进行人类历史上最大的心理学实验,几十亿人不仅在用 AI 工作,还在向 AI 倾诉。这可能导致严重的社会适应危机。Melanie Mitchell 更是直白地预警了 “AI 诱发的精神病”(A.I.-induced psychosis)。尽管 Nick Frosst 承认 AI 聊天机器人提供了可扩展的轻量级支持,但他强调这些系统缺乏 “文化语境” 和 “长期情感深度”。把深层心理创伤交给一个只会模式匹配的机器,本身就是一种巨大的风险。
7. 艺术与创意:成本逻辑的残酷胜利
如果你是艺术家,Melanie Mitchell 的话可能会让你背脊发凉:在商业世界,廉价往往战胜卓越。
“...not because A.I. is better at creativity than humans, but because it is a lot cheaper.”(……不是因为 AI 比人类更有创意,而是因为它便宜得多。)
Yuval Noah Harari 则认为任何基于 “打破模式” 的创意活动最终都会被 AI 攻克。唯有身为音乐人兼 AI 创业者的 Nick Frosst 还在坚持人类的主权:AI 提供素材,人类负责 “审美裁决”(decides what feels right)。这种 “人类作为策展人/艺术总监” 的模式,可能是未来创作者的最后防线。
问题九:先把几个 “常见误会” 说清楚
AI 舆论场充满了噪音。受访者们针对公众、媒体甚至硅谷自身的常见误区进行了精确的 “排雷”。
常见误解 | 原文核心回应(转述) | 深度拆解与补充 |
|---|---|---|
AI 有无法解释的 “魔法” 或 “涌现” | Mitchell:这是公众和政策制定者的误解。技术人员其实并不真信这一套,这往往是营销叙事。 | 祛魅:不要把 “黑盒” 神秘化。它只是复杂的数学,不是炼金术。 |
AI 只是完全受控的工具 | Harari:错。AI 是 “代理”(Agent),能做决策、发明想法。它能模拟意识,让人类误以为它有意识。 | 警惕:工具是被动的,代理是主动的。这种主体性差异是监管失效的根源。 |
大模型 = 类人智能 | Marcus:那是 “模仿机器”(mimicry machines),肤浅且不可靠。真正的智能是面对未知时的灵活推理。 | 定义:鹦鹉学舌 vs 逻辑思考。目前的 LLM 依然停留在前者的高级形态。 |
AI 只影响脑力劳动,不碰体力 | Frey:错。AI 降低了维修等体力活的知识门槛(如指导修锅炉),实际上也在改变蓝领工作。 | 渗透:知识的民主化会让 “手艺人” 的壁垒降低,同时也可能赋能普通人。 |
没有马上爆发灾难 = AI 很安全 | Cotra:怀疑论者常因短期无事就否定长期风险,这是逻辑谬误。 | 偏差:缺乏即时反馈不代表系统性风险不存在(类似气候变化)。 |
AI 将导致大规模失业 | Srinivas:技术改变工作的 “性质”,而非移除 “工作” 本身。 | 转型:失业是结构性的,不是总量的。但对个体而言,转型的痛苦是真实的。 |
AI 环境影响被过度妖魔化 | Toner:所有大工业都耗能。关键是看 ROI(投入产出比),不要双标。 | 视角:应关注单位能耗产生的社会价值,而非单纯盯着耗电量。 |
2030 断言题:当观点被压缩成 True/False,我们该怎么看?
文章还设置了一个激进的环节:让专家对 2030 年的具体情境投出 “True” 或 “False”。这种二元对立虽然丢失了细节,但暴露了最底层的直觉判断。主要争议点:
- 关于失业:Marcus 投了 True(认为失业会显著增加),而 Toner 投了 False。这反映了对 “摩擦性失业” 与 “长期岗位替代” 的不同理解。
- 关于重大疾病突破:Toner 投了 True,但 Cotra 投了 False。这再次印证了医疗领域 “乐观派” 与 “严谨派” 的分歧。
- 关于安全事件:Toner 认为 AI 卷入全球重大安全事件是 True,Srinivas 则认为是 False。这体现了政策研究者(关注风险)与技术构建者(关注控制)的视角差异。
- 关于日常使用:对于 “大多数美国人每天使用 AI 聊天机器人”,Toner 认为是 True,Srinivas 却是 False。这很有趣——作为 AI 搜索 CEO 的 Srinivas 居然不认为这会成为全民日常?或许他认为 AI 将更多整合进后台,而非作为显性的 “聊天机器人” 存在。
为什么这种问法不够好?“失业是否显著增加” 取决于你如何定义 “显著” 和 “失业”。如果原来的文案转行做了 AI 提示词工程师,这是失业吗?更具操作性的观察指标应该是:任务替代率(有多少具体任务被机器接管)和 技能溢价变化(哪种技能突然变得值钱或不值钱)。
AGI:不是 “会不会来”,而是 “你到底在问什么”
关于 AGI(通用人工智能)未来 10 年是否会到来,专家的回答从 “Unlikely” 到 “Very likely” 都有。但更有价值的是他们对 AGI 定义的解构。Yuval Noah Harari 提供了一个精彩的比喻:飞机飞得比鸟快、高、远,但飞机不会筑巢,也不会在这个过程中繁衍后代。同理,AI 可能在金融、法律、战争上远超人类,但在情感感知上依然是零。期待一个全方位像人的 AGI 是方向性错误。
“defining A.G.I. as ‘comparable to human intelligence’ is meaningless. It is like defining airplanes as ‘able to fly like birds.’”(把 AGI 定义为 ‘即是人类智能’ 毫无意义。这就像把飞机定义为 ‘能像鸟一样飞’。)
Nick Frosst 从技术底层给出了否定的理由:抽象能力、自我意识、跨域迁移学习——这些人类大脑的特性,目前的计算范式甚至还没摸到门槛。他认为 10 年内 “Unlikely”。我的建议是,跳出 “AGI 降临日” 的宗教式狂热,采用三种更务实的时间观:
- 能力里程碑:它什么时候能写出无 bug 的操作系统内核?(技术视角)
- 系统可靠性:它什么时候能被保险公司允许独立给病人开处方?(商业/法律视角)
- 社会吸收速度:我们的组织架构什么时候能不再按 “人头” 而是按 “算力” 来分配预算?(社会视角)
类比:从社交媒体到蒸汽机——他们在拿什么当参照物?
当被问及 “AI 像什么” 时,专家们的回答构成了一个人类技术史的坐标系。这些类比并不是为了说明 AI “就是” 那个东西,而是为了照亮 AI 的某个侧面。
类比分组 | 具体参照物 | 意图与盲点提醒 |
|---|---|---|
信息传播组 | 社交媒体 (Mitchell)
石器时代语言进化 (Harari) | 提醒:重点不在于生产力,而在于对社会结构、真理共识和权力的重塑。Harari 认为 AI 掌握语言意味着掌握了人类文明的操作系统(法律/宗教/金融)。 |
基础设施组 | 蒸汽机 (Toner)
PC 与互联网 (Frey)
农业革命 (Cotra) | 提醒:这是一种通用的 “赋能技术”(GPT)。初期可能看不到增长(索洛悖论),但最终会彻底重构经济模式。 |
人类能力组 | 人类飞行 (Frosst)
无先例 (Srinivas) | 提醒:Frosst 的飞行类比强调了 “功能实现但原理不同”(飞机不扑翼)。Srinivas 则认为这是全新的 “答案引擎”,打破了精英对知识的垄断。 |
把建议落到地上:我们该怎么 “用 AI”,又怎么 “不被 AI 用”?
最后,也是最重要的一点:对于此刻正在读这篇文章的高中生(以及所有面临职业重塑的成年人),我们该怎么办?Helen Toner 给出了全篇最精彩的一个隐喻:“工地 vs 健身房”。
“On a construction site, machines are amazing... But at the gym, the whole point is to increase your own capacity.”(在工地上,机器很棒……但在健身房,重点是提升你自己的能力。)
你需要分清楚你的任务性质:是为了“出结果”(用 AI 当起重机),还是为了“练脑子”(拒绝 AI 代练)。如果你用 AI 写作业,你就是把健身房当成了工地,结果是房子盖好了(作业交了),但你的肌肉萎缩了。综合八位思想家的建议,这里有一份2026 版生存清单:
给普通人的可执行建议 (The Actionable List)
- 学会提问 (Srinivas):答案越来越廉价,好问题越来越昂贵。练习如何精准地界定问题。
- 保留 “不插电” 时间 (Frey):在教育和创作中刻意设置 “无 AI 禁区”,以保护原创思考的火种。
- 打磨面对面技能 (Frey):当文本生成泛滥,面对面的沟通、谈判、共情将成为稀缺的 “人类溢价”。
- 理解原理,而非只用工具 (Mitchell):不要只学怎么用 ChatGPT,要了解它的局限、幻觉机制和概率本质。
- 像外星接触一样思考 (Cotra):保持一种 “异种族接触” 的敬畏感。结果可能极好也可能极坏,要有心理弹性。
- 头、心、手并重 (Harari):不要只赌 “编程” 这一条赛道。智力、社交力、运动能力的组合拳更难被替代。
- 成为策展人 (Frosst):在创意领域,学会从 AI 生成的 100 个平庸想法中挑出那 1 个闪光的,并为此负责。
- 区分 “工地” 与 “健身房” (Toner):工作时追求效率最大化(用 AI),学习时追求阻力最大化(不用 AI)。
- 批判性思维 (Marcus):永远不要完全信任屏幕上的输出。验证能力是新时代的读写能力。
- 享受过程 (Harari):未来不可预测,焦虑无用。Try to enjoy the ride。
结语:把未来从 “预言” 拉回到 “选择”
回到开篇的问题:“AI 会把我们带向何方?”
答案是:没有定论。这正是这篇 NYT 互动文章最核心的价值——它展示了未来的可塑性。如果连这八位最聪明的大脑都无法达成一致,那就说明未来还没有被写定。从他们的分歧中,我们可以提炼出五条暂时性的结论:
- AI 更可能以基础设施(如电力、互联网)的形态渗透,而非以单一的 “终结者” 形象降临。
- 可靠性与治理将比单纯的 “能力提升” 更决定我们在未来五年的体验。
- 教育与心理健康领域将先经历混乱(作弊、适应障碍),再被迫形成新的社会契约。
- 创意产业的关键矛盾是成本 vs 价值的再定价,人类需要守住 “审美裁决者” 的位置。
- 关于 AGI 的争论应从 “像不像人” 转为 “能不能担责”。
未来不是等来的,而是我们在每一次选择(是用 AI 偷懒还是赋能?是信任还是验证?)中塑造出来的。参考链接与延伸阅读:
1. [NYT 原文] Where Is A.I. Taking Us? Eight Leading Thinkers Share Their Visions
2. [研究] GitHub Copilot 对开发者生产力的影响 (arXiv): The Impact of AI on Developer Productivity
3. [数据] 2025 Stack Overflow 开发者调查: 2025 Stack Overflow Developer Survey – AI(AI 章节)
4. [数据] NHTSA 2024 交通死亡人数估计: Traffic Fatalities Estimates
5. [背景] NYT 起诉 Perplexity 案: New York Times Sues A.I. Start-Up Perplexity