AI末日预言家希望终止所有研发
作者 Kevin Roose
发表于 2025年11月

我初次见到埃利泽·尤德科夫斯基(Eliezer Yudkowsky)时,他称人工智能(AI)有99.5%的几率干掉我。对此,我并未当真。现年46岁的尤德科夫斯基是机器智能研究所(Machine Intelligence Research Institute)的创始人,这家位于伯克利的非营利机构主要研究先进人工智能带来的风险。

在过去20年里,他堪称硅谷版的末日传道者,持续向所有愿意听取意见的人发出警示:开发强大的人工智能系统是一个灾难性的想法,终将导致灭顶之灾。尤德科夫斯基的新书《If Anyone Builds It, Everyone Dies》,传达的也是同样的信息。这本与机器智能研究所主席内特·索雷斯(Nate Soares)合著的新书,浓缩了两人多年来向人工智能业内人士阐述的看法,如今则面向大众市场出版。

他们的目标是终止人工智能的发展—他们声称,这关乎人类的存亡。

两人在书中写道:“如果地球上的任何公司或团体,使用与当前相似的技术,并基于与当下对人工智能类似的理解开发出超级智能(superintelligence),那么地球上的所有人,无论身处何方,都将灭亡。”这种直截了当的末日预言,使得尤德科夫斯基被部分人视为极端分子或怪人。但他是现代人工智能史的核心人物,对该行业的影响力无可否认。

他是最早警示强大的人工智能系统具有风险的人士之一,多位人工智能行业的领军人物都曾援引他的观点,其中包括OpenAI的山姆·阿尔特曼(Sam Altman),还有伊隆·马斯克(Elon Musk)—阿尔特曼曾表示,尤德科夫斯基在自己“决定创立OpenAI的过程中起到了关键作用”,并认为他或许值得荣获诺贝尔和平奖。

Google在人工智能领域的成功,一部分也得益于尤德科夫斯基。2010年,他将伦敦初创企业DeepMind的创始人引荐给风险投资人彼得·蒂尔(Peter Thiel),当时这家公司正在尝试建立先进的人工智能系统。于是,蒂尔成了DeepMind的首位主要投资者,随后Google于2014年收购了它。如今,DeepMind联合创始人德米斯·哈萨比斯(Demis Hassabis)正在主导Google的人工智能研发工作。

在开创人工智能安全的研究领域以外,尤德科夫斯基还是倡导“理性主义”(Rationalism)的背后力量。这个看似松散的运动(或者可以视作某宗教,根据不同的受众而言)主张通过严谨的推理实现自我进步。如今,硅谷的技术公司里满是年轻的理性主义者,其中许多人正是通过阅读尤德科夫斯基发布在网络上的文章成长起来的。

2005年,尤德科夫斯基移居湾区,投身“友好人工智能”(Friendly AI)—与人类价值观契合、关注人类福祉的人工智能系统—的研发。

本文刊登于《第一财经杂志》2025年11期
龙源期刊网正版版权
更多文章来自
订阅