2022年年中以来,伴随着生成式AI技术的成熟,硅谷涌现出一大批“e/acc信仰者”。e/acc全称EffectiveAccelerationism(有效的加速主义)。它的支持者坚信要不惜一切代价推动技术进步,而自由市场是推动技术增长的最有效方式。比如著名的华人AI科学家吴恩达就认为,针对AI技术提出假设性伤害是一种杞人忧天,因为这些假设都是建立在一种现在根本不存在的技术水平上的。
然而也有一些AI从业者选择站在这股思潮的对立面,比如OpenAI首席科学家,也是构建GPT模型的灵魂人物伊利亚·苏茨克维(IlyaSutskever)。他对于AI发展过快表现出的担忧,甚至成了e/acc信仰者山姆·阿尔特曼(SamAltman)在2023年11月被OpenAI董事会戏剧性罢免事件的导火索之一。
如果AI进化到通用人工智能(ArtificialGeneralIntelligence,AGI,指拥有等同甚至超越人类智能水平的AI能力),人类还能仅仅将其视作工具吗?
回想科幻电影《2001太空漫游》片头那个名垂影史的蒙太奇:骨头大棒(人类文明史上第一件工具)被猿人抛向空中,刹那后切换成了在宇宙中航行的太空飞船(最先进的工具),导演库布里克将百万年的时间极限压缩,展示了工具对于人类文明的加速作用。但在影片后半部分,人类文明的结晶—终极工具人工智能HAL9000却脱离了掌控,化身为伤害人类的恶魔。HAL9000就是一个AGI。
HAL9000的故事,是一个诞生于1960年代的有力警告。但随着科幻作品不断推出类似的想要毁灭人类的AGI角色,而最终的剧情又常常是人类获得胜利,大众对于AGI的恐惧在经年累月间早已消解,事实上它几乎从未作为一个严肃的社会议题被探讨过,AI科学家也压根没有认真研究过可能的应对措施。
随着2023年生成式AI与大模型技术的爆发,越来越多的AI科学家认为,AGI实现的时间节点在加速到来,长不过二十年,短则三五年。在这个背景下,很快人类将不再是地球上唯一的智慧生物,“人是万物的尺度”这个经典命题也将粉碎。
AGI的到来已经如此确定,然而,人类关于AGI的严肃讨论不是太多而是太少了。如果绝大多数人并不清楚AGI到底是什么、什么时候会到来,以及可能产生哪些影响,那么任何关于AI的公共政策制定都是无根之木。
对此,《第一财经》杂志邀请了北京智源人工智能研究院院长黄铁军教授和心识宇宙创始人兼CEO陶芳波博士,从不同视角分享他们对于AGI的认知。
早在10年前,黄铁军就坚定地认为AGI会在可预见的未来出现,他对此抱着开放态度,认为人类只是智能不断上升过程中的载体之一,而不是终点,因此“可以控制AGI”是人类的妄想,就像猴子妄图控制人类。
陶芳波则是人类中心主义者,他不接受人类可能被当作猴子看待的未来。他认为学术界长期缺失对AI安全的研究,因此在人类有把握控制AGI前,提升AI智能水平的工作应该放缓。
当然,他们也有共识:AGI一定会到来,并且在资本的驱动下还在不断加速,这个时间不会超过20年。

“当超越人的智能出现,不一定会威胁人类。”
——黄铁军
Yi:YiMagazine
H:黄铁军
Yi:2015年MIT生命未来研究所(FutureofLifeInstitute)举办的活动中,全体与会人员预测AGI到来的时间的中位数是2045年,你在同期发表的文章也谈到实现AGI的路径,也认为30年左右可以实现AGI,7年后的今天,你覺得这个时间点提前了吗?
H:我个人比原来稍微乐观点儿,但估计还需要20年的时间。不过AI圈的认知在过去一年发生了很大变化,之前只有极少数人认为AGI可能会诞生,现在已经有很多人认为AGI会实现,甚至2045年之前AGI会出现。
如果让生命未来研究所再做一次预测的话,我估计时间中点可能提前10年,变成2035年。OpenAI的科学家更激进,他们很多人认为AGI几年内就会到来,有的说5年,有的说2到5年。
Yi:在你看来什么是AGI?它会觉醒自我意识,像人一样拥有自己的主观性吗?
H:对AGI的定义就包含了需要具有自我意识。不过AGI的自我意识不一定像人,而是广义层面的自我意识,用于认识自身和世界的关系,比如通过改变环境,优化自己的行为或者适应环境。有种说法是AI没有目的,所以不会拥有自我意识。在我看来,自我意识产生于智能体和环境的互动,人、部分灵长类及极少数动物具有自我意识。我认为,“目的都在行为中”,目的是行为的一种表现。目的、欲望这些词,都是人类发明出来用于描述自身行为的,我们不能把人类的目的绝对化,认为存在超出这个生物行为的、所谓的超验的目的。AGI的自我意识必然跟其智能体本体紧密联系在一起。人有身体,通过眼睛看到世界,通过其他感知器官感受所在的环境,于是形成了人的世界观、人生观、价值观。AGI可能是一台由很多传感器组成的独立机器,也可能建立一个庞大网络体系上的像地球那么大的智能体。它对世界的感知方式跟人类不一样,可能通过各种物理信号感知世界、跟外部世界互动,因此它的自我意识和人类完全不同。
Yi:在看待AGI的视角上,你是一个人类中心论者还是一个智能中心论者?
H:我肯定是智能中心论者。我不反对人类中心主义,我们当然要考虑人类的利益,但不能局限于人类中心主义,这只会让自己的视野受限。地球从没有智能到有了智能,然后智能水平越来越高,这样的现象是客观存在的。

