AI,已经在“挖坑”了
作者 朱秋雨
发表于 2025年3月
AI创意图(制作/本刊记者 郭嘉亮)

2025年2月,如果不是长期从事人口研究的中国人民大学教授李婷的公开辟谣,很多人都真诚地相信了一组数据—“中国‘80后’累计死亡率为5.2%”。

在社交媒体上,许多“80后”都曾因这组数据扼腕叹息。“截至2024年末,‘80后’的死亡率已经超过‘70后’,相当于每20个‘80后’中,就有1人已经去世。”自媒体传播道。

这一说法很快露馅。李婷教授在受访时表示:“(死亡率5.2%)错误非常明显,因为专业统计数据中死亡率会用千分率表示,而不是百分率。”她指出,国家统计局并未公布2024年的死亡率,也不会根据“80后”“90后”等分段公布死亡人数,因此这一说法毫无数据支撑。

虚假的死亡率数据从何而来?李婷认为:很有可能来源于AI大模型出错。她曾尝试在AI大模型中输入问题:“‘50后’‘60后’‘70后’‘80后’,这几代人的死亡率分别是多少?”大模型表示:“根据网络信息,‘80后’现存2.12亿,存活率94.8%,死亡率5.2%。”

AI无中生有的能力让人心颤。在AI业界,这类“胡说八道”的本领被称为“幻觉(hallucination)”,意思是,AI也像人产生心理幻觉一样,在遇到自己不熟悉、不在知识范围的问题时,编造难以辨明真假的细节,生成与事实相悖的答案。

此事件中,让人畏惧的是由技术蔓延出的不可控。新浪新技术研发负责人张俊林告诉南风窗,随着各个领域都在加强对AI的接入,AI幻觉成为了现阶段需要重视的问题。但遗憾的是,业界还没找到根除AI幻觉的办法。

清华大学长聘副教授陈天昊也在受访时提到,对于学生等特殊人群来说,大模型幻觉问题带来的风险性可能更大。“比如,小学生可能和家长一起使用大模型学习知识,但大模型产生的幻觉可能会产生误导。在自身缺乏辨别能力的情况下,可能难以判断信息的真假。”

2025年,人人都开始用AI,而AI还在持续发挥想象力,用幻觉与假信息误导更多人。现在是时候一起面对AI这个巨大的Bug(漏洞)了。

过度自信

“想和大家说一件最近让我忧虑的事,是关于AI幻觉强度的。”2月,知名科普作家河森堡在微博中表示。

他在近日使用ChatGPT,让它介绍文物“青铜利簋”。结果,ChatGPT将这件西周文物的来历,编造成了商王帝乙祭祀父亲帝丁所铸。AI此后还标明了自己的文献来源,源自《殷墟发掘报告》《商代青铜器铭文研究》等。

“看着是那么回事,其实又在胡扯,”河森堡发现,“前一篇文献的作者是中国社会科学院考古研究所,AI说是中山大学考古学系,后一篇文献的作者是严志斌,AI说是李学勤……”

错漏百出的生成信息还不算什么,可怕的是,AI还会自我“包装”,编造信息来源,让人误以为内容十分专业且可信度高。

在豆瓣,陀思妥耶夫斯基的书迷,在使用AI的“联网搜索”功能时,发现其不懂装懂、捏造细节。

例如,有书迷问AI,“陀思妥耶夫斯基的哪部小说引用了涅克拉索夫的诗歌?”在引用了11个参考网页后,AI生成了大段的、看似专业的答案,论证了两者是好友,作品之间存在相互影响的关系。结论是,“陀并未在其小说中直接引用涅克拉索夫的诗”。

而事实上,熟悉陀思妥耶夫斯基的书迷很快想到,在《地下室手记》第二章开头,他引用诗歌:“当我用热情的规劝/从迷雾的黑暗中/救出一个堕落的灵魂,你满怀深沉的痛苦/痛心疾首地咒骂/那缠绕着你的秽行。”这正是涅克拉索夫的诗。

张俊林告诉南风窗,AI大模型非常容易“过度自信”。但目前,AI生成答案的过程仍像一个黑箱,AI业界也不完全清楚AI的自信从何而来。总之,在面对自己不懂的专业问题时,极少有AI会直接回答“不知道”;它们宁愿自信地、流畅地生成一些不准确的内容。

“DeepSeek幻觉有点太严重了,我受不了了。”法学硕士生小昭2月在写论文时感叹。

本文刊登于《南风窗》2025年6期
龙源期刊网正版版权
更多文章来自
订阅