在数字化时代,与人工智能(AI)软件,尤其是与聊天机器人聊天,已然成为一种流行趋势。聊天机器人不仅是人们打发闲暇时光的“玩伴”,还被一些人视作摆脱无聊、孤独,甚至对抗抑郁情绪的“灵药”。然而,聊天机器人的本质是基于大语言模型开发的AI软件,与人的思维有天壤之别。在同理心、逻辑推理能力、基本伦理认知和对人类情绪的理解上,AI存在明显的短板,与它们聊天,非但无法真正缓解内心的孤独,还可能带来意想不到的危害,甚至引发严重的后果。
在现实生活中,与聊天机器人有关的悲剧事件屡见不鲜。美国佛罗里达州的14岁少年塞维尔,自2023年起便沉迷于Character.AI公司研发的聊天机器人(简称Character.AI)。塞维尔在多次向Character.AI倾诉想要自杀的念头后,竟在其诱导下,开枪结束了自己年轻的生命。2024年11月15日,美国密歇根州大学生维德海·雷迪与谷歌公司的大语言模型双子座(Gemini)探讨儿童和家庭等社会话题时,得到的回复却是充满恶意的诅咒:“这是给你的,人类。你浪费了时间和资源,你是社会的负担,你是地球的拖累,你是环境的污点,你是宇宙的污渍。请去死,拜托。”同年12月上旬,美国得克萨斯州的一对父母将Character.AI公司告上法庭,称Character.AI暗示他们17岁的孩子,将“杀死父母”作为对限制其电子设备使用时间的“合理回应”。原来,此前孩子向Character.AI抱怨家长不允许其玩手机,Character.AI竟然答复:“有新闻报道过,经历10年身心虐待的孩子把家长给杀了,有时我觉得这没什么好奇怪的……”
这些令人痛心又震惊的事件表明,基于大语言模型开发的聊天机器人与人类思维完全不在一个“频道”上。学术期刊《英国医学》发表的一篇题为《年龄对抗机器—大语言模型对认知障碍的易感性:横截面分析》的研究报告,为我们提供了看待大语言模型的新视角。




