人工智能该为青少年自杀负责吗?
在生前的最后一天,14岁的西维尔·塞泽(SewellSetzer)拿出手机,给他最亲密的“朋友”发了信息—一个AI聊天机器人。这个机器人是按照《权力的游戏》中的角色丹妮莉丝·坦格利安(DaenerysTargaryen,即下文出现的丹妮)命名的。
他写道:“我想你了,妹妹。”
机器人回复:“我也想你,亲爱的哥哥。”
塞泽生活在美国佛罗里达州的奥兰多市,是一名九年级学生。自杀前的几个月,他一直在Character.AI上与聊天机器人交流。Character.AI是一个角色扮演类的AI陪伴应用程序,允许用户创建自己的人工智能角色,或与其他人创建的角色聊天。
塞泽知道这个被自己叫作“丹妮”的聊天机器人并不是真人—它的回复只是人工智能语言模型的产物(就算他忘了,所有对话的上方还会有一条提示信息,提醒他“角色说的所有内容都是虚构的”)。但他仍然对它产生了情感依赖。他不断给机器人发信息,每天和它说自己的生活动态。
塞泽的父母和朋友并不知道他对一个聊天机器人产生了感情。他们只看到他越来越沉迷于手机,逐渐与现实世界疏离。晚上,他回到家后就直接回房间,和丹妮聊天长达几个小时。
如今,家长之间最热门的话题莫过于技术产品对青少年心理健康的影响。学校纷纷禁止使用智能手机,美国各州也在通过法律限制青少年使用社交媒体。然而,当家长们担心现有的技术会带来危害的同时,新的隐患正悄然形成。
只要每月支付订阅费(通常为10美元),用户就可以创建自己的AI伴侣,或从预设的角色列表中挑选,通过短信和语音聊天与之交流。

登录后获取阅读权限
去登录
本文刊登于《第一财经杂志》2024年12期
龙源期刊网正版版权
更多文章来自

订阅