随着人工智能技术的快速发展,人工智能的治理问题也越来越受到社会各界的广泛关注。人们逐渐意识到,人工智能不仅是一项前沿科技,更是一种深刻影响社会结构、经济体系和全球治理格局的系统性力量。因此,如何在推动人工智能技术创新的同时建立起科学有效的治理机制,已成为当前技术政策研究与实践的核心议题。
人工智能的三种潜在风险
现有的人工智能技术系统由于其复杂性和不可解释性,带来一些潜在的技术失灵风险。一旦被滥用或用于恶意目的,其危害可能超出技术范畴,在关键领域引发局部性损害,甚至演变为系统性风险。因此,理解人工智能风险治理的必要性与紧迫性,需对其潜在风险进行系统分类、剖析成因,并找到相应的解决办法。

人工智能风险的分类有很多种,图灵奖得主约书亚·本吉奥于2025年牵头发布的《国际人工智能安全报告》,将人工智能带来的各种风险划分为三大类:
1. 恶意使用风险,指人为使用人工智能系统进行伤害、操控、欺诈等非法或不道德行为;
2. 技术失灵风险,即人工智能系统在正常使用情况下由于故障或技术失灵带来的不良后果;
3. 系统性风险,指人工智能大规模应用后可能引发的广泛性负面社会影响。
人工智能恶意使用的风险目前已经比较常见。2023年,英国某知名公司遭遇一起令人震惊的深度伪造诈骗案件。该公司一位员工应公司“上级”的邀请参加视频会议,并根据对方指令将约2亿港元汇入多个账户。事后调查发现,除该员工本人外,所有“参会者”皆为由生成式人工智能所合成的虚拟影像,通过深度伪造(Deepfake)技术逼真模拟真实的声音与面貌。这一事件凸显了生成式人工智能被滥用于欺诈的巨大风险,传统的语音、视频验证机制在此类情况下几乎失效。从治理角度看,如何在制度层面防范生成式人工智能被恶意利用,亟须得到更高优先级的回应。
人工智能技术失灵比较典型的情况就是所谓“幻觉”(hallucination)的产生,即模型生成与客观事实不符,甚至完全虚构的信息内容。这在很多对准确性要求很高的应用场景中容易产生风险。
例如,近年来不少律师事务所尝试将人工智能用于法律案件梳理与检索,但结果并不理想。最著名的案例之一是2023年美国某律师在提交诉状中引用了数个根本不存在的“判例”,经查这些判例均由人工智能编造,导致法院当庭指责该律所严重失职。目前,包括美国律师协会在内的多个行业协会已发出预警,要求在法律实践中使用人工智能辅助时必须设立严格的验证机制。
人工智能带来的系统性风险包括对就业、知识产权、社会认知等方面的影响。

