【关键词】生成式人工智能 治理模式 立法 内外部挑战 多维平衡 【中图分类号】D92 【文献标识码】A
生成式人工智能(Generative AI)是人工智能发展过程中出现的新型技术,可使用统计方法根据概率生成新内容,如视频、音频、文本甚至软件代码。通过使用Transformer(一种基于自注意力机制的神经网络模型),生成式人工智能可深入分析现有数据集,识别其中的位置连接和关联关系,再借助人类反馈强化学习算法(Reinforcement Learning from Human Feedback)不断优化训练形成大语言模型,最终能够为新内容的生成作出决策或预测。①除了文本生成和内容创作之外,生成式人工智能还拥有广泛的应用场景,如客户服务、投资管理、艺术创作、学术研究、代码编程、虚拟协助等。概言之,自我生成、自我学习并快速迭代是生成式人工智能区别于传统人工智能的基本特点。
国家网信办等七部门正式发布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)自2023年8月15日起施行,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益。作为引领新一轮科技革命和产业变革的关键技术,以ChatGPT为代表的生成式人工智能不断催生新场景、新业态、新模式和新市场,改变了信息和知识的生产方式,重塑了人类与技术的交互模式,对教育、金融、媒体和游戏等行业均产生重大影响。在此背景下,全球各国纷纷出台人工智能发展战略和具体政策,抢占战略制高点。与此同时,生成式人工智能暴露出的数据泄露、虚假内容生成、不当利用等安全风险也引起各国广泛关注。可以肯定地讲,生成式人工智能的发展、运用和治理,不再是某一国而是整个国际社会面临的共同挑战。
国外人工智能主要监管模式评析
人工智能是一把“双刃剑”,在促进社会进步的同时,也带来了风险与挑战。国际社会致力于持续推动人工智能向善发展。例如,联合国教科文组织通过了首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》,明确了相称性和不损害、安全和安保、公平和非歧视等十项原则。欧盟自2018年以來持续推进人工智能的设计、开发和部署,同时努力规范人工智能及机器人的使用和管理。2024年初生效的欧盟《人工智能法案》助推此项工作达到高潮,甚至成为人工智能治理史上的里程碑。美国更注重人工智能发展,以《人工智能权利法案蓝图》(以下简称《权利法案蓝图》)为主要举措对人工智能发展进行规制。鉴于欧盟和美国的人工智能治理措施相对成熟且具有代表性,下文以二者为例探讨不同监管模式的优劣,希冀为我国人工智能的健康发展和有效治理提供借鉴。
欧盟人工智能立法:安全优先,兼顾公平。从立法历程上看,2021年4月,欧盟委员会发布了立法提案《欧洲议会和理事会关于制定人工智能统一规则(人工智能法)和修订某些欧盟立法的条例》(以下简称《人工智能法案》),开启了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折衷草案的最终版。2023年6月,欧洲议会通过了《人工智能法案》的谈判授权草案,并修订了原始提案。2023年12月8日,欧洲议会、欧洲理事会和欧盟委员会三方就《人工智能法案》达成协议,法案规定了对人工智能领域的全面监管。从总体上看,《人工智能法案》在欧盟建立起人工智能开发、使用的道德和法律框架,并辅以《人工智能责任指令》确保落地执行。《人工智能法案》的多轮讨论主要围绕以下内容:
一是人工智能的定义与法案适用范围。《人工智能法案》第3条将人工智能定义为一种或多种技术和方法开发的软件,其能够影响交互环境的输出(如内容、预测、建议或决策),实现人为指定的特定目标。该定义范围较为广泛,可能涵盖大量传统上不被视为人工智能的软件,不利于人工智能的发展和治理。因而,当前版本将人工智能定义限缩为“基于机器学习或逻辑和知识的系统”,旨在以不同的自主性水平运行,并且为了明确或隐含的目标,可以影响物理或虚拟环境的预测、建议或决策等输出。同时,删除了附件一和欧盟委员会修改人工智能定义的授权。《人工智能法案》虽未涉及生成式人工智能,但ChatGPT的出现,使得立法者在修正案中增加了通用人工智能和基础模型相关定义,并要求生成式人工智能遵守额外的透明度要求,如披露内容来源、设计模型禁止非法生成。《人工智能法案》具有域外效力,适用于所有人工智能系统的提供商和部署者(无论是在欧盟还是在第三国建立的)以及所有分销商和进口商、提供商的授权代表、在欧盟建立或位于欧盟的某些产品的制造商,以及健康、安全或基本权利因使用人工智能系统而受到重大影响的欧盟数据主体。
二是人工智能的监管模式。《人工智能法案》采用了基于风险的分级监管方法(risk-based approach),根据对健康、安全和自然人基本权利的潜在风险对其进行分类并设置不同义务:第一是不可接受的风险,禁止任何企业或个人部署;第二是高风险,允许相关主体在履行事前评估等义务后投放市场或使用,同时要求事中、事后持续监测;第三是有限风险,无须取得特殊牌照、认证或履行报告、记录等义务,但应遵循透明度原则,允许适当可追溯性和可解释性;第四是低风险或最低风险,相应主体可依据自由意志部署和使用。具体到生成式人工智能而言,由于其没有特定目的并且可应用于不同场景,故不能基于一般方式或操作模式对其进行风险分级,而应当按照开发或使用生成式人工智能的预期目的和具体应用领域。②
三是人工智能的一般原则。具体包括:人类代理和监督:人工智能系统的开发和使用必须作为服务于人类的工具,尊重人类尊严、个人自主性和功能,并由人类适当控制和监督;技术稳健性和安全性:人工智能的开发和部署应最大限度地减少意外和意外的损害,确保在出现意外问题时的稳健性,以及在恶意第三方试图改变人工智能系统性能而非法使用时的弹性;隐私和数据保护:人工智能系统必须按照现有的隐私和数据保护规则开发和使用,同时处理在质量和完整性方面符合高标准的数据;透明度:人工智能系统的开发和使用方式必须允许适当的可追溯性和可解释性,让人类意识到他们与人工智能系统进行通信或互动,并适当地告知用户人工智能的能力和局限性,以及受影响之人享有的权利;非歧视和公平:人工智能系统的开发和使用必须包括不同参与者,促进平等使用、性别平等和文化多样性,同时避免欧盟或国家法律禁止的歧视性影响和不公平偏见;社会和环境福祉:人工智能系统应以可持续和环保的方式开发和使用,让所有人受益,同时监测和评估对个人、社会和民主的长期影响。
欧盟意图通过《人工智能法案》建立人工智能监管全球标准,进而使欧洲在国际智能竞争中取得优势地位。《人工智能法案》为处理人工智能系统制定了相对合理的規则,在一定程度上可以避免歧视、监视和其他潜在危害,特别是在与基本权利相关的领域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共场所的面部识别便是其一。此外,其将确定减轻风险的控制措施整合到可能出现风险的业务部门中,能够帮助各组织了解人工智能系统的成本效益,开展合规(自我)审查明确责任和义务,最终自信地采用人工智能。但同时,《人工智能法案》在风险分级、监管力度、权利保护与责任机制等方面亦有缺陷,如其采用的是横向立法,试图把所有人工智能都纳入监管范围,而未深入考量人工智能之间的不同特性,可能会导致相关风险防范措施面临无法执行的问题。




