生成式AI的法律挑战与应对
作者 张平
发表于 2024年12月

以ChatGPT、Sora为代表的生成式AI(人工智能)技术,基于其强大的学习能力与内容生成能力,成为推动新一轮产业升级的核心技术工具。

AI的重要性不言而喻,不论是2024年多个诺贝尔奖获得者对于AI的关注,抑或以OpenAI、谷歌、微软为首的100多家企业共同签订《人工智能公约》,中国也适时提出“人工智能能力建设普惠计划”,并呼吁各方对AI能力建设加大投入。

这些均表明,AI已成为全世界、全人类所共同关注的关键话题。

与此同时,一些新技术引发的社会问题也蔓延全球。例如,2024年5月21日曝光的“首尔大学版N号房”事件中,两名嫌疑人涉嫌利用女校友的毕业照片和社交媒体照片,非法合成淫秽视频,传播到一款加密即时通信软件上的聊天房中,邀请具有“变态性癖好”的人参与。2024年8月,韩国再次曝出采用新犯罪手段的“Deepfake”(深度伪造技术)事件,更是涉及未成年女孩,成为新型N号房事件。Deepfakes使用生成式AI技术,将个人的声音、面部表情及身体动作拼接合成虚假内容,极大地影响了个人的合法权益与社会的公共利益。

这背后,是生成式AI的研发与应用带来的一系列法律风险及司法适用难题的缩影:不仅涉及知识产权保护、个人隐私保护,以及内容的真实性和可靠性等问题,其智能化的特点也可能引发AI法律主体地位、侵权责任认定等问题。

面向2025年,笔者试图深入探讨这些难题背后的成因,并提出相应的对策建议,以期为相关法律的完善和司法实践提供理论支持和实践指导。

生成式AI的主要法律风险

对公众而言,首要的危害便是深度伪造与虚假信息。

深度伪造(Deepfake)具有内容的高度真实性与应用范围的普遍性。深度伪造技术,一般指的是通过生成式对抗网络(GANs)等技术手段分析海量数据,学习特定的面部形态、表情模式以及动作特征等内容,创造出了大量虚假内容的智能视频生成技术。对该技术的滥用,极容易导致虚假信息的泛滥、降低社会公众的信任感以及公共利益的损害。

一般而言,基于深度伪造技术所生成的虚假内容一旦与特定的视频、音频片段结合,容易导致虚假新闻、诽谤侵权等法律风险,尤其是通过该技术制作政治人物或特定事件的虚假内容,极容易损害社会公共秩序与国家安全等核心利益。韩国出现的新型“N号房”事件,就是此类技术带来危害的代表。

第二类是知识产权侵权风险。

生成式AI技术通过学习大量数据集,能够创造出新的文本、图像、音乐等作品,这一过程涉及复杂的算法和数据处理技术。然而,这些应用在著作权领域引发了诸多挑战。

具体而言,在前端的数据训练环节,由于生成式AI的迭代升级需要海量数据作为训练“养料”,且基于高质量训练数据的需求,生成式AI在前端数据训练的过程中不可避免地接触大量作品内容。一旦生成式AI研发者未经著作权人许可,擅自使用作品数据以训练AI模型,则容易导致著作权侵权风险。与此同时,基于海量数据所生成的内容,如果与现存的著作权人作品存在“实质性相似”,则同样容易侵犯著作权人的合法权利。

在全国首例生成式AI侵权一案中,原告认为被告在未经许可的情况下,在被告所经营的AI绘画网站中生成了与原告作品实质性相似的内容,如输入“奥特曼”和“奥特曼融合美少女战士”即生成了奥特曼形象图片以及奥特曼形象与美少女形象融合的图片,法院因此认定被告利用AI所生成的内容侵犯了原告的复制权、改编权,应承担相应的侵权责任。

2024年8月30日,韩国首尔,人们携带面具参加集会,抗议Deepfake及新型“N号房”事件。图/法新

显然,目前生成式AI的知识产权侵权风险已逐渐引起理论与司法实践的关注,如何平衡技术发展需求与作者的合法利益已成为重中之重。

本文刊登于《财经》2024年27期
龙源期刊网正版版权
更多文章来自
订阅