AI换声不能成为声音权保护盲区
随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI“偷声”等声音滥用现象愈发突出,不时引发争议。
国家金融监管总局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》中就提到,不法分子可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
未经授权把他人的声音AI化,涉嫌侵犯他人的声音权和个人信息安全,还可能扰乱网络空间生态和秩序。
登录后获取阅读权限
去登录
本文刊登于《恋爱婚姻家庭》2025年12期
龙源期刊网正版版权
更多文章来自

订阅



