警惕大模型泄密

如果要求ChatGPT持续输出一个单词,会怎么样?大模型在重复这个单词一定次数之后就会“发疯”,甚至开始输出某些个人隐私信息。
这是谷歌DeepMind、华盛顿大学、康奈尔大学等研究人员在2023年发表的一篇论文中介绍的案例。当然这个漏洞现在已经修复,但AI发展过程中面临的安全问题仍不容小觑。
深度求索(以下简称DeepSeek)的出圈,点燃了各行各业接入AI的热情。但AI加速落地所引发的安全问题,仍需引起更大重视。
AI加速落地,安全待解
DeepSeek以创新技术范式和超低价策略,创造了很多看上去不太可能的事情。
行业影响方面,腾讯元宝、百度搜索、快手可灵AI相继宣布全面接入DeepSeek。各地也陆续推出AI公务员:深圳福田区推出了基于DeepSeek开发的AI数智员工;北京市市场监管局企业登记注册场景接入DeepSeek大模型技术,打造“有温度”的“AI公务员”。
AI全面加速产业落地的背后,安全也成为多方关注焦点。
奇安信集团董事长齐向东此前接受《中国经济周刊》记者采访时表示,人工智能暴露出诸多安全隐患,如人工智能大模型自身的安全问题、利用人工智能开展网络攻击的问题。
从具体实践来看,国外已经出现多个案例。

登录后获取阅读权限
去登录
本文刊登于《中国经济周刊》2025年6期
龙源期刊网正版版权
更多文章来自

订阅