防止AI核末日的到来
这不再是科幻小说的内容:将人工智能(AI)应用于核武器系统的竞赛正在进行中。
没人怀疑,使用核武器所带来的风险,会给人类和地球造成难以估量的破坏。即便只是区域性核战争,它也可能直接杀死数十万人,由此造成的气候变化又可能使数十亿人陷入饥饿。然而,最近数周内七国集团发布的行为准则和拜登的行政命令,都只是顺便提到了有必要保护民众免受人工智能所带来的化学、生物与核领域的威胁,英国首相苏纳克则根本没提到与核武器相关的人工智能应用所带来的严重危险。
核历史上的未遂事故屡见不鲜。很多时候,相比盲目遵从机器所提供的信息,人类选择相信自己的判断,世界末日也因此得以避免。1983年,苏联军官斯坦尼斯拉夫·彼得罗夫收到其正在监控的预警卫星系统的警报:探测到美国核导弹正在飞往苏联。但彼得罗夫并未立即向其上级提出警示(此举无疑会引发核“报复”),而是正确地认定这是一次错误的报警。
如果有人工智能的参与,彼得罗夫是否会做出同样的决定—甚至,他是否會有这样做的机会?事实上,将机器学习应用于核武,将削弱人类对于部署核武之决策的控制力。
登录后获取阅读权限
去登录
本文刊登于《南风窗》2023年26期
龙源期刊网正版版权
更多文章来自

订阅



