
人工智能自诞生之日起就引起人们无限的想象和憧憬,同时也伴随着巨大的伦理争议。在诸多成因中,人工智能技术的安全性问题引发的伦理争议尤为激烈。一方面,人工智能在增强人类应对和解决安全危害能力,提高安全控制水平方面将发挥重要作用;另一方面,受制于技术本身的特点和缺陷,拥有自主能力的人工智能则很有可能成为全新的安全威胁。相较于社会其它领域,人工智能在军事领域的应用起步较晚,但由于军事活动自身的特殊属性,人工智能一旦大面积应用到军事活动中,其内在缺陷引发的伦理风险必然呈现放大的趋势。在新一轮世界军事科技革命风起云涌的关键时期,对人工智能技术层面的局限性和不确定性进行分析,结合军事活动的实际特点进行合理推想,从而挖掘潜在的伦理风险,显得尤为紧迫而必要。
算法缺陷引发的伦理风险
算法安全通常是指由于算法本身不完善,使设计或实施过程中出现与预期不相符的安全性问题。如:由于设计者定义了错误的目标函数,或者选用了不合适的模型而引起安全问题;设计者没有充分考虑限制性条件,导致算法在运行过程中造成不良后果,引起的安全问题等。
人工智能发展到当前阶段,深度学习已成为掀起第三次人工智能浪潮的核心算法。通俗地讲,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,通过模仿人脑的机制来解释数据,例如图像,声音和文本等信息。作为神经网络的3.0版本,深度学习算法相较于过去拥有更深的网络层级、更庞大的神经元结构、更广泛的神经元连接,加之大数据的支持和计算机处理能力上的飞跃,目前在无人驾驶、图片识别、机器翻译等众多领域已经取得了令人瞩目的成果,并且还保持着巨大的发展潜力。不过,深度学习算法也并不是完美无缺的,三类缺陷使得学界对于其发展和应用持审慎态度:一是算法的不透明性和运算过程的不可解释性。由于神经网络所获取的知识体现在神经元之间相互连接的权重值上,其网络架构的高度复杂性使得无论是设计者还是使用者都无法解析这些知识,致使在下达指令后,人们对于人工智能如何落实指令、通过什么样的方式完成任务还无从得知,这就带来不可解释的“黑盒”问题。二是算法潜藏的偏见和歧视。由于算法在本质上是“以数学方式或者计算机代码表达的意见”,设计者和开发者自身持有的偏见将不可避免地带入到算法的设计中,从而可能导致针对个别群体的歧视,引发严重的社会问题和伦理风险。三是神经网络的稳定性。环境的轻微改变和目标内容的适度伪装会影响神经网络的稳定性,从而使人工智能对目标的识别判断出现失误甚至无法识别。例如,如果对图像进行细微的修正,对人类而言,这种修正完全不会影响图像识别,但会导致神经网络错误地将其分类。

一旦人工智能在军事活动中开始大面积被使用,上述缺陷就会充分暴露出来,从而引发极为严重的安全问题和巨大的伦理争议。下面,将逐条分析三类缺陷在军事应用过程中可能引发的伦理风险:
对于第一类缺陷,目前学界并无统一的完成度高的解决方法。在这个前提下,各方认为,足够大的数据支持能够有效缓解“黑盒”问题引发的安全风险。神经网络中往往包含着众多的隐藏层,只有利用体量足够大、类型足够丰富的数据进行安全测试时,“激活”模型中各个部分,才能测试出更多的安全漏洞。在民用领域,这一设想不难实现,只需要不同测试场景下足够丰富的测试数据即可。但在军事领域,上述设想的实现难度将大大增加。训练和实战之间存在着巨大的反差,要想获得足够丰富可靠的训练数据,就需要使人工智能的應用场景尽可能地贴近实战。不过这也就带来了新的问题:人们是否能够允许“不够成熟”的人工智能离开实验室,进入训练场、演练场甚至战场?谁又对在这个进程中出现的意外伤害和附带损伤负责?困境显而易见:要想让人工智能军事应用变得更安全,就得在初始阶段承担更大的风险;若想要在全过程将潜在的风险降至最低,则人工智能军事应用的发展便将举步维艰,安全性也将一直得不到提升。
与第一类缺陷相比,第二类缺陷包含着较为复杂的人为因素。在民用领域,算法歧视主要同企业文化、设计者个人背景等社会层面的原因相关,而由于军事行动的主体通常为国家,军事领域的人工智能算法歧视还同国家利益、民族意识等密不可分。设想一下,如果二战时期的德国具备设计和制造人工智能武器的能力,是否可能在设计阶段嵌入针对犹太人和非犹太人进行区分打击的算法?当然,这只是一种猜想,历史不可能假设,今天的世界与20世纪中叶的世界相比,已经发生了天翻地覆的变化,纳粹和希特勒这样的极端个例在今天并不存在,但这并不代表以上的风险不存在。

