人工智能不应成为法律主体
作者 孙良国
发表于 2024年9月

今天,人工智能已进入曾经被认为不可能涉足的诸如艺术创作、自动驾驶等领域,并日益展现出超越人类的“智能”。根据是否具有自我意识这一标准,人工智能分为弱人工智能和强人工智能两个发展阶段,目前强人工智能仅存在于理论假设中。但即便是弱人工智能,人类也无法预计其“智能”究竟会达到何种程度。

基于对人与智能机器关系问题的再审视,近年来,学术界围绕“人工智能是否应具有法律主体地位”的争论日益激烈。总体看,可分为“肯定说”与“否定说”两种立场。前者主张人工智能可以享有有限的法律人格,应当承担一定的道德义务;后者主张人工智能只能作为法律客体出现、永远只能作为人类的工具。两位学者分别从不同角度对此问题提出自己的看法。

人工智能的治理是一项复杂的系统工程,也是人类面对的核心问题之一。我国人工智能的发展要引领世界,就必须设计能够支撑人工智能可持续发展的治理机制。其中,法律作为治国之重器,应当在人工智能的治理中发挥重要作用。在人工智能的法律治理中,一个重要议题是,人工智能是否应当成为法律主体。在世界范围内,此问题引起了巨大的学术争论和社会争议,不同甚或对立的观点不断登场,远未达成共识。笔者的观点是,人工智能不应当成为法律主体。

从实证法的角度看,立法机关可以通过法律认可任何组织、实体或者其他事物作为法律主体。任何突破传统法律制度的新制度,都必须是经过价值判断后的恰当结果。人工智能是否应当成为法律主体,取决于如下价值判断:既能够促进人工智能的发展,同时也能够消除人工智能的不当风险。技术变革往往会伴随风险,但只要风险可控且不会对人类价值产生不可接受的影响,那么法律就应采取最优措施来抑制风险。考虑当下功用,兼顾长远影响,总体来看,维持目前法律制度,不赋予人工智能以法律主体地位,是人工智能法律治理的最优解。

人工智能的发展并不需要其成为法律主体

人工智能是概括性术语,从机器学习到大规模语言模型等均包括在内。人工智能是否需要成为法律主体,可以从法律主体的历史演进规律获得启示。

整体而言,法律主体演进的基本规律可概括为从“人可非人”到“非人可人”。即使到近代社会,自然人(公民)之间的权利也是有差别的。只有在现代法治国家,自然人才享有平等的民事权利。不仅如此,法律主体也已经不再限于生物学意义上的人,公司等实体也获得了法律的明确承认,同时附之以股东或者出资人以自己对公司的出资为限承担责任。

本文刊登于《新华月报》2024年16期
龙源期刊网正版版权
更多文章来自
订阅