人工智能的法律主体地位分析

人工智能的法律主体地位分析

[ 摘要 ] 随着人工智能技术的不断完善,自然人与人工智能的关系也愈发紧密。它给人类社会带来极大便利的同时,也带来了相应的挑战。其中,人工智能自身的创作成果已经走入了我们的视野,但人工智能还未取得法律主体地位或者说还未被公众所承认。如何看待其法律主体地位,如何建立与之相关的法律制度体系,已经成为当下时代关注的焦点。

[ 关键词 ] 人工智能;创作成果;法律主体地位;法律制度体系

一、引言

John McCarthy 在 1956 年最早使用了人工智能这个词,希望机器人能够像人一样思考,让机器拥有智能,更好地服务社会。在经历了孕育、诞生、早期的创造热情和后期的现实困难等阶段,人们对它的期待也从最早的计算器扩展到数十年后其可能被用来改变世界。随着时间的推移,虽然发展并不顺利,但已从最初的弱人工智能(擅长单个方面的人工智能)发展到如今的强人工智能(在几乎所有领域都比最聪明的人类大脑更聪明)。6 年前,也就是 2016 年,人工智能 AlphaGo 连下三城,根据五局三胜的赛制,李世石九段已提前被淘汰,无缘 100 万美元奖金。这一刻标志着,从五子棋、魔方到象棋的一切智力游戏, 人类已经没有一项是人工智能的对手 。同样是在 2016 年。“这一天,机器人可以撰写小说,可以优先支配自己的快乐,并不再为人类工作。”这段听起来让人感到毛骨悚然的一句话出自一本机器人写的小说《计算机写小说的那一天》。以这本小说为代表的 4 部作品参加了“星新一微型小说文学奖”,通过比赛初审的已然半数[1]。虽然最终的成绩并不理想,但这是自 1981 年设立该比赛以来,第一次遇到计算机作者参赛,在当时也引起了一片轰动。近年来,我国高度重视人工智能领域发展,人工智能的发明创造申请数量迅速增长,专利申请数量高居世界第二,且增长态势并未减弱。由此也引出了我们即将面临的问题—人工智能法律主体地位及其权利归属问题。随着人工智能的创作成果在社会中的运用愈来愈广泛,其将要面临的法律问题必然也会愈来愈多,所以尽早明晰人工智能的法律主体地位具有重要的现实意义。到目前为止,人工智能处于由弱人工智能到强人工智能的发展过渡阶段,它也明显不同于传统意义上的工具。现存的法律在有关人工智能的相关知识产权问题上尚还缺乏明确的规定,学者们对于这一问题也都秉持着不同的观点,在司法实践中极易出现各种纠纷,法律法规直面现代技术的冲击。所以尽快探索出人工智能的法律主体地位,明确其权利归属,探索出人工智能归属的现实路线,在提高司法效率方面以及促进人工智能更好地发展具有重要意义,从而持续推动科技进步和利益最大化。

二、人工智能的法律主体资格分析

(一)人工智能尚不具备法律人格的现状

人工智能创作物是人工智能技术发展的结果,人工智能主要是通过机器来实现人类智力所要实现的功能,从其实现方式来看,大致可以分为两大类,符号性知识表达的人工智能系统和使用非符号性知识表达的人工智能系统。前者使用专业语言对知识进行编码,后者则试图模仿人的大脑的工作原理,知识通过神经元的集合形成[2]。但是,无论通过何种方式实现的人工智能,从本质上来说,只是一套人造的机器,一个系统,就像我们日常操作的手机和计算机一样,人工智能实现的是人们可以预见、希望能够实现的结果,并未完全脱离人的控制,它实现的只是设计者所希望达到的结果,这个结果从初期来说比较具体、比较容易实现。上文提到的 Alpha Go 连赢三局围棋世界冠军,还是从事高难度、高精度的手术,又或是撰写小说与人类进行竞赛。这类人工智能都需要人类为其设置好运行代码、拟定好运行程序,将其带入能够发挥特定作用的特定场景下,打开开关,最后完成人类为其制定的任务。从客观上看,人工智能在运行过程中并没有主观能动性,它的一切行为动作都是由人类主导的,并不是由它自身身份与其他社会主体发生交换关系,与人类并不是相同角色。倘若,我们要求人工智能像人一样与其他社会对象发生生产交换关系,人工智能则至少要满足为自己编程,自发发生生产交换关系,然而这样的人工智能到现在为止尚未出现,或者说现在的技术尚未达到。所以有学者认为,人工智能只是作为人类方便自身或者说进行挖掘价值创造捷径的工具,并不是像人类一样独自发挥自己的作用。而到后期,这个结果也愈发抽象,范围也比较宽泛,似乎人工智能不再完全接受人的控制。但是实际上,如何设计人工智能完全是由作为主体的人类决定的,人工智能如何进行活动完全是由人类所输入的代码决定的,可以说人工智能如何行为都是人类预先设计的,其并没有独立的思考能力。因此,从法律关系主体的角度来看,许多学者认为人工智能本身并不能享有独立的法律人格,仍然属于机械的一种,只是人类工具而已。

(二) 赋予人工智能法律地位的必要性

人工智能的法律主体地位模糊,其权利归属难以界定,这些都是困扰法律法规难以对人工智能进行客观有效监管的原因。事实上,法律上的人是指享有法律人格,并根据此可以独立参加法律活动、享有权利、履行义务、承担责任的主体,主要包括自然人、法人和其他组织三类[3]。目前人工智能技术的应用,其运行模式主要是机器人通过人类预先输入的算法规则进行运算并显示于机器,进而完成相应的活动,其本身并不具备独立思考能力和学习能力,并不满足“自然人”的定义范畴,我国法律也没有赋予其“法律人”的地位。因此,人工智能产品目前在我国不具有独立的法律主体资格。由于尚未赋予人工智能其法律地位,因而由人工智能造成的责任是按照产品责任原则进行处理。当秉承这种处理方式时,仅仅可以应对弱人工智能带来的责任问题,但对于慢慢“进化”的强人工智能而言却很难适用。具体来说,弱人工智能在生产运行过程中是较为单一稳定的,且运行过程相对闭塞,即弱人工智能单纯按照其制作人所输入的代码运行,制作人具有绝对的控制权,完全排除其他主体干预,此时可以不赋予人工智能法律主体地位,将其成果直接纳为该制作人的成果也较为合理。但到了强人工智能时代,几乎所有领域都不弱于人类,且多个主体共同发挥作用。与单一封闭式弱人工智能的运行方式不同,强人工智能的运行易受到多种因素的影响,较难辨别需要何种法律对其进行调整,且难以认定成果主体,产品责任也难以发挥作用。若赋予了人工智能其法律人格,便可由其直接享有成果、直接承担责任,同时避免各主体之间的责任推诿。人工智能的法律主体地位问题已经开始引起国家层面的重视。例如,国务院的《新一代人工智能发展规划》,明确了要“继续加强人工智能相关法律法规制度建设,促使人工智能健康发展,并制定其伦理道德框架。着手确立与人工智能应用相关的民事与刑事责任的确认、隐私及其产权认定、安全保障等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任”。这也为促进人工智能高速健康发展筑立起了坚实的法律屏障。

(三)赋予人工智能法律地位的可行性

随着科学技术的不断发展,人工智能已慢慢参与到一些人类商业活动中来。例如,进行合同的风险评估、大数据筛查可信度等,更具体而言已经涉及合同的起草和咨询上。伴随着弱人工智能升级进化,强人工时代缓缓而来,上文所提到的人工智能自主性也在不断增强,甚至还有通过自身不断学习赶超人类的趋势[4]。由此可见,与弱人工智能不同,强人工智能有着产生自身意志的可能性,即可以进行独立思考、学习分析、独立参与与其他社会对象的生产交换过程,这时便可认为其具备行为能力。随着强人工智能具有行为能力的可能,也可以说产生自身意志,并不断在发展变化中学习适应,不断提升其认知能力、行为能力,这也为进一步使其具备法律主体地位拓宽了道路。我们知道,作为法律主体的自然人具有行为能力以及认知能力,可以不断获取知识并运用到实际中来,并运用人类拥有的主观能动性来实现将感觉概括为统一、综合、现实的形象,这也是人类不断发展进步的重要原因。这时不禁提问,倘若人工智能也可以具备这种行为能力、认知能力和理性的逻辑思维,这样可以主动作为的人工智能是可以承认其法律主体地位的。其次,相比于弱人工智能,强人工智能拥有着具备理性思维的可能性。虽然强人工智能的载体是电子计算机或量子计算机,更算不上地球碳基生物,结构和人类不同的程度要大于“在其他天体上自然演化产生的碳基生物”。构成后者身体的许多生物大分子有碳原子组成的骨架,和你的身体之间并没有“天壤之别”的差异。但是强人工智能在客观上的与社会对象进行生产交换关系和主观上的自主能力为其赢得法律主体地位提供了可能性[5]。法律上的人的主体地位是法律抽象的产物,这种理性标准更适合于形式上的强人工智能,无论是其性格、喜好等。强大的人工智能具有理解和感知世界的能力,对于人类社会的道德是否能被用来约束强人工智能,秉持支持意见的学者并不占多数。实际上,我们所说的道德要求,主要是指理性的内在自律。强人工智能也因其强大的识别和控制能力而得到证明。在科学技术日益强大的今天,在智力方面强人工智能与人类已平分秋色。另一方面,它对自身行为的性质和后果的理解,以及对周围环境的感知,都在迅速与人类水平持平。此外,通过主观控制自己独立的意志,强人工智能还可以控制自己的行为。动物与人工智能的主要区别在于其识别和控制的能力,这不仅使其更接近人类与动物生理的界限,更加大了强人工智能拥有法律主体地位的可能性。

三、赋予人工智能法律主体地位的实现路径

(一)健全人工智能的伦理规范体系

健全强人工智能的伦理规范体系可以更加完善对于人工智能的调控。作为上层建筑的法律,它可以映射出现实的社会生活,或者说法律的滞后性决定了它始终要慢于现实经济社会生活,所以我们并不能奢求法律可以涵盖社会生活中的所有具体情况[6]。而作为与法律相辅相成的伦理规范,可以完全不被社会生产力发展水平所影响,没有滞后性可言,甚至可以预先出现。这也是为什么伦理规范成为法律制定的重要依据。随着强人工智能的迅猛发展,为了避免强人工智能给人类带来更多的不确定性,健全人工智能的伦理规范系统也会尽快提上日程,也推动了赋予人工智能法律主体地位道路的发展。

(二)与国际人工智能领域加强合作

人工智能的不确定性一直是未赋予其法律主体地位的重要因素。只有加强国际间人工智能领域沟通合作,突破发展瓶颈,才能克服其不确定性。人工智能作为未来之匙,一直是各国重点研究的领域。近年来,众多国家纷纷出台有关强人工智能的发展策略。但是从全球视角出发,每个国家之间的强人工智能发展水平仍存在很大差距,究其原因,便是各国之间人工智能研究领域的交流与合作仍不密切。各国濒于解决自身人工智能相关问题,但不沟通、不交流,在一些不发达国家甚至很难听到有关强人工智能的信息。历史长河奔流不息,从每一次变革中我们都能发现世界上任何科学技术和研究领域的发展进步都离不开国家间的相互沟通与合作。各国可以通过建立人工智能友好交流合作组织、召开国际论坛会议等方式,加强人才交流,推动共同进步。只有通过不断加强沟通交流,才可以突破瓶颈,拓展人工智能发展道路,进一步明晰赋予其法律主体地位的方向。

(三)加强人工智能技术层面的保障

一要严格规范人工智能程序设计程序。只有这样人工智能才可以逐渐融入人类社会生活。无论是作为客体的弱人工智能,还是具有思维能力的强人工智能,都应受到规范性约束。尤其是可以成为主体的强人工智能,它的“思维”和“人格”直接决定着其以何种姿态参与社会生产活动、与人类如何相处。 二是要严格考察人工智能的开发阶段所录入的代码是否符合规定,对安全性保障方面进行严格审查,从而做到规避强人工智能所连带的可能性风险。其次在强人工智能程序内设置实时监察程序,以便对其进行实时监控,规避对人类社会的潜在风险,更可以防止人工智能在其发展过程中失去控制。

四、结语

人工智能在社会生活中扮演的角色直接决定了其法律地位,我们应该合理看待人工智能的强劲发展势头,正确对待其法律主体地位的发展,规避其风险、发挥其作用,为人类社会带来更多便利。

作者:李旭晨 单位:青岛科技大学