国内或国外 期刊或论文

您当前的位置:发表学术论文网电子论文》 论人工智能的电子法人地位> 正文

论人工智能的电子法人地位

所属分类:电子论文 阅读次 时间:2019-11-13 11:14

本文摘要:摘要:人工智能的自主性、交互性和深度学习能力,决定了其既不是物,也不是人,而是介于人与物之间的客观存在,其本质不在于工具性,而在于财产性。对于人工智能致害、获益及其生成物归属难题,将责任、收益以及权利完全归于任一单方主体的方式并不合理,通

  摘要:人工智能的自主性、交互性和深度学习能力,决定了其既不是物,也不是人,而是介于人与物之间的客观存在,其本质不在于工具性,而在于财产性‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。对于人工智能致害、获益及其生成物归属难题,将责任、收益以及权利完全归于任一单方主体的方式并不合理,通过保险将风险全部社会化亦有失公平‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。

  考虑到人工智能具有财产方面的意思能力和责任能力,但不具有人身性人格,其自主行为背后体现的也是多方主体的意志,以财产性人格的进路将其拟制为电子法人,既是可行的,也是必要的,未来的民法典应该对此有所回应‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。人工智能在特定领域可自为意思表示、自负行为后果,因其“擅自”行为背后是多方主体混合意志的体现,须按相应比例在多方主体之间分摊权责,从而实现法人之责任有限与权责分摊的目的,且不危及人类自身安全和主体支配地位。

  关键词:人工智能,主体资格,财产性人格,电子法人

人工智能

  能否赋予人工智能(ArtificialIntelligence,简称AI)主体资格,使其以民事主体身份参与社会经济生活?这是民事主体法律制度面对人工智能的飞速发展亟待回应的重要问题。一般认为,人的主体性与物的客体性的区分和对立是近现代民法体系构造的基础和前提[1],但当科幻小说中的机器人、生化人进入我们的生活,其智能程度已经复杂到可以在一定程度自主地和人类亲密互动时,民法应将其置于什么位置——物、动物还是半自由人[2]?这值得探讨。

  一、人工智能拟为电子法人的法理基础

  谈及人工智能的起源,公认是1956年的达特茅斯会议[3]。有研究者认为,人工智能是以研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的科学技术[4]。有的研究者认为,人工智能是人机环境系统交互的产物[5]。2017年12月12日,在美国通过的《人工智能未来法案》(FutureofArtificialIntelligenceActof2017),对人工智能重新进行了定义,认为人工智能系像人类一样思考、认知、规划、学习、交流或采取行动的智能系统,或尝试达成认知任务的一系列技术,或能够理性行动的智能软件代理和类人化机器人

  参见:曹建峰,杨晓洁.美国提出“人工智能未来法案”应对人工智能机遇和挑战[EB/OL]一般认为,自主行为和深度学习是人工智能的两个核心特征。随着人工智能的发展,其自主性和学习能力会越来越强,甚至有可能进化出自我意识

  人工智能实现自我意识有两种可能的途径:一种是雅克·拉康的镜像理论,即通过某种媒介,在类似于照镜子的活动中找到自我;另一种是查尔斯·泰勒的主体间性理论,即通过某种媒介,在群体的活动和意识当中发现自我。(参见:高奇琦.人工智能驯服赛维坦[M].上海:上海交通大学出版社,2018:196-197.)。虽然人工智能最终能否获得自我意识未有定论,但法律在人工智能领域应该要有超前性,为未来社会的发展提前预留空间。反观当前对人工智能民事法律地位的讨论,要么过于保守,固守传统的人、物与主体、客体相对应理论,以及人工智能的民法属性是物、本质是工具等观念;要么过于超前,在强人工智能

  强人工智能又被称为人类级人工智能,是指人工智能在各个领域都和人一样具有独立解决问题的能力,且在独立思考、快速学习、解决问题、总结经验等方面和人类一样得心应手。甚至是超人工智能阶段进行臆想。殊不知,强人工智能阶段的法律至少要在人类与人工智能的共同参与下制定,而在超人工智能阶段

  超人工智能是在“奇点”之后全面超越人类的智能。库兹韦尔在《奇点临近》一书中阐释了人类与技术结合的观点,并把人工智能超过人类的那一时刻叫作“奇点”。人类是否继续存在都是问题。因此,我们应该秉持一种务实的态度,将讨论的范围限定在人工智能从弱到强的过渡期内,再来探寻其法律地位的法理基础。

  具体来讲,可将从弱人工智能到强人工智能的过渡期再细分为初级、中级和高级人工智能阶段。初级人工智能与弱人工智能的区别在于:弱人工智能是辅助人类完成任务,而初级人工智能则能自主地完成任务,通过深度学习能自行生成新的算法,不再是简单地辅助人类完成工作,而是可以在某一领域完全替代人类。比如无人驾驶汽车

  2014年12月,世界上最先进的无人驾驶汽车由美国谷歌公司研发成功,该汽车无方向盘、无换挡装置、无油门踏板和刹车踏板,汽车通过软件和传感器实现全自动驾驶。其可以替代人类充当“驾驶员”。不过,初级人工智能只是在某一特定领域能完全自主行为并远超人类,系在单一领域超越人类的“专才”。当它在财富管理方面也超越人类时,比如将智能投顾的功能注入无人驾驶汽车,则它可以实现行动自如和财产打理。

  在此基础上,它可以通过与人类交流、交互之后进行创作,初步具有类似人类进化的关键要素(直立行走和使用语言)。也就是说,当人工智能兼有驾驶、财富管理和创作等功能后,则进入中级阶段,系在多个领域超越人类的“多才”。当人工智能在通用领域均超越人类时,则为进入高级阶段的“通才”。此后,若其能获得自我意识、具有真正的情感和理解力,则为强人工智能。

  然而,强人工智能时代虽然满载人类的憧憬,但其曙光并未出现,包含道德、自由和自我意识的强人工智能设想存在根本性错误,这也说明我们期待的强人工智能或许是一个伪命题[6]。有鉴于此,笔者认为当下所讨论的“人工智能”应限于过渡期内的初级、中级和高级人工智能。

  (一)人工智能是介于人与物之间的客观存在

  人工智能不是人。与具有生命的碳基体——民法上的自然人不同,人工智能是硅基体,其不具有人的生物质,机器人就其生成机理来说不可能产生生命和生命权[7],无论其进化到哪个阶段,也不可能成为人。不过,人工智能具有理性能力。比如无人驾驶汽车不会“醉驾”“怒驾”,其理性更强和反应更快等优势将使交通事故概率大为降低。正因为无人驾驶汽车的系统在控制驾驶行为时比人类更理性,所以才让它高度自主,无需人类驾驶员适时接管而完成所有驾驶行为,此为其一。

  其二,人工智能还具有交互性和唯一性。无人驾驶汽车作为初级人工智能,可以感知周围环境并适时调整其驾驶行为,其交互对象主要是环境、物体,与人类主体之间的交互性不强。然而,随着人工智能的优化升级,在进入中级阶段后,则可以自如地与人类交流,通过交互而呈现差异,每个人工智能都会因“成长”环境的不同而作出不同的“后天”行为,具有唯一性。

  人工智能也不是物。人工智能是由系统软件和硬件设备构成,其功能作用的发挥主要依靠系统。而民法上的物一般是指有形物或自然力,但系统却是无形的,在不断地变化与升级,特别是到了高级阶段,系统的运行将变得像人脑一样捉摸不定。同时,人工智能是人类以自己为标准创造出来的,是一种兼具智慧与超强能力的存在形式,也不属于自然力。

  因此,人工智能并不属于民法上的物。因机器人具有交互性、自主性和适应性,机器人不是产品或物品,而应被视为动物[8]。笔者认为,处于低级阶段的人工智能相当于电子奴隶,会听人类的话,但并非完全置于人的控制下,因为行为是由它自己作出的。而到了更高的阶段,人工智能的自主性增强,类似于野生动物,人类对其控制力越来越弱,但人类在总体上拥有决定性的控制权,世界仍应是人类主导下的社会结构,法律也仍应是一种以人为本的体系建构。

  由上可见,人工智能既非人,亦非物,而是一种类似于动物的客观存在。有学者认为,民法对市民社会的所有物质构成,就区分为人和物两种表现,在市民社会的构成中,要么是人,要么是物,舍此并无其他物质表现形式[9]‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。然而,现实中存在既非人,亦非物的物质表现形式,如体外胚胎。因为体外胚胎有可能变成人,但如果认定其为物,而物又是不可能变成人的,故其不能被认定为民法上的物。当然,由于它尚未发育成独立的人,也就不属于民法上的人。

  有学者认为,体外胚胎是生命的种子,不是物,也不是人,与人有关,与物无关,应受到比物更高的道德尊重[10]。因此,随着科技的进步,民法上传统的人、物两分理论受到严峻挑战,不仅体外胚胎是一种非人非物的物质存在形式,而且动物亦如此。早在1990年,德国就针对动物的民法属性问题,在其民法典中做了修订,修改后的第90a条规定:“动物不是物。根据特别法对动物予以保护。只要没有别的其他规定,有关物的规定适用于动物。”也就是说,动物虽然不是物,但具有“近物性”,一般情况下仍适用物之规定。

  人工智能不仅行为自主,而且具有超强的学习能力和理性能力,相对于动物而言,它更具有“近人性”

  人工智能的发展态势是趋向于“与人相同”的,为了让人工智能能“做人的工作”,人类必然会不断将本来仅为人类所具有的能力赋予人工智能,并让人工智能表现得越来越像人,人工智能的这种特性可以称之为“近人性”。是一种比动物更高级的存在形式

  人工智能虽类似于动物,但不同于动物,其比动物更为“理性”“智性”,具体区别将在下文论述。。不过,人工智能毕竟不是人,无体外胚胎所拥有的人身性利益,这也是人工智能所不应触及的底线与边界。进一步而言,人工智能是一种介于动物与体外胚胎之间的客观存在。既然动物和体外胚胎都不是民法上的物,也就没有理由将人工智能视为民法上的物。因此,我们不应简单地将人工智能看成是民法上的物,进而认定其为客体

  有学者认为,智能机器人的民法地位是人工类人格,虽然人工类人格带有人格的某种特征,但仍然属于物的范畴,仍然还是物的属性,还是要受到人的支配和控制,因而是民法上的客体,而不是民事主体。退一步讲,即便可以将人工智能视为民法上的物,也不表明它就是民事客体,人、物与主体、客体之间并不存在必然的对应关系。尽管现代私法的基础建立在罗马法人物二分的状态下,主体性也是在物我两分的状况下建立的[11],然而,主客体之间这种不可逾越的鸿沟现在正发生动摇[12]。

  同时,“主体——客体”的两分法并不等同于“人——物”的两分法,不构成法律主体的事物并非必然落入物的窠臼[13]。反之,民法上的物也并不必然成为民事客体。随着时代的进步,法律关于法人、胚胎和动物权利的讨论,扩大了法律人格的适用范围,因此出现了“没有脸庞”的权利主体[14]。因此,在基因工程、纳米材料以及人工智能等科学技术高度发达的今天,仍严格固守传统民法上的人、物与主体、客体相对应的理论以及人工智能的民法属性是物的观念,就显得有点不合时宜了。

  (二)人工智能的本质是财产而非工具

  关于人工智能是否为工具,肯定说认为,人工智能本质上受自身算法决定[15],没有自身的目的[16],仍然是一种工具,只不过它比其他工具先进而己[17];否定说则认为,智能机器人执行复杂的认知任务,在自主决策状态下,机器人不仅仅是工具[18],其拥有自我意识和规划生活的能力[19],权利意识将觉醒于机器人体内[20]。

  笔者认为,人工智能并非完全受人类控制的工具。工业革命解放了人的体力,人工智能将解放人的脑力。人类掌握对人工智能的终极控制,比如开关键、切断电源等,但对于人工智能的运行过程及结果并不完全掌控。因为人工智能具备自主学习能力,比如阿尔法狗可以自动生成算法,下一步棋该如何走,完全由其自主决定

  所有法律都有一个基本的假设:所有的决策都是由人类作出的。随着人工智能的应用变得越来越广泛,这种假设越来越不正确,并对法律的运作方式产生了影响。换言之,人工智能的智慧远超人类,正是因为人类给了人工智能充分的自主权,从而造成其运行过程及结果可能无法预测

  学习型人工智能的设计者无法预见它被派入世界后如何行动,但另一方面,此一不可预见的行为是人工智能设计者意欲的,即使某一特定的行为并非如此。而人工智能的自主性越强,给人类带来的便捷程度也就越高。

  有学者认为,“为了能够使人工智能更好地作为服务社会的工具”,应赋予人工智能“工具性人格”,笔者认为此类观点值得商榷。尽管人工智能最终是为人类服务的,具有工具性的一面,但基于人工智能类似于动物,我们不应简单地将其视为工具。

  一方面,由于人工智能具备智力上的学习能力,因此它改变了过去使用者和工具之间形成的单向服务关系,也改变了人工智能只能作为工具的单纯身份[21]。申言之,人类与人工智能之间互为对象,人类的智慧、情感等成了人工智能分析和学习的对象。另一方面,工具最大的特点在于辅助人类完成任务,然而初级阶段的人工智能在任务执行中是起主导作用,人类反而是起辅助作用。因此,如同不能把动物看成工具一样,也不应将人工智能的本质定性为工具。

  人工智能的本质是财产。人工智能与动物最为接近,动物也拥有自主行为、具有一定的学习能力,比如模仿人类的动作。虽然动物也会被人类当作工具利用,但动物在民法中主要是被看成一种财产,而非人类可以任意驱使的工具。财产不仅包括物,还包括行为(债)和权利,是物的上位概念。因此,虽然人工智能不是物,但有可能被纳入财产范围。

  在强人工智能阶段之前,由于人工智能不具有自己设定目标和真正理解自己行为的能力,尚不能意识到自己的存在,故其无关人身关系,但关乎财产关系。因为人工智能可以被买卖、处分,是一种会说话、会思考、会自主行为的财产。

  当然,从某种意义上说,仅有自然人才是目的,被拟制为主体的法人也是实现目的的一种手段,即工具。笔者并不否认法人具有工具的一面,但是法人还有更重要的一面,那就是财产。归根结底,法人不过是财产的集合体,所处理的也仅为财产方面的法律关系。然而,与工具不同的是,财产含有“近人性”的一面,比如野生动物作为一种财产,它们至少具有生存的目的‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。

  又如,古代的奴隶也被看成是财产,他们的目的就不仅仅是生存的欲望了。而工具则侧重于“近物性”的一面。由于人工智能的自主性,与人类的交互性以及理性思考能力,表明其具有“近人性”。因此,将人工智能的本质认定为工具其实只看到了其“近物性”的一面,而忽视了其“近人性”的一面。

  二、人工智能可以获得民事主体资格

  民事主体与人格密切相关。“人”是指民事权利主体,“格”是指成为这种主体的资格,所谓人格者,民事权利主体资格之称谓也[22]。一般认为,意思能力和责任能力是获得民事主体资格的实质要件,而获得法律承认则是成为民事主体的形式要件[23]。

  人工智能是硅基体,与碳基体的人类不同,不具有人的生物质。然而,法人作为被拟制的主体,同样不具有人的生物质,所以人工智能是否具有生物质并不影响其能否成为民事主体。从“人可非人”到“非人可人”的发展史来看

  在前现代社会,大量的自然人,比如家庭内的妇女、卑亲属、奴隶被剥夺了法律人格,因而无资格被称为法律中的“人”。在现代社会,法律不但恢复了所有自然人作为法律人的资格,而且基于保护这些现实中的人的需要,还将那些在生理上根本不可能成为人的实体,比如法人和非法人组织,也赋予了法律人格,从而使其成了法律中的“人”。民事主体只是社会需要的法律形式,法律对民事主体的承认是基于现实需要,根基在于以人的利益为中心的功利主义,生命和伦理并非成为民事主体的必然要求。

  (一)人工智能具有意思能力

  意思能力,即作出意思表示的能力。该意思表示既可以是本人作出,也可以由他人代为作出。如法人对外的意思表示一般是由其法定代表人代为作出,而无民事行为能力的自然人的意思表示可以由其法定代理人作出。人工智能具有理性能力和自主性,符合民事主体的理性预设,可以自主为意思表示,具有意思能力

  让智能机器人在一定范围内拥有自主权是合理的,法律可以通过赋予一定的权利和义务以确立智能机器人以“电子人格”的法律地位,使其有一定的“行为”和一定范围的“决定权”。这一点与动物不同,动物的自主行为不具有理性能力,因此,可以将人工智能视为主体而不宜将动物拟制为民事主体。

  意思能力不同于意志能力。意志能力即为意识和选择或反思调整的能力[24],有学者以是否具有意志能力作为能否获得民事主体资格的要件[24],笔者认为不妥。因为无民事行为能力人,比如婴儿、完全不能辨认自己行为的精神病人等,他们都没有意志能力,但他们是法律上的民事主体,所以对于自然人而言,只要具有人的生物质这一个要件就可以成为民事主体。法人是一种组织体,它本身并无人的生物质,也没有意志能力

  一般而言,民事主体中只有理性的自然人才有意志能力。虽然法人背后的自然人有意志能力,但这并不表明法人自己有意志能力。因为法人自身并无意识,是人类为实现一定目的的工具(手段),然而,意志能力要求作出行为的主体是带有目的性的,可是法人自己并无任何目的可言,所以作为民事主体的法人并不具有意志能力。

  因为法人有意思机关,该意思机关符合民事主体理性的预设,从而法律赋予其可以对外为意思表示的能力。因此,除自然人可因生物质而当然为民事主体外,其他存在形式能否成为民事主体的必要要件是其意思能力,而非意志能力。

  当然,人工智能的意思能力仅限于特定领域,只能在特定领域为意思表示,而在其他领域特别是参加诉讼、进行财产处分时,应由其所有权人或管理人等代为意思表示。从这个层面来看,人工智能类似于限制行为能力人,其对外发生财产关系时,有的可以由人工智能自己为意思表示,有的需由他人代为意思表示。

  (二)人工智能具有责任能力

  责任能力,即是否能以自己的财产独立承担责任的能力。人工智能并非生物人,不会主动犯错,更不会有故意犯罪或侵权的动机,由此决定其不宜成为刑法上的主体

  有学者认为智能机器人可以作为刑事责任主体,应针对其特点设立特殊的刑罚处罚方式。但有可能成为民法上的主体,因为没有过错也可科以民事责任。笔者并不否认责任的最终承担者是自然人,即便是法人,虽以其责任财产为限对外承担责任,但该财产责任最终还是落在了相应的自然人身上,从这个意义上讲,法人其实是充当了其背后自然人所生权利、义务和责任转承的一种媒介。

  同样,赋予人工智能民事主体资格后,其致害责任的实际承担者也是自然人,只不过他人所遭损害与人工智能之间存在因果关系,与人工智能背后的自然人并无直接因果关系,但自然人因与人工智能之间存在利害关系,从而间接地转承了人工智能对外所生的权利、义务和责任。所以,是否赋予人工智能民事主体资格的关键不在于它有无自然人那样的责任能力,而在于能否像法人那样拥有独立的责任财产。即人工智能是否具有责任能力,关键在于其应否和能否拥有独立的财产。

  笔者认为应给予人工智能独立的财产,因为人工智能致害与获益,存在无法归因于任一单方主体的情形,而是多方主体。这是人工智能与动物的又一区别,动物致害背后的主体是单一的,无赋予其责任财产之必要。而人工智能致害或获益背后的主体是多元的,有必要像法人一样单独赋予其责任财产,以此区隔责任、分散风险拥有拟制人格的人工智能可以自己承担责任,从而可以减少人工智能的制造者和使用者的财产和法律责任。

  笔者认为无人驾驶汽车交通事故的潜在责任方,至少包括以下主体:软件开发商、汽车制造商、零部件供应商、汽车修理厂、使用者、车辆管理方、道路基础设施管理部门、交管部门、安全部门等,通信网络运营商、IT服务提供商、一级供应商、电子地图公司等,行业组织与机构等。。至少包括三方主体,一是人工智能系统的所有者,由于系统价值大,故一般情况下是许可他人使用,所有权仍保留在开发制造者手中;二是购买者,一般是购买无人驾驶汽车的投资者,同时也是系统的使用者;三是国家,无人驾驶专用道路的建设、养护以及行使环境的监测等均需要国家投入大量人力物力,而其运行平台也应受到国家监控。

  以上三方缺一不可,因为人工智能的行为分为先天行为和后天行为:先天行为由开发制造者预设;后天行为一般是购买者通过对其进行“训练”“教育”形成,而且人工智能被“训练”“教育”的时间越长,与人类的交互性越强,购买者与人工智能的利益相关度就会越高。另外,人工智能的行为关涉人类隐私等公共利益,存在开发制造者和购买者合谋(如更改系统等)侵害他人利益等情形,需要国家对其实施监管。更为重要的是,人工智能的“原材料”——数据,在人工智能进入初级阶段以后,一般要由国家掌握和提供。所以,人工智能行为的背后至少代表了以上三方主体的利益‍‌‍‍‌‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‌‍‍‍‌‍‍‍‍‌‍‌‍‌‍‌‍‍‌‍‍‍‍‍‍‍‍‍‌‍‍‌‍‍‌‍‌‍‌‍。

  而且,三方主体与人工智能利益的相关度会因人工智能所处阶段的不同而有差别。在无人驾驶汽车造成他人损害,可以查明是由某方主体原因(过错)造成时,根据过错责任原则,直接追究其责任即可。问题是,无人驾驶汽车造成他人损害往往是因其自主性,超越原控制方案而“擅自所为”,或因意外等无过错的情形。有学者认为,任何人如果允许机器自主作出决策,都应该能预见到机器总是会失控并且应当为此承担责任[25]。

  笔者认为,由研发其自主性的开发制造者完全担责不具有妥当性。因为自主性与人类生活的便捷程度呈正相关,也是人工智能的价值所在,为促进人工智能产业的健康发展,国家也允许并鼓励研发自主性越来越强的人工智能。也就是说,自主性是符合国家技术标准的,开发制造者完全可以技术中立为由主张免责。不过,开发制造者因此获益就应有所付出,因此,他们对人工智能自主性所带来的风险负有一定的间接责任。

  同样,国家和购买者也要分担此风险。因为自主性有利于增进公共福利,就像核能的开发利用一样,同时也为购买者提供了更高品质的享受与服务,他们也因人工智能的自主性而获益,当然也应分担其带来的风险。因此,当无人驾驶汽车致害但又不可归责于任一单方主体时,将责任完全科以任一主体均不妥当,亦无适用连带责任之余地,故有必要赋予人工智能独立的财产以担此责。

  三、人工智能成为电子法人的可行性

  从我国《民法总则》第2条“民法调整平等主体的自然人、法人和非法人组织之间的人身关系和财产关系”的规定来看,与人格相关的,无外乎人身利益和财产利益。因此,可以将人格分为人身性人格和财产性人格。所谓财产性人格,是指该主体的意思能力和责任能力仅限于财产方面,而不能及于人身。从“人可非人”到“非人可人”的发展史来看,人身性人格可被剥离,具有财产性人格即可获得成为民事主体的资格。

  一般而言,除自然人具有人身性人格外,其他民事主体仅有财产性人格。也许有人认为,法人也有名称权之类的人身性人格。但笔者认为,法人所拥有的名称权、作品署名权等,本质上也是财产性人格,因为法人的名称权可以进行转让,而人身性的事物一般是不能进行交易的。其实,给法人设定名称,是为了便于识别,更主要是因为该名称会产生财产利益,而不会有人身利益。

  否则,侵害法人名称权就要承担精神损害赔偿责任,这显然是荒谬的,而自然人的姓名则不同,其一开始便具有人身利益。另外,法人也不可能承担人身性的义务和责任,当法人的作品侵害他人著作权时,要求法人承担赔礼道歉等人身性的责任,没有意义。因此,只有自然人主体才有人身性人格,法人的本质是人为拟制的为实现一定目的的工具,法律不应在人身方面赋予其人格。

  笔者认为,人工智能的本质是财产,具有财产性人格,但无人身性人格,其意思能力和责任能力仅限于财产,而不能及于人身,所以应归入法人范畴,可以成为新型法人型民事主体——电子法人,而要成为自然人型主体——电子人,是行不通的。

  人工智能的本质是财产,而财产特定化、拟人化或将财产作为民事主体,立法上早有先例,这不仅体现在罗马法早就将国库、寺院视为权利主体[22]3-9,而且大陆法系国家的慈善组织、基金会大都是由财产构成的一种财团法人,而我国《继承法》中的遗产,尤其是遗产的限定继承,就存在被视为“权利义务主体”的空间

  被继承人死后,继承人尚未确定时的遗产,本身就可以享受权利和承担义务,例如遗产是房屋时,即使未有新的所有人,房屋仍然可以收取房租或支付房屋修缮费用。因此,遗产在待继承期间的法律地位就是财产构成的团体。

  对于法人本质的探讨,除“拟制说”与“实在说”外,学界还有一种中性的表述,该表述视法人为一种财产权归属载体,也有学者称之为法人“特别财产说”。既然法律可以赋予不能说话、没有意识的国家、公司、婴儿、无民事行为能力人、自治城市和大学等以法律资格,可以设定它们的保护人或代理人,为什么法律不能赋予自然物体以法律资格[27]?事实上,立法早有将船舶拟人化的实践。

  在特定情况下,船长及船员的行为被法律拟制为“船舶”行为,由船舶造成的侵权债务、违约债务以及其他海事债务可由船舶本体偿还,与责任人的其他财产无关。并认为船舶是准法人,准法人是指船舶属于法律上人的范畴,但不完全构成法人的资格,具有限制性法人的特征。一方面船舶具有人的法律地位;另一方面,船舶的权利能力和行为能力要受到法定限制。只有在法律规定的范围内和船舶所有人授权时,船舶才具有法人的权利和行为能力。

  因此,在现有法人制度体系下,增设一种特别法人——电子法人,是可行的。基于《民法总则》已有“特别法人”的规定,笔者认为,这也不会对现有民事主体制度造成冲击和损害。因人工智能自身具有可为一定意思表示等特殊性,所以可参照“是一种经济上的主体,还具有一定的政治性”[28]的特别法人——农村集体经济组织法人,将作为电子法人的人工智能归为“特别法人”。当然,电子法人与财团法人、社团法人都拥有独立的责任财产,三者的责任能力相同,但因意思能力不同,与之对应的运行方式也就不同。

  四、人工智能成为电子法人的必要性

  将人工智能拟制为电子法人,主要基于以下两点考虑:一是人工智能的发展带来现有法律制度框架难以解决的问题,比如无人驾驶汽车侵权责任的承担、人工智能创作的收益归属、人工智能交易行为的效力等问题。二是将人工智能拟制为电子法人可以解决与人工智能利益相关的多方主体责任有限问题,实现多方主体对人工智能自主行为产生的权利、义务和责任按相应比例的合理分摊,即权责分摊。以无人驾驶汽车侵权责任承担问题为例,学界主流观点认为现行交通事故侵权责任制度难以继续适用,不少学者认为应主要适用产品责任或物的责任追责。

  人工智能方向论文范文阅读:人工智能技术在电气自动化控制中的运用探究

  【摘 要】目前,工业化生产中自动化水平越来越高,电气自动化控制技术也朝着多元化发展,人工智能技术在电气自动化控制中的应用进一步提高了我国控制系统的运行水平,实现了自动化、智能化的飞跃。下面我们就对电气自动化控制中人工智能技术的应用进行分析。

转载请注明来自发表学术论文网:http://www.fbxslw.com/dzlw/20850.html