人工智能具有法律主体资格吗
人工智能(artificial intelligence, AI)自1956年在Dartmouth会议上被提出至今,学界尚没有统一概念。理论界普遍认为:人工智能作为研究、开发用于延伸、模拟和拓展人类智能的理论、技术及应用系统的一门新技术科学,本质上是计算机科学的一个分支,是试图制造与人类智能相似的智能机器,让机器完成曾经只有人类才能完成的工作,包括:机器学习、语言处理、逻辑推理、意识规划、语音识别、社交行为等。
严格意义上,人工智能可以分为弱人工智能和强人工智能。弱人工智能是指人类设计并创造的人类智能的某些方面,其不能完全脱离人类的控制运行。比如Siri就是依赖在手机软件中复杂的弱人工智能,并与互联网云端复杂的弱人工智能相联接,创造了一个具有用户友好型的高级弱人工智能项目。强人工智能则是具有与人类相当或者超过人类智能的智力水平,因而能够像人类一样解决任何问题,运行已经完全不需要人类的控制的。当然,目前来讲,强人工智能仍然是尚未实现的幻想.
研究人工智能的法律问题,就必须先回答其核心问题:人工智能的法律地位究竟是什么?人工智能究竟是人还是物?它能否具有法律主体资格?
人工智能业界把人工智能按照先进程度分为:弱人工智能、强人工智能、超人工智能三类。[4]按照现在人工智能的发展阶段,人工智能还处于“弱人工智能时代”。弱人工智能是指人类设计并创造的人类智能的某些方面,其不能完全脱离人类的控制运行。
对于弱人工智能来说,人工智能仅仅是一种行为,其本身并不能构成法律上的主体资格。人工智能是主体行为借助的工具,因此是主体的行为的一种方式,是主体行为的延伸。此行为如符合法律行为客观要件、主观要件和法律行为的确认就构成了人工智能主体的法律行为。
法律行为客观要件包括外在的行为、手段和结果。行动是法律行为构成的最基本的要素,它是法律行为主体作用于对象的中介方式。从前面人工智能分析得出人工智能是行为,同时也是一种行为方式。因此人工智能是其主体“人工智能的研发者、制造者以及使用者”的行动和行为方式。[5]人工智能目前已造成一定的社会影响,工具之所以被制造出来,是人为了适应环境、改变环境,是为了自身的生存和发展需要,是为了协助人类解决面临的各种问题,协助人类完成需要承担的各项任务。
综上分析,人工智能是主体的法律行为。赋予它们以人格,就目前来看,显然并没有必要。如果赋予了弱人工智能以人格,就意味着它需要独立承担责任,那么,如果弱人工智能引发事故致人受伤,受害者就应当去找弱人工智能去寻求赔偿而不是它的制造者或者使用者。在目前的法律体系中,显然会导致受害者无法救济的后果。
2016年联合国科教文组织通过的《关于机器人伦理的初步草案报告》显示,该报告将智能产品(机器人)视为通常意义上的科技产品,对智能产品及其技术造成的损害,可由产品责任的相关制度予以调整。在这种情况下,人工智能的侵权责任可以按照特殊侵权责任中的产品责任即无过错责任原则进行责任的确定以及追责,不需要证明过错的存在。但是,该报告仅仅是针对无独立意识的弱人工智能产品,那么拥有独立意识的人工智能被视为通常意义上的科技产品显然是不合理的。