乔凡尼•科曼德:人工智能/数据科学在法律中的应用——关注合法性的方法
07-10 07:51
giovanni comandé乔凡尼·科曼德[意]
意大利比萨圣安娜高等学院比较私法方向教授。在圣安娜高等学院获得博士学位,在哈佛法学院获得法学硕士学位,法律、规则交叉学科实验室主任,律师、调解员。曾在全球多所大学执教并任访问学者,担任由miur,cnr,esf、欧盟、加拿大外交部公共行政部门、公共或私营企业、组织资助的诸多研究项目的主持人。目前承担或参与的研究项目包括leads:关注数据科学家合法性项目 (pi) h2020-msca-itn-2020;sobigdata++: 欧洲社会数据挖掘和大数据分析综合基础设施。著有 6 部专著,参编 15 部著作,用意大利语、英语、法语和西班牙语发表论文逾 200 篇。
人工智能/数据科学在法律中的应用——关注合法性的方法
人工智能和数据科学正成为推动社会发展的重要动力。法学界,特别是司法行政部门也无不受到两者发展的影响。然而,人工智能/数据科学和法律之间的相互作用呈现出两个相互交错的维度。其一,这些技术对法院的司法实践和司法普及产生的影响。其二,法律能够并且应当在这些技术的地方治理和全球治理中所发挥的作用。
我们探讨了两个问题:一方面说明了这些技术在法庭内外对于寻求司法以及法律的实施方面的影响,而另一方面,重点阐释这些技术的设计者、开发者、其结果的使用者需要采取并保持对他们所产生的法律问题的关注。
在第一个层面,一些技术应用在司法系统中既带来了机会也带来了风险。第二个层面,与第一个层面密切相关,其强调的是对这些技术进行必要的规制以便它们为法治服务,而不会奴役法治甚至威胁法治基础。
一、人工智能在法律中的应用
2019年,欧洲司法效率委员会(cepej)发布了《关于在司法系统及司法环境中使用人工智能的欧洲道德宪章》,为这类人工智能提出了分类标准,并提出了一些警告。该道德宪章预示着对市场一些产品的禁止,或者说至少是对一些产品的强烈反对。特别是针对如北美市场上lexmachina(法律机器)这样可以针对单个法官或律师进行剖析的工具。
该道德宪章为法学界使用和发展人工智能提供了可能最为完整和具体的分析基础。经过详细的研究,它指出了人工智能工具需要遵循的五项原则(即从设计阶段就尊重基本权利、非歧视原则、质量和安全原则,与可解释性相关的透明、公正和公平原则,以及“用户控制”原则),并挑选出哪些是需要鼓励的工具,哪些是使用起来需要采取特别预防措施的工具,以及哪些是需要监督而不使其造成风险和混乱的工具。
我们将从包括但不限于以下的分类来探讨各种人工智能在服务司法上的应用或论证其服务司法的可行性。另外,考虑到《关于司法系统及司法环境中使用人工智能的欧洲道德宪章》,总而言之,欧洲做法是将一些类别的工具认定为是需要支持的(即道德上的支持,故需要将投资集中在这些类型上),并在发展人工智能使其服务司法的整体项目中予以考虑。这些工具的类别是:
判例法检索增强工具:(1)在自然语言处理领域运用机器学习技术,通过链接多样化的来源(如宪法和国际公约、法条、判例法和法律原理)来补充当前关键词搜索和全文搜索的选项。(2)通过数据可视化技术来展示搜索的各种结果。
获取法律信息的工具:主要是指针对专业知识方面的法律信息的获取。在这个方面,无论是处理可能的民事责任方面,还是针对提供技术解决方案或是提供专业性辅助上,这类工具的应用都十分娴熟。其中主要的例子是聊天机器人,它便是为了方便使用自然语言访问各种现有的信息资源而创建的。类似的,网络文件模板(如法院申请、租约等)也被认为是合乎伦理且具有战略作用的工具。
而一些创新性工具可以归入这一项:比如运用自然语言来方便访问现有信息资源的聊天机器人、文件模板、法院申请、租约协议等。奇怪的是,欧洲议会和理事会的拟议法规非常关注其中的一些内容,其制定了关于人工智能的统一规则(人工智能法),并修订了一些欧盟立法法案(swd(2021) 85 final)(社会福利署(2021年)85终稿)。比如,其中一些法案的规定提高了聊天机器人的透明度。
这类工具强有力地对法律知识进行了去中介化处理,其目的是大规模地获取基本可操作的法律知识或者是向该领域的专业人士提供帮助。这便开辟了两个非常有趣的场景。即如果这类工具为作为专业人士的现存客户有效整合了几种服务,那么可以期待的是,这类工具能够进入由普通公众组成的、更为广阔的市场。
新的战略工具的创造:这些主要是指能够进行定量和定性分析并作出预测(例如预测未来人力和资源需求),来提高司法效率的关键绩效指标的一类工具。我们运用这类工具处理的是综合数据,而不能用其识别分析司法系统中的个人。尽管如此,如果技术上再识别是可能的,那么使用基于此技术来确定绩效指标的这类工具仍然会有滥用的风险,从而对法官和律师产生寒蝉效应。这就是为什么要对这类工具采取特定的预防措施。需要注意的是,这类工具确实已经存在于欧洲和一些国家的法律框架中,而其中一些工具对市场而言亦具有一定的意义。
应该明确,这些产品并不是应被禁止的,而是需要严格采取必要措施来防止其违反前述的基本伦理原则(不仅仅是防止其违反法律规范)。
用于起草民事纠纷调解表的工具:此类工具的用途很简单,但对此的担心依旧存在。这里能预见的风险是,在阐释任何不因归因于法院的地域差异时放弃了因果推理的方法,而是转而采取分析有关地区特点的方法。这类工具虽然有助于减少地域差异,但可能会致使重陷“贴标签”效应。
作为民事问题中争端解决替代性措施的工具:在一些欧洲国家,保险公司采用“预测性司法”工具来评估纠纷解决的成功几率,并把纠纷解决在法庭之外。其自动化处理的特点起到补强作用,可以规避这些风险。
在线纠纷解决工具:此类工具的内在风险基本上与缺乏其处理过程的完全自动化(或不自动化)的信息,以及给人以法院参与的印象有关。这将导致可能违反《欧洲人权公约》第6条,在没有适当的司法审查解决方案的情况下,还可能违反《欧洲人权公约》第13条。这类工具存在的风险是可能会混同在线纠纷解决机制和司法管辖权、可能误导争议双方以及可能让人们过度依赖工具而选择放弃司法补救。
为了从科学的角度平衡机会和风险,应该对下述工具采用更加基于风险的方法来评估。
剖析法官的工具:正如在战略工具方面所强调的那样,对其的质疑主要是担心其对司法自治的影响。然而,对法官行为的量化,特别是在合议庭裁决和没有异议动机的情况下(如在意大利的法庭制度下),通过适当的方法预防和根据不同的可能目的(例如是为了公共目的还是私人目的)来区分能获得详细信息的级别,足以保护个人被污名化的风险。从另一方面说,它为所有用户提供了重要的分析——决策工具:例如,为法官提供更为详细的行为定量和定性评估分析,并且其仅仅是作为信息提供者的角色来协助其进行决策并仅供他们专用。
预测可能的司法裁决的工具:最后要说明的是那些针对尚未受到司法裁决的案件而开发的预测工具。在不影响随后对技术可行性、法律和伦理依照框架以及可能的实施策略进行考量的情况下,必须从一开始就强调,到目前为止,这些工具阐述的仍然是对词汇组的统计,其能够揭示某些词汇组的使用频率,仅此而已。在我们的研究项目中(请参考www.predictivejustice.eu),我们正在构建新的技术、程序和法律战略,以最大限度地减少风险和最大化预期收益。
算法在刑事调查中的应用:为了识别正在实施的刑事犯罪行为,一些软件已经面世并被使用(如针对洗钱犯罪的反洗钱“预测系统”hart),但由于受到人们指控其对compass软件存在歧视性偏见,这类工具的声誉并不好。这些工具重新增加的风险是其自我完善的预测和加重对个人的谴责会让法官产生更严重的偏见(如compas或hart)。
无论是在司法还是执法的法律系统中开发和部署基于人工智能的(或其创造物的)工具,总体关切就是应深度注重其一致化进程,例如应用一项工具对法律原则及很多法律领域都有益,那么也应注重与其带来的风险和法律的自然发展相平衡。所有的法律体系发展都远远超出了其法定构成的规则,并通过在较低和较高等级的法院之间以及每个案件中律师和法官之间的相互作用对法律规则进行演变性解释,进而得到发展。
二、判例法的警告
许多法庭裁决都强调,有必要通过律师活动丰富司法解释学路径,来平衡法律的确定性和生动性(其中确定性是通过提高对预期判决结果的可预见性来实现的)。在这个方面,欧洲人权法院曾多次表达自己的观点。
事实上,这种警告最早可以追溯到欧盟委员会关于信息社会中公共部门信息的绿皮书(com(1998)585)。该绿皮书指出,如果查阅案例法数据库是为了获得与特定主题相关的判决清单,而不是为了了解它们所表达的案例法的话,如非采取特别的预防措施,则这些作为法律文献的案例法数据库就会成为个人的信息档案。而这正是已经在其他法律体系中广泛使用的针对对方、法官或对方律师的特征进行剖析的情况。
特别关于识别分析指导法官的危险,见欧洲人权法院,凡尔内斯诉法国案(申请编号:第30183/06号)。关于公布裁决结果有关的风险,见普雷托诉意大利案(申请编号:第7984/77号);而关于法院必要的公正性和(不仅仅是作为替代解决机制)依法设立的法院的权利,见康泰莱克斯诉希腊案(申请编号:第59000/08号)第38节,dmd集团诉斯洛伐克案(申请编号:第19334/03号)第66节,奇迹欧洲kft诉匈牙利案(申请编号:第57774/13号)第58节。人们通过使用在北美和欧洲市场上上市的产品和工具,可以得出一个简单的结论:这些工具种类多样,而根据其各自的上市建议,它们并没有被衔接在一个综合的、连贯的路径上,也没有与其他专门针对法律专业的服务相结合。这其中最突出的例子是那些起草契约的模板表格或远程处理的数字签名和文件流管理工具。
此外,将专业领域知识条理化处理以服务于(作为客户的)专业人士,能够为一个非常不同的市场奠定基础,该市场将司法服务去中介化地提供给公民。
三、司法的人工智能和去中介化
在司法系统中设计和应用计算机专家系统的可能性早已被探索过,现在这被认为是发展所谓人工智能的可行模式。计算机专家系统是一种能够(试图)重现某一特定领域的专家认知机制的工具。更准确地说,它是能够回答特定问题、基于已知事实和规则进行推理的软件。它由三部分组成:一个事实库;一个规则库;一个推理引擎。而推理引擎可以基于已知事实和规则推理出新的事实,直到得出专家问题的答案。大多数现有的专家系统都是基于形式逻辑机制(主要是亚里士多德逻辑)并使用演绎法进行推理的。
机器学习方法使得从包含大量事先未知变量的大型数据中建立一个数学模型成为可能。其参数是在机器学习阶段逐步配置的,它使用训练数据集来寻找链接并对其进行分类。不同的机器学习方法是由设计者根据要执行的任务的性质来选择的。这些方法通常被分为三类:监督学习、无监督学习和强化学习。这三个类别将不同的方法归纳在一起,包括神经网络、深度学习等。
因此,在理想情况下,专家系统和用机器学习构建的智能代理之间的发展模式有很大区别。前者以先验的逻辑设计为前提,以便提供基于规则的解决方案,后者可以说是通过机器学习,以解决分配给它们的个别任务。然而,二者都不能独立模仿认知和法律推理过程。
人工智能获得的结果实际上与特定解决方案的法律符合性问题无关,并且无法区分法律和非法律依据。这一澄清显然将目前所有人工智能通过充分近似估算来模仿法律推理的希望扼杀在摇篮中,却也构成了逐步开发一套明确的工具和产品的理论基础。
所有自称能够提供预期司法解决方案的产品(即严格意义上的预测性法学工具),实际上除了在预先确定的参数基础上提供统计学上的近似值之外,什么都做不了。可以说它们就是判例法的一种分析服务,其更接近于风险评估,而不是预测争端的解决。
考虑到这一点以及法律文件和法律推理具有独特性的事实,在两个专家系统(旧式)和基于机器学习的模型之间设计一个集成系统是可能的。这个集成模型基于反向决策树来描述法律解决方案。
四、人工智能全球治理
人工智能担忧和机遇并存,针对这一事实基础,欧盟委员会(2019-2023 欧洲电子司法行动计划,2019/c第96/05号)计划鼓励人工智能应用程序的开发,供国家司法系统使用,并考虑其特殊性。显然,这将是开放和自由的系统,需要考虑潜在的竞争对手,使商业报价的附加值及战略资产的风险合乎标准。
具体而言,欧盟委员会计划鼓励开发聊天机器人,以协助并指导用户搜索与他们的法律问题相关的案例法。更广泛地说,应用程序要适应国家的具体情况。此政策路线的积极意义在于,通过推进使用法律推理协助工具的文化渗透,提高《欧盟战略》所要求的数据素养。
然而,与此同时,有两份文件与我们的讨论非常相关。它们是人工智能高级专家组(hlegai)、《可信赖的人工智能道德准则》和上述人工智能法案。
关于第一个问题,即对于人工智能的担忧,一些国家和国际文件强调了克服恐惧和建立对这些创新技术的信任的重要性。“值得信赖的人工智能”这一表述正在成为一个流行语,并且,很多时候,“道德”被用来指代(或者至少也是)“法律的”。
hlegai(人工智能高级专家组)的《可信赖的人工智能道德准则》规定了可信赖的人工智能的基本要件,要求其合法、合乎道德和稳健。这些构成要件相互关联,而综合的方法建立在欧盟法律和国际盟约所承认的基本权利之上。在同样的法律和概念背景下,拟制的《人工智能法》育孕而生。
具体到法律中的人工智能,《人工智能法》明确了人工智能尊重基本权利的核心意义,这些基本权利包括《通用数据保护条例》(gdpr)中规定的个人数据受到保护的权利,并以不同的方式特别规制了上述总结的一些工具。
首先,《人工智能法》对人工智能提出了一个非常广泛的定义:“‘人工智能系统’(ai系统)是指使用附件一中列出的一种或多种技术和方法开发的软件,并且能够针对一组特定的人类定义的目标,生成诸如内容、预测、建议或可以影响其互动环境的决定的输出(第3条)。
实际上附件一对这类技术进行了非常广泛的定义,列出了以下几种技术和方法:(1)机器学习方法,包括监督学习、无监督学习和强化学习,以及使用包括深度学习在内的多种方法;(2)基于逻辑和知识的方法,包括知识表示、归纳(逻辑)编程、知识库、推理和演绎引擎、(符号)推理和计算机专家系统;(3)统计学方法、贝叶斯估计、搜索和优化方法”。
根据这一定义,《人工智能法》(附件三)将以下为执法而开发的人工智能系统归为高风险,因此要遵守更严格的要求。(1)拟由执法当局用于对自然人进行个人风险评估的人工智能系统,以评估自然人犯罪或再犯罪的风险或刑事犯罪的潜在受害者的风险;(2)拟由执法机关用作测谎仪及其类似工具或检测自然人情绪状态的人工智能系统;(3)拟由执法机关用来检测《人工智能法》第52条第(3)款所述的深度造假的人工智能系统;(4)执法当局拟用于在调查或起诉刑事犯罪过程中评估证据可靠性的人工智能系统;(5)执法机关拟用于预测实际或潜在刑事犯罪的发生或再发生的人工智能系统,该系统基于《欧盟数据保护法》(2016/680号指令)第3(4)条所述的自然人特征分析,或评估自然人或群体的人格特征、特性或过去的犯罪行为。(6)执法机关在侦查、调查或起诉刑事犯罪的过程中,拟用于对《欧盟数据保护法》(2016/680号指令)第3(4)条所述的自然人进行特征分析的人工智能系统。(7)拟用于有关自然人的犯罪分析的人工智能系统,其允许执法部门搜索不同数据来源或不同数据格式中各种复杂相关和不相关的大型数据集,以识别未知模式或发现数据中的隐藏关系。
《人工智能法》第5条实际禁止了以下行为:“为执法目的在公共场所使用‘实时’远程生物识别系统,同时规定了一些有限的例外情况,即除非是必须使用的以下几种情况:(1)有针对性地搜寻特定的潜在犯罪受害者,包括失踪儿童;(2)防止对自然人的生命或人身安全的特定、实质性和紧迫的威胁或恐怖袭击;(3)侦查、定位、识别或起诉根据欧盟理事会框架决议(2002/584/jha62)第2条第2款所述刑事犯罪的肇事者或嫌疑人,这类人员在相关成员国被处以监禁或拘留令,其具体监禁期由该成员国的法律确定,且不少于三年。”
聊天机器人(也用于法律分析、获取法律或执法)以及任何其他“旨在与自然人互动的人工智能系统”都要遵守进一步的透明度要求,并被要求“在设计和开发时要让自然人知道他们正在与人工智能系统互动,除非从环境和使用背景中可以看出这一点”。
整个拟议的法律框架将自身置于关注人工智能在法律中的应用的全球人工智能治理的中心位置,因为它的禁令和规则涵盖那些在欧盟部署和应用的、但在欧盟以外进行开发的人工智能。事实上,部署和应用的定义涵盖了“将人工智能投放市场、投入服务或使用时”,这就明确设定了法律原则和政策选择的框架,其范围与《通用数据保护条例》(gdpr)相似。
一旦《人工智能法》的最终版本得到批准,它就不能被全球任何服务和应用于法律的人工智能的生产者和销售者所忽视。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
2021世界人工智能大会法治论坛 探讨“智能社会的法治秩序”
2021世界人工智能大会法治论坛预热视频
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:崔亚东
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:乔凡尼·科曼德
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:薛澜
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:菲利波·法罗西尼
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:刘艳红
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:迪诺·希莫纳斯
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:安托万·加拉邦
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:凯文·沃巴赫
重磅阵容丨2021世界人工智能大会法治论坛演讲嘉宾:邰江丽
2021世界人工智能大会法治青年论坛 探讨“智慧法治”
2021世界人工智能大会法治青年论坛预热视频
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:翟志勇
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:张凌寒
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:劳伦特·克内普
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:衣俊霖
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:袁康
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:苏宇
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:胡凌
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:康允德
重磅阵容丨2021世界人工智能大会法治青年论坛演讲嘉宾:王禄生
2021世界人工智能大会法治论坛成功举办
智慧法治学术影响力top100|作品•作者•期刊
2021世界人工智能大会法治青年论坛成功举办
责任编辑:王 健 金惠珠
上观号作者:上海市法学会