当前位置:论文写作 > 论文大全 > 文章内容

论可解释的人工智能之制度构建

主题:人工智能 下载地址:论文doc下载 原创作者:原创作者未知 评分:9.0分 更新时间: 2024-03-09

简介:本文是人工智能方面有关论文参考文献范文和人工智能相关专升本论文范文.

人工智能论文范文

人工智能论文

目录

  1. 一 相关性取代因果性的人工智能技术存在不确定性

摘 要:依赖于大数据的人工智能技术存在算法黑箱的固有缺陷,构建具有可解释性的人工智能是保障用户实现相关权益的前提,是促进社会形成人工智能准确认知和良好信心的必然选择,是实现透明、可控、负责任人工智能发展的基础,也是人工智能成为一门科学的内在要求.任何人工智能都不是完全不具有可解释性的,它们都在一定范围内具有相当程度的可解释性的.私法上的算法解释权属于事后救济权,是用户请求网络运营者对个人权益有重大影响的自动化决策予以解释的权利,限于调整基于连接主义的黑盒算法,解释的水平应当符合现有科学技术水平.在潜在风险发生之前和存在损害普遍多数用户利益的情况下,应当引入算法影响评估、告知义务、外部算法问责,从而以积极的方式促进人工智能的可解释性,提高算法透明度以构建公共信任的基础.我国《保护法(草案)》已经为处理领域的人工智能可解释性提供了充分的法律依据,未来还需要通过专门的人工智能立法围绕“可解释性”作出合理制度安排.

关键词:人工智能;可解释性;算法黑箱;算法解释权;算法评估

基金项目:国家社会科学基金重大项目“互联网经济的法治保障研究”(18ZDA149)

中图分类号:D910文献标识码:A文章编号:1003-854X(2020)12-0113-07

随着新一代人工智能技术的发展和应用,其已经在消费、信贷、就业、教育、交通、司法、行政决策等许多领域对人类的平等、隐私、安全等权益产生了重大的影响.为此,建立负责任的人工智能为许多学者和公民社会团体所呼吁,近年来相关的战略、政策、标准和法规也对人工智能的治理给予了高度关注.在人工智能成为社会焦点的背景之下,出现了对于人工智能技术积极乐观而认为该技术将通过优秀的表现取代当前大部分人类工作的声音,或者是对于人工智能技术消极悲观认为该技术存在缺陷而难以被我们信任和使用的观点.在讨论人类和机器孰优孰劣或者是人工智能技术是否值得信任之际,人工智能技术被社会投机力量宣传滥用而泛起了“迷雾”,人工智能技术的范围和边界都开始变得越来越模糊.因此,需要通过一种制度安排构建可科学理解的人工智能发展环境,从而增强人工智能的透明度,实现负责任的人工智能发展目标.需要说明的是,欧洲和我国越来越多的立法文件使用“自动化决策”来代替“人工智能”,以增强法规调整对象的确定性,本文所讨论的人工智能主要是指自动化决策.

一 相关性取代因果性的人工智能技术存在不确定性

根据欧盟高级别专家组通过法定形式对人工智能的定义,人工智能系统是由人类设计的软件(也可能还是硬件)系统,它给定一个复杂的目标,通过在物理或数字维度上感知其环境,通过数据采集、对采集到的结构化或非结构化数据进行解释、知识推理或者信息处理,并基于这些数据,决定最好的行动以实现特定的目标.人工智能系统既可以使用符号规则,也可以学习数字模型,它们还可以通过分析他们以前的行动如何影响环境来调整自己的行为.”① 在这一定义中,总结了人工智能的三大技术路线,分别是符号主义、连接主义和行为主义.其中,符号主义的历史最为悠久,也被称之为规则驱动(Rule-Driven)的人工智能技术,其典型的算法模型包括决策树、贝叶斯推理等,因为他们本身就是基于明确的因果规则所构建的,故而天然地具有较高的可解释性.然而,近年来繁荣发展起来的人工智能以连接主义为主流,也被称之为数据驱动(Data-Driven)的人工智能技术,其典型的算法模型包括深度学习、神经网络、随机森林、支持向量机等,这些算法模型的本质是通过大量数据的相关性积累构建认识规律,此基于经验主义的调参式深度学习也被称之为“炼丹”,故而因其最终的输出具有不确定性而难以进行解释.

连接主义的人工智能系统可以运用无监督的学习算法提供支持,这些机器自主学习是在没有脚本的情况下回答概率问题,由此也可使得机器能够在更高的维度识别一些人类无法识别的关系模型,故而它们只能知道答案而无法对其解答的过程提供解释.有观点据此认为,强制要求解释的结果可能是技术上无法做到的,或者是通过勉强的办法得到不真实的解释答案.② 之所以出现这种结论,是因为新一代人工智能高度依赖于大数据进行模型训练,这种基于大数据的人工智能模型实际上是用相关性取代因果性,通过大数据的相关关系分析方法来适应计算机处理的需求.“相关性”的哲学本质是经验主义认识论,黑格尔就提出以绝对精神的自我运动方式,将经验主义对知识学的建构纳入人类精神自我认知之整全性思考的过程当中,休谟也主张用两个现象前后相继所构筑的相关性来建构一种因果性.这种用相关性构建认识论的方式承认世界是普遍联系的,可以为人工智能逻辑的解释标准归入到较为宽松的客观环境之中;但是,这种认识将人的主观意识进行纯粹物质化的还原,最终只会窄化对人的本质理解.③ 与此同时,这种相关性的认识还存在一些无法解决的问题:首先,可用数据本身存在重要残缺的情况下,人工智能得出的模型和结果也极有可能是存在局限性的;其次,可用数据量过大,极有可能带来规律的丧失和严重失真,甚至形成一些违背常识的假规律.④ 此外,即便是数据量适度,但是实体要素、关系要素等算法构建的缺陷和可计算性技术的局限性也会导致人工智能模型不能得出完整的规律.

依赖于大数据的人工智能技术存在相关性认识论的固有缺陷,但是这种技术往往具有较低的召回率,这使得他们能够避免“不会作答”的尴尬,在绝大多数输入的情况下都能给出一个或者更多的结果,尽管其输出的结果并不准确.因果确定性属于强相关性⑤,相比于因果关系要求具有严格的推理过程,根据相关性逻辑运行的新一代人工智能产品能够在较低相关性的情況下依然给出结果,这就大大降低了其落地应用的门槛.在此背景之下,人工智能模型的训练过程及其输出结果的置信度就容易成为 “黑箱”,故而我们也需要在相关性的科学认识论下避免低质量产品的应用带来的不确定性风险.

二、构建可解释性人工智能的意义

在信息大爆炸的现代社会,通过技术可以利用的信息越来越多,但是人类能够全面掌握的信息比例日益降低,“不确定性”成为社会安全最大的威胁,“算法黑箱”是人类对于人工智能技术产生恐惧和担忧的根源.为了应对人工智能技术发展的风险,2019年6月,我国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出“人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖”,这是我国首个发布的人工智能治理框架和行动指南,而“可解释”成为其中的要求之一.此外,有学者认为可解释性的重要性远远超出了数据保护法,并深刻影响了使用机器学习模型的合同签订和侵权责任问题.⑥ 从负责任人工智能实现的主次路径而言,而“可解释”的人工智能应当成为各项治理目标得以实现的一项基石,因为其是保障用户实现相关权益的前提,是促进社会形成人工智能准确认知和建立良好信心的必然选择,是实现透明、可控、负责任人工智能发展的基础,也是人工智能成为一门科学的内在要求.

第一,“可解释”的人工智能是保障用户实现相关权益的前提.人工智能是服务于人类用户的新技术,为了避免用户的个人数据被人工智能滥用,近几年的个人数据保护相关立法特别强化了对自动化处理相关的规制,建立了用户对数据利用知情权和控制力相关的权利束.算法解释请求权脱胎于知情权但超越了知情权的构架,其重在保证算法决策的合理性和正当性⑦,有利于保障自然人知情权、决定权、查询权、删除权、更正权等一系列权利的实现.受到算法影响的个人只有在真正理解人工智能“如何作出决定和基于什么基础作出决定”的情况下,才能质疑特定决定或表达自己的观点.⑧ 信息不对称会使用户的基本权利基本无效⑨,如果一个人有改正的权利,他需要看到错误;如果一个人有权利反对歧视,他需要看到在一个决定中使用了什么因素.《中华人民共和国民法典》(以下简称《民法典》)第1037条在继承《中华人民共和国网络安全法》(以下简称《网络安全法》)第43条的基础上⑩,专门新增了“查阅权”,体现出知情权的重要意义,明确自然人可以向处理者查阅其信息内容及其被处理情况.2020年10月发布的《中华人民共和国保护法(草案)》(以下简称《保护法》)第25条进一步新增自动化决策解释权,即“个人认为自动化决策对其权益造成重大影响的,有权要求处理者予以说明”,故而在处理领域实现可解释人工智能成为法律拟定的要求.

第二,“可解释”是促进社会形成人工智能准确认知和良好信心的必然选择.在人工智能技术应用快速发展的同时,政策制定者、监管者、消费者等相关方均认为高新技术是一把双刃剑,警示我们在享受人工智能带给人类巨大进步与福利的同时,也需要防止风险、极化风险、异化风险、规制风险和责任风险.{11} 这种笼罩在人工智能发展过程中的阴霾,有时候会通过风险事故案例引发质疑,这些事故是处于正常误差范围之内,还是系统缺陷,往往没有各方认可的结论.由于人工智能实践应用能力的提升和范围的扩大,不时引发社会对于就业机会乃至于人类主体身份认知的担忧,但是人工智能在未来社会到底是人机协作还是取代人类缺乏细致的考虑.由于社会缺乏对人工智能的准确认识,我们对人工智能发展的担忧很多时候是在特定领域尚未发生社会风险下产生的,导致整个社会对于人工智能运行不确定性引发的“黑箱社会”{12} 和“机器人取代人”等问题产生了巨大的担忧,并存在风险类推蔓延的趋势.与此同时,由于对人工智能缺乏准确认知,社会对于人工智能发展速度的期望值在不断提高,而一旦这些期望值不能满足,我们可能再次进入人工智能兴趣和投资减少的时期,进而出现另一个“人工智能的冬天”.{13} 在此背景下,对人工智能系统为什么以某种方式工作的解释将有助于防止错误使用和消除一些对人工智能的误解,进而建立起社会各界对人工智能产业发展的准确认知和良好信心.

第三,“可解释”是实现透明、可控、负责任人工智能发展的基础.国内外对于人工智能的治理出现了很多立法呼吁,特别是算法问责制成为整个国际社会津津乐道的研究话题,以至于人工智能的专门立法将成为与数据保护法并立的格局.美国加州消费者隐私保护工作组组长阿拉斯泰尔·麦克塔曾经指出,数字化时代保护消费者隐私的三项基本原则,分别是透明度(Transparency)原则、可控(Control)原则、负责任(Accountability)原则,这三大原则也已经成为智能化社会通用的三项基本原则.在人工智能的技术环境中,我们所需要的透明度是为了获得易懂的知识帮助用户理解所处的智能空间正在发生什么,所需要的可控是为了保障人工智能的运行处于监管之下而能够根据需要进行人工干预,所需要的负责任是为了明确人工智能各个相关方的职责从而让风险后果能够有效分担,通过“可解释”的人工智能提供专业知识支撑是实现这些目标的共同基础.目前,可解释性是人工智能技术在金融决策支持、自动驾驶、医疗、司法等“高风险”领域应用模型的基础{14},不具备可解释性的人工智能技术将在很多领域无法转化为实际应用的产品.

第四,“可解释”是人工智能成为一门科学的内在要求.有观点认为,算法的“准确性”和“可解释性”始终负相关,容易向人类解释的算法的准确性往往低于难以理解的算法{15},这一结论也在一些算法的测试中得到了验证.{16} 然而,可解释性不仅仅是法律合规的需要,同时也是解决确认和解决机器学习模型中的盲点的必然要求.{17} 爱因斯坦说:任何科学都是从世界的合理性和可理解性这种坚定的信念出发的.{18} 自然界的因果规律是确实存在的,且这种规律是可以认识的,具有可解释性是自然科学成为先验认识论的基础,否则那些关于实在的外部世界假设就毫无意义.面对当代人工智能缺乏可解释性的现状,甚至有学者提出:当前的人工智能并不能称为科学,也并未形成基础坚实的学科.{19}为了提高人工智能技术的科学理论水平,在近年来的计算机科学领域顶级学术会议中,关于可解释性人工智能(Explainable Artificial Intelligence, XAI)的研究已经成为重要议题,通过可解释性研究可以检测并糾正训练数据集中的偏差,通过对抗性干扰来促进模型的鲁棒性,确认变量的意义并确保模型推理中存在潜在的真实因果关系.{20} 由于可解释的人工智能存在法律和技术的正向促进关系,构建可解释的人工智能制度也便具有更深层次的合理性和必要性.

总而言之,“可解释”是权利保障、社会信任、市场安全和技术创新的共同需求,有助于确保机器决策过程的公正性,维护系统运行的稳定性,完善模型量和推理的科学性.算法可解释的制度构造是计算法学的基本命题之一{21},是人与机器之间进行“对话”的桥梁,对于人工智能产品的生产者、使用者和被使用者均具有重要的意义.为了激励可解释的人工智能技术和管理方法发展,应当分别从用户端构建算法解释权,从运营端提升算法透明度以构建公共信任基础.

三、用户端的可解释:私法上的算法解释权

私法上的算法解释权是权利主体请求网络运营者对自动化决策予以解释的权利,可以用法律赋权的方式让受到人工智能影响的组织和个人避免陷入黑箱操控的不安境地.算法解释权的内容最早可追溯到1972年法国颁布的《关于信息技术、数据文件和公民自由的1978年1月6日第78—17号信息自由法案》.该法案第10条、第39条分别规定:无论是政府还是私人作出的涉及评价个人行为的决定,不能仅根据自动化处理的与公民个性或侧写相关的数据作出;基于自动化处理作出的决策对数据主体造成法律影响时,数据主体有权知道该自动化处理的逻辑信息并有权反对自动化处理.随后,1978年《法国数据保护法》延续了此类规定,同时,该规定也被少数欧洲国家所采纳,并影响了欧盟层面的数据保护规则.{22} 欧盟议会在审议欧盟委员会于2012年提交的《欧洲通用个人数据保护条例(草案)》中,曾提议规定个人请求解释算法的权利,但是因反对意见而最终并未采纳.2016年颁布的《欧洲通用个人数据保护条例》在序言第71段对第22条的自动化决策规范做注解时提到“个人数据主体有权获得对此类评估后达成的决定的解释”.牛津大学网络研究中心研究助理古德曼(Goodman)和伦敦帝国学院数学系讲师弗莱斯曼(Flaxman)依据《欧洲通用个人数据保护条例》序言第71段的内容,于2016年提出了算法解释权(the right to explanation)的概念,此后經过媒体报道而引起广泛的关注和讨论.{23} 但是,序言在欧盟法中并无直接的法律效力,故而在欧盟法中实际上没有算法解释权的规定.

我国《民法典》《网络安全法》中均没有算法解释权的相关规定,《保护法(草案)》第25条第1款第2句首次规定了算法解释权:“个人认为自动化决策对其权益造成重大影响的,有权要求处理者予以说明,并有权拒绝处理者仅通过自动化决策的方式作出决定”.这种私法上的算法解释权源于并超越了《欧洲通用个人数据保护条例》的规定.有学者认为,算法解释权对于以深度学习为代表的人工智能算法根本不具备技术上实现的可能性;对于非深度学习算法,算法解释权也有扰乱商业实践的隐忧,算法解释权应为我国法律所拒绝.{24} 从技术的客观情况而言,任何人工智能都不是完全不具有可解释性的,都在一定范围内是具有相当程度的可解释性;而且人工智能相比于人类更加强调逻辑计算规则,故而其具有可验证性,通过特定输入指标的变化可以检测其对输出结果的影响,进而验证系统的可信度.例如,美国法院采用过一款名为COMPAS的再犯风险量刑辅助系统,其在数据输入之时根本就没有将种族作为参考指标,但是一家公益组织通过使用该软件对1万多名刑事被告人实证统计分析发现其实际预测的结果歧视了黑人{25},这也可以作为系统设计者进行解释和验证的一种方法.值得注意的是,“可解释”技术正在日益成为机器学习中的一项重要子领域,特定风险评估等一些专门的解释工具正在被开发出来,未来可能出现专门提供“可解释”服务的第三方机构和交易市场,甚至诞生进行“可解释”验证的专门执法部门.

“法律不强人所难”是一条基本原则,法律对“可解释”的要求也必然是符合技术发展阶段的.事实上,法律只关心有关权利、义务或者利益、责任的问题,故而法律上所需要的解释只是对人工智能的部分重要内容进行解释.例如,美国国防高级研究计划局的一项研究列举了需要解释的七项主要问题:(1)为什么会出现这种输出?(2)为什么没有其他输出?(3)机器在哪些情况下会产生可靠的输出?(4)能提供机器输出的可信度得分吗?(5)在什么状态和输入的情况下,机器的输出是可信的?(6)哪些参数对输出影响最大(负和正)?(7)可以做些什么来纠正错误?{26} 这些问题都是关涉人们利用人工智能可能受到重要影响的问题,对于这些问题都可以作出适应现有技术发展阶段的解释.概而言之,可解释的人工智能在技术上是可以实现的,只是法律对解释范围的要求需符合实际情况和负责任的人工智能法治目标,而技术的解释能力也需要随着技术的发展而不断提高.

算法解释权必须具有一定的适用范围和条件,避免私权滥用损害人工智能技术应用的正常秩序.根据《保护法(草案)》第25条和第67条的规定,算法解释权应当限于对个人权益有重大影响的自动化决策,此处的自动化决策是指“利用对个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,通过计算机程序自动分析、评估并进行决策的活动”.值得注意的是,我国《保护法(草案)》第25条所调整的范围大于《欧洲通用个人数据保护条例》第22条的内容,有人工参与的自动化决策也会落入本条的约束范围.但是,如果网络运营者在自动化决策之外提供了显而易用的人工替代途径,应当认定该自动化决策不会成为对个人权益有重大影响的自动化决策,不适用于算法解释权.而且,自动化决策的解释应当限于基于连接主义的黑盒算法,基于符号主义的白盒算法具有直接的强因果关系而不应当纳入单个解释权的内容,可以通过易获取、概括性的解释满足用户知情权的需求.此外,国外普遍将计算机代码作为商业秘密予以保护,强制要求公开代码一般会被认定为违反国际惯例、侵犯知识产权的行为;算法解释权的内容应当限于基本、可理解的自动化决策逻辑,符合现有技术的可解释水平,尊重企业的商业秘密,不以代码公开为必要.算法解释权属于事后解释,不需要在提供服务之前作出,用户提出解释权申请应当证明其个人权益遭受了自动化决策程序的重大影响.为了避免用户的算法解释权被不正当剥夺,自动化决策者拒不提供解释或没有提供相对人满意的解释时,用户应当可以通过平台或者第三方渠道获得救济.{27} 算法解释权的救济可以让第三方参与到算法的审查之中,进而与公法上的算法问责制相衔接.

五、结语

人工智能在社会的各个领域取得了令人瞩目的成绩,如果运用得当,它可以为社会、组织和个人带来最佳的预期.科技进步带来的社会效应恰如一个硬币拥有正反面.{36} 然而,当代人工智能技术面临算法黑箱的风险,可解释的人工智能是技术的发展方向,也应当成为法律的必然要求.在技术上,第三代人工智能正在致力于解决连接主义人工智能不可解释性的问题,综合运用知识、数据、算法、算力实现安全、可靠、可信的未来人工智能技术.{37}事实上,算法并非完全不可解释,不存在绝对的黑箱算法;对于黑箱模型,要想方设法将其转化为“灰箱”,尽可能将其中的“黑暗宇宙”压缩到最小空间.{38} 与此同时,即便算法的某些部分不具有可解释性,但是这种不确定性应当通过技术和管理相协调的措施予以风险评估和处理,达不到安全、可控标准且对有关主体合法利益产生重大不利影响的,则不应当作为可以上線应用的产品或者技术.目前,保护法(草案)已经为处理领域的可解释人工智能系统创造了良好的法律环境,未来还需要通过专门的人工智能发展法围绕“可解释性”的目标,对各类高风险人工智能作出体系化的制度设计,对可解释的适用范围、实现方式、审查标准等作出周延的安排.

注释:

① High-Level Expert Group on Artificial Intelligence, A Definition of AI: Main Capabilities and Disciplines, European Commission, April 2019.

② Finale Doshi-Velez, Mason Kortz, Accountability of AI Under the Law: The Role of Explanation, Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet Society Working Paper, 2017, p.10.

③ 夏莹:《人工智能话语体系的建构》,《光明日报》2019年4月1日.

④ 刘德寰、李雪莲:《大数据的风险和现存问题》,《广告大观》(理论版)2013年第3期.

⑤ 王中江:《强弱相关性与因果确定性和机遇》,《清华大学学报》(哲学社会科学版)2020年第3期.

⑥ Philipp Hacker,Ralf Krestel, Stefan Grundmann, Felix Naumann, Explainable AI Under Contract and Tort Law: Legal Incentives and Technical Challenges, Artificial Intelligence and Law, January 2020, p.13.

⑦{22} 魏远山:《算法解释请求权及其权利范畴研究》,《甘肃政法学院学报》2020年第1期.

⑧{33} Article 29 Data Protection Working Party, Guidelines on Automated Individual Decision-Making and Profiling For The Purposes of Regulation 2016/679, February, 2018.

⑨ Margot E. Kaminsk, The Right to Explanation, Explained, Berkeley Technology Law Journal, 2019, 1(34), p.25.

⑩ 《民法典》第1037条规定:自然人可以依法向信息处理者查阅或者复制其;发现信息有错误的,有权提出异议并请求及时采取更正等必要措施.自然人发现信息处理者违反法律、行政法规的规定或者双方的约定处理其的,有权请求信息处理者及时删除.《网络安全法》第43条规定:个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其的,有权要求网络运营者删除其;发现网络运营者收集、存储的其有错误的,有权要求网络运营者予以更正.网络运营者应当采取措施予以删除或者更正.

{11} 马长山:《人工智能的社会风险及其法律规制》,《法律科学》(西北政法大学学报)2018年第6期.

{12} [美]弗兰克·帕斯奎尔:《黑箱社会:控制金钱和信息的数据法则》,赵亚男译,中信出版社2015年版,第259页.

{13} Bernhard Waltl Roland Vogl, Explainable Artificial Intelligence: The New Frontier in Legal Informatics, Jusletter IT, February 2018.

{14} 吴飞、廖彬兵、韩亚洪:《深度学习的可解释性》,《航空兵器》2019年第1期.

{15} 转引自许可、朱悦:《算法解释权:科技与法律的双重视角》,《苏州大学学报》(哲学社会科学版)2020年第4期.

{16} 吴晖、韩海庭等:《大数据征信算法的可解释性研究》,《征信》2020年第5期.

{17} 刘胜军、赵长林:《可解释的人工智能的好处只是合规吗》,《网络安全和信息化》2019年第5期.

{18} [美]爱因斯坦:《爱因斯坦文集》第1卷,许良英等编译,商务印书馆2010年版,第409—410页.

{19} 熊红凯:《人工智能技术下对真理和生命的可解释性》,《探索与争鸣》2017年10期.

{20} Alejandro Barredo Arrietaa, Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI, Information Fusion, 2020, 58(6), pp.82-115.

{21} 申卫星、刘云:《法学研究新范式:计算法学的内涵、范畴与方法》,《法学研究》2020年第5期.

{23}{24} 林洹民:《个人对抗商业自动决策算法的私权设计》,《清华法学》2020年第4期.

{25} Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin,How We Analyzed the COMPAS Recidivi Algorithm,May 23, 2016.

{26} Did Gunning,Explainable Artificial Intelligence,DARPA 2017.

{27} 张凌寒:《商业自动化决策的算法解释权研究》,《法律科学》(西北政法大学学报)2018年第3期.

{28} 参见徐凤:《人工智能算法黑箱的法律规制》,《东方法学》2019年第6期.

{29} 张欣:《算法解释权与算法治理路径研究》,《中外法学》2019年第6期.

{30} H.R.2231-Algorithmic Accountability Act of 2019.

{31} Joshua New, How to Fix the Algorithmic Accountability Act, Centre for Data Innovation, September 23, 2019.

{32} Dillon Reian, Jason Schultz,Kate Crawford Meredith Whittaker, Algorithmic Impact Assesents: A Practical Framework For Public Agency Accountability, April 2018.

{34} 張欣:《从算法危机到算法信任:算法治理的多元方案和本土化路径》,《华东政法大学学报》2019年第6期.

{35} Peter Fussey and Dr Daragh Murray, Independent Report on the London Metropolitan Police Service’s Trials of Live Facial Recognition Technology, June 2019.

{36} 赵秉志、詹奇伟:《现实挑战与未来展望:关于人工智能的刑法学思考》,《暨南学报》(哲学社会科学版)2019年第1期.

{37} 张钹、朱军、苏杭:《迈向第三代人工智能》,《中国科学·信息科学》2020年第9期.

{38} 刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》2020年第5期.

作者简介:刘云,清华大学法学院助理研究员,北京,100084.

(责任编辑 李 涛)

总结:总结:此文为关于人工智能相关专业的经典范文,可作为人工智能方面的大学硕士与本科毕业论文写作参考和人工智能论文开题报告和职称论文论文写作参考文献.

人工智能引用文献:

[1] 计算机人工智能专业论文题目 计算机人工智能专业论文题目如何拟
[2] 比较好写的人工智能论文题目 人工智能论文题目怎么定
[3] 计算机人工智能学论文参考文献 计算机人工智能英语参考文献哪里找
《论可解释的人工智能之制度构建》word下载【免费】
人工智能相关论文范文资料