查看原文
其他

【智能与法】Joshua New ,Daniel Castro:算法可解释性与算法监管

Joshua Daniel 大数据和人工智能法律研究 2022-11-09

B D A I L C 

 欢 迎 关 注 


Bonnie Bews 



算法可解释性与算法监管



文 / Joshua New and Daniel Castro
译 / 中国政法大学法学院硕士研究生 姜开锋



虽然有越来越多的人呼吁政策制定者们设法降低算法决策的风险,但他们所提出的解决方案通常带有效率低下、适得其反或者有害于创新的缺陷。这些提议主要分为三种:(1)要求算法具有透明性,或者可解释性或者二者兼具;(2)呼吁建立算法监管机构,以监督所有的算法决策;(3)笼统的,或者立基于一些根本无法实现的模糊概念之上的监管建议。它们大多认可预防原则,并且建立在这样的理念之上——算法,特别是人工智能,在应用于实际之前就应该接受审查并被证明是安全的;在应用于实际之后,更应该受到严格监管。同时,也有一些人认为政府不应该规制新兴技术,把解决算法决策潜在危害的责任留给相关行业即可。即便许多类型的算法决策不需要额外的监管,但有些算法还是需要的。

不可否认的是,这些提议的某些方面确实有一定的价值,其中的一些概念对于构建算法问责制的内容同样是有帮助的。但是,尽管在特定的背景下具有一定的意义,但它们并不能被适用于所有的经济部门。



01算法透明性和可解释性

大多数算法监管的提议都会关注算法透明性原则,该原则要求相关组织公开他们的算法和有关的数据,接受一定程度的公众监督。虽然提议者们以不同的方式定义了算法透明性,但他们均认为此原则立基于这样的理念:算法的复杂性和专有性可能会让人们无法理解其作出决定的方式,并因此掩饰其有害的举动。算法透明性的鼓吹者们认为,公开这些“黑箱”的代码和底层数据,可以使公众和监管机构辨别出算法是否在产生以及在怎样产生有害的结果。

算法透明性原则在国美国内外均受到了广泛的支持。[1]Pew在一项调查中发现,许多技术人员认为算法透明性是降低算法风险的良方,而且美国联邦贸易委员会(FTC)也对其表示支持;虽然目前还不清楚FTC是如何定义它的。[2]O’Neil风险咨询和算法审计(O'Neil Risk Consulting & Algorithmic Auditing,ORCAA)是一家帮助企业管控算法风险的咨询公司,其创始人Cathy O’Neil在《毁灭性数学武器:大数据如何增加不平等和威胁民主》(Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy)一书中写道:对我们的生活有重大影响的算法模型,包括信用评分和电子评分模型,应该向公众公开并提供获取渠道,某些可能产生危害的算法也必须符合透明性要求,相关人员应披露他们输入其中的数据以及他们所欲实现的结果。”[3]此外,电子隐私信息中心(the Electronic Privacy Information Center, EPIC)指出:算法透明性应该成为人工智能决策系统的一项基本要求。”[4]该中心还主张监管者可以更进一步,他们声称:“算法中使用的大数据也应向公众提供获取渠道。”[5]实际上,在支持算法透明性的阵营中,有很多人认为:所有自动化决策的计算机系统,其源代码都应接受一定程度的公众监督。

同时,还有一些人呼吁提高算法的总体透明性。市场研究主管Barry Chudakov认为,公司应该像给食品贴上营养标签那样,给出其算法的“标签信息”,说明算法作出决策的方式,以及这些决策的含义。[6]互联网与人权中心(the Centre for Internet and Human Rights)主任Ben Wagner则认为,公司应该披露他们平台上的决定是由算法作出的还是人为的。[7]

其他人,如哈佛大学“Berkman Klein互联网与社会中心”(Harvard University’s Berkman Klein Center for Internet & Society)的研究员Judith Donath,则表达了对算法系统不透明性的担忧:

越来越依赖算法的危险在于决策过程变得模糊不清——不透明而且不容辩驳。解决的方案是改进设计。决策的过程不应该是一个黑箱系统——人们用数据去“喂养”它,它便能给出一个答案;这一过程应该被设计成透明的,它不仅要给出决策结果,还应解释该结果是如何得出的。算法系统应当生成清晰明了的文本和图形,以帮助用户——读者、编辑、医生、病人、贷款申请人、选民等——理解其作出决策的方式。[8]

虽然这个阵营的各方参与者都呼吁“透明性”,但他们想说的意思其实是“可解释性”,这是在算法治理的讨论中经常合用的两个术语。[9]透明性指的是公开算法的代码或者数据(或两者都公开),而可解释性则指算法能被终端用户理解,比如要求算法应用者解释其算法是如何工作的,或者要求他们使用能够阐明决策依据的算法。实践中,欧盟已将可解释性作为评估算法决策潜在危害的一项基本指标,从而保证人们能够获取与算法决策相关的有价值的信息——这是GDPR赋予人们的一项重要权利。[10]法国数字事务部长Mounir Mahjoubi也表示,如果某一算法不能阐明其决策依据,政府就应拒绝使用。[11]

虽然透明性和可解释性是两个根本不同的概念,但它们作为算法治理的方案而言,有着许多相同的缺陷。首先,他们给算法决策制订的标准高于人类决策所应达到的标准。例如,EPIC认为,“如果不了解算法决策所依据的基础信息,就不可能知道政府和公司是否在从事欺骗性的、歧视性的或者不道德的活动。因此,算法透明性对于在信息时代保障人权和民主至关重要。”[12]但是这一观点未能认识到算法只是作出决策的方式。如果算法透明性和可解释性的提议者们担心这些决策是有害的,那么只要求算法决策是透明的或者可解释的,而不是对决策的所有侧面都提出这样的要求,是无法取得其预期的效果的。仅仅将透明性和可解释性的一揽子要求适用于算法决策,而不适用于人类决策(经常在计算机的协助下进行),是不符合逻辑的,除非假定人类决策都是透明的、公平的,并且不存在无意识的和明显的偏见。但事实上,偏见存在于人类决策的方方面面,因此要求算法满足高于人类的标准是不合理的。例如,研究表明,出租车司机常常根据乘客的种族来决定是否拒载,雇主也会因为求职者的名字听起来像非裔美国人就拒绝他们,即便他们具有足够的任职资格。[13]我们知道,出租车司机并不需要向公众报告他们每一次拒载乘客的原因,雇主也不必公布他们对所收到的每一份简历的评价,在其中详细地说明不向某位求职者提供工作的原因;因为这些领域的法律法规只关注结果,而不考虑无意识的偏见。如果EPIC以及算法透明性和可解释性的其他支持者们担心各种各样的决策可能会由于偏见的影响而产生危害,那么他们就应该要求所有的重大决策都应当是透明的和可解释的,无论其中有没有算法的参与。

其次,欧盟在GDPR中赋予人们获取同算法决策相关的重要信息的权利时,忽视了许多现有的法律已经规定了人们有权要求相关方对某些重要的决策作出解释,例如要求银行说明拒绝提供贷款的原因,或者要求公司说明解雇职员的根据。[14]无论公司是否使用算法来作决定,这些现有的法律都可以适用。既然现有的法律已经对相关的情况进行了规范,那么再专门针对使用算法的情况提出要求就是多余的——即便GDPR将这一要求适用于所有会产生法律后果或者重大影响的算法决策。[15]如果某些决策需要给出解释或者给出与其相关的重要信息;那么无论其是否使用算法,都应当满足这一要求。否则的话,假如某些决策确实存在潜在的风险,那么在专门对算法提要求的法律框架下,公司就可以用人工决策代替算法决策来规避这一法律。[16]所以说,如果GDPR的支持者们认为这样的决策需要解释,那么GDPR只针对算法决策提要求是没有多大效果的。

算法透明性的支持者们为了证明他们的立场是正确的,经常援引刑事司法系统的例子;他们指出,刑事司法系统中有偏见的和有缺陷的算法可能会对当事人造成实质性的伤害。正如本文中所指出的,透明性以及算法问责制的其他组成部分(如错误分析和程序规则性),在市场力量无法发挥作用的地方(例如刑事司法系统),可能是确保算法发挥有益功效的关键因素。然而,算法透明性对刑事司法系统的意义并不足以证明其在大多数情况下都是必要或者是有利的。如上所述,在大多数情况下,应用者有着强烈的动机去最大限度地减少算法的缺陷及其潜在的危害。但是在缺乏这些诱因的情况下,无论应用者是否使用算法,他们都不会去主动采取措施。与此同时,应当指出的是,即使在刑事司法系统中,算法透明性也无法消除这些危害的根本原因。例如,算法透明性本身并不能解决固有的偏见问题,比方说黑人和白人吸食大麻的比率大致相同,但是对拥有大麻者的逮捕率在黑人和白人之间却存在着巨大的差异。[17]

第三,对算法透明性提出了更极端的要求的提议,如EPIC呼吁所有源代码完全公开的提议,还存在另外一个缺陷:这种“拉开窗帘”允许监管者和公众仔细检查算法缺陷的提法听起来似乎是合理的,但实际上,即便是期待技术最精湛、资源最丰富的监管者、倡议团体或者热心公民在审查高级人工智能系统及其基础数据时能够掌握清楚足够的有用信息,也是不现实的,特别是在大规模的算法都需要审查的情况下。例如,在Reddit公布了其排名算法的一部分内容之后,密歇根大学的Christian Sandvig带领的一组计算机科学家指出:“即使(该)算法的特定部分完全透明,对于该部分算法的确切作用,专家们的看法之间也存在着严重的分歧。这清楚地表明,了解算法本身可能不并会使我们在检测算法缺陷方面取得良好的成效。”[18]虽然通过检查代码,可以获得关于某些算法系统决策方式的重要信息,但是对于许多依靠数千层仿真神经元来编译数据的先进AI系统,连它们的研发者也无法解释清楚它们所作的决策。例如,纽约Mount Sinai医院的研究人员开发了一种名为Deep Patient的AI系统,该系统可以预测患者是否感染了各种各样的疾病。[19]这些研究人员利用70万名患者的健康数据对DeepPatient进行了训练,数据中包含有数百个变量,这使得它不需要过多的人工指导就能够预测疾病。[20]该系统比其他疾病预测方法好得多,但即便是它的研发者也不知道它的决策程序是如何工作的。[21]因此,更没有理由相信第三方能够对它作出解释。正如司法委员会(the Committee for Justice)的Curt Levey和Niskanen中心(the Niskanen Center)的Ryan Hagemann所指出的,“机器的‘思维过程’并没有在权值(the weights)、代码或其他任何地方被清楚地描述出来。相反,它在权重和神经网络结构之间的相互作用中被巧妙地编码出来了。透明性听起来不错,但它并不一定有帮助,而且可能有害。”[22]英国政府的科学办公室警告说,“从根本上来说,透明性可能无法提供人们所寻求的证据:仅仅共享静态的代码并不能保证它被用于特定的决策,或者它在给定的数据集上按照程序员期望的方式运行。”[23]

第四,要求算法的透明性或者可解释性,将会减损已申请专利的软件的价值。公开披露源代码或软件的内部信息,将减弱公司投资于算法开发的动机,因为如此一来,竞争对手就可以轻易地复制它们。虽然在像美国这样重视知识产权保护的国家中,版权法能够降低这种风险;但是在那些不注重知识产权保护的国家(如中国)中,窃取源代码将变得非常容易。[24]算法透明性的坚定的捍卫者们,如Frank Pasquale——《黑箱社会:控制货币和信息的秘密算法》(The Black Box Society: The Secret Algorithms That Control Money and Information)一书的作者,对上述担忧进行了反驳,声称这个论点只是用来掩盖蓄意剥削和滥用的恶毒的障眼法:“他们(企业)说他们之所以严格保守技术秘密是为了保护有价值的知识产权——但他们的险恶动机也是显而易见的。”[25]除了利润最大化之外,我们还不清楚他说的这些险恶的动机是指什么。而且,需要再次说明的是,在算法系统作出有失偏颇的决策将会给公司带来损失的时候,几乎所有的公司都会积极主动地追求正确的决策——除非Pasquale争辩说这些正确决策,比如拒绝向信用不良的人提供贷款,就意味着公司的险恶动机;否则就很难弄清楚他所说的问题是什么。

第五,要求算法的透明性还为动机不良者扰乱系统和利用算法驱动的平台提供了机会。例如,Google多年来依靠一种名为Page Rank的算法,根据网站的元标签和关键词等因素来确定搜索结果的显示顺序。[26]然而,由于这些因素广为人知,任何网站的所有者都可以将Page Rank认为有用的信息以隐蔽的方式填入他们的网页中,进而操纵算法,将其网站的搜索排名提高并增加浏览量,即便他们的网页与用户的搜索无关。[27]现在,Google使用多种复杂算法的组合,包括机器学习系统,通过权衡的数百个因素,基于内容的质量和相关性来对搜索结果进行排序。[28]如果Google或其他搜索引擎被要求披露其搜索算法的工作方式,这些算法将再次被网站利用——最终承担这些不利后果的仍将是消费者。

第六,透明性并不能解决信息经济中的一些关键挑战。有些人,比如德国总理Angela Merkel,认为“不透明的算法会扭曲我们的认知”,在网络平台上形成过滤器泡沫(filter bubbles,即用户只能看到与他们的世界观相符的内容),同时有损于公众讨论的质量。[29]德国联邦司法部长Katarina Barley也认为,这种做法将导致网络虚假宣传活动不断增加。[30]Merkel和Barley都声称算法透明性可以使用户认识到他们的观点是如何受到影响的,从而减少这些问题。可是,透明性还可能会产生相反的效果:它将使动机不良者更容易操纵算法,在平台上散布低质量的或者带有蓄意误导性内容。

第七,强制要求算法具备可解释性,可能会严重限制算法的潜在功效,因为在人工智能系统的可解释性与其准确性之间可能存在着不可避免的冲突。正如数据科学家Max Kuhn和Kjell Johnson在他们的《应用预测模型》(Applied Predictive Modeling)一书中所说的那样,“不幸的是,最强大的预测模型通常是最难解释的。”[31]算法的准确度通常随着其复杂性的增加而提升,但是越复杂的算法,解释起来就越困难。[32]尽管随着可解释的人工智能技术的研究不断成熟,这种情况在将来可能会发生变化;但是至少在短期内,只有当牺牲准确性是无关紧要时,对可解释性的要求才是可取的——然而这种情况非常少见。例如,在自动驾驶技术中优先考虑可解释性就是不可取的,因为即使轻微地降低导航的精确度或者车辆区分行人和广告牌中的人像的能力,也可能是非常危险的。因此,对算法可解释性的要求在本质上就是要求使用效率低下的人工智能技术;或者,在不允许降低精确性的情况中(如自动驾驶技术),就意味着禁止使用不可解释的、但有效的算法。

最后,这些提议最基本的缺陷是,算法透明性和可解释性仅仅是防止算法造成伤害的手段,而不能被当作目的来看待。在特定的情况下,透明性和可解释性确实可以作为实现这一目标的有效手段。但是如果监管者将实现算法透明性或可解释性视为灵丹妙药或最终目标,就是不明智的。在大多数情况下,强制要求透明性和可解释性仅仅会限制创新,并不能防范潜在的伤害。



建立统一的监管机构以及监督所有的算法决策

02

由于担心算法潜在风险的扩散,有些人主张政府应建立专门监督算法的新的监管机构。2017年,马里兰大学的计算机学教授Ben Shneiderman在Alan Turing研究所(the Alan Turing Institute)发表演讲,提议建立一个“国家算法安全委员会”(National Algorithm Safety Board),独立地监督算法的应用,比方说当公司想要使用算法时,该委员会对其算法进行审查、核准和监管。[33]牛津互联网协会(the Oxford Internet Institute)也呼吁建立一个“算法监督机构”,对算法进行审查,并确定它们是否服务于公众利益。[34]律师Andrew Tutt则提出,要创建类似于美国食品和药物管理局的算法监管机构,该机构应有权“阻止算法进入市场,直到其安全性和有效性已经通过‘售前试验’(premarket trials)得到了证明。”[35]企业家Elon Musk在2017年全国州长协会会议上发言时,敦促政策制定者采取预防性原则。他指出:“监管机构的初步目标是维持正常的秩序——了解人工智能的活动,摸清相关情况;一旦实现这一目标,就开始制定法规以确保公共安全。”[36]

这类提议面临着很多严峻的考验。首先,他们都没有意识到,想要充分评估某项算法决策,就得具备同该决策内容相关的背景知识。消费者金融领域的损害与医疗保健领域的损害有着不同的构成要件,所以政府要区分不同的行业,成立特定的监管机构。如果让同一个政府机构监管所有人的决策是不明智的,那么让同一个机构监管所有的算法决策也将是不明智的。这就是为什么在20世纪90年代互联网的成长发展期,美国没有像有些人提议的那样建立一个统一的联邦互联网机构,来管理所有的在线活动。相反,不同的机构监管不同的侧面:美国联邦通信委员监管互联网技术的通信方面,联邦贸易委员监管的网上商业活动,国家电信和信息管理局监管频谱,另外一些机构监管其他方面的内容。

目前还不清楚为什么这些提议的倡导者们认为现有的监管机构无法有效地监管算法。监管机构必须了解与其职责内容相关的技术。鉴于算法决策技术的新颖性,许多机构很可能缺乏与之相关的专业知识来理解它们是如何工作。例如,在国会建议美国国家公路交通安全管理局(NHTSA)负责认证自动驾驶汽车的安全性之后,Gartner研究公司的汽车技术分析师Mike Ramsay就表示:“NHTSA现在不具备相应的技术能力。”[37]不过,虽然国家机构理解新技术的能力经常落后于私人部门,但他们在努力地获知技术创新的内容。而且,联邦贸易委员会等一些机构还在积极获取和掌握相关的技术知识,以便能有效地监督各行各业的复杂技术问题。[38]不管怎样,如果担心的是政府机构没有足够的技术专长,那么仅仅建立一个致力于算法监管的新机构是无法解决这个问题的,因为政府在吸引和留住人才方面所面临的种种困难仍然存在。[39]

这并不意味着国会和其他立法机构不需要支持相关机构去获取与人工智能监管相关的技术知识。斯坦福大学里由一队学者和人工智能专家主导的“人工智能百年研究”(AI100),建议政策制定者们:

为各级政府在积累人工智能技术知识方面提供途径。有效的治理需要更多的专家参与,他们能够理解并阐明人工智能技术、规划性目标和整体社会价值之间的相互作用。……如果没有足够的专业知识来评估安全性和其他指标,国家或地方官员就可能会拒绝一项非常有前景的申请。或者,没有经过充分训练的官员可能会轻易地采信技术人员的论述,核准一项未经充分审查的可能带有潜在危害的申请。如果不能理解人工智能系统与人类行为和社会价值之间的相互作用,那么官员就很难评估其对规划性目标的影响。面对人工智能技术可能产生的深刻变化,监管者不可避免地会面临更多和更大的压力。对人工智能是什么以及不是什么产生误解,特别是在恐慌情绪蔓延的背景下,将会促使人们反对可能使每个人都受益的技术。这将是一个悲剧性的错误。[40]

这并不是说监管体制不需要随着算法决策的广泛应用和人工智能技术的成熟而改变——每个监管机构都要实现与其监管领域同步的现代化。如果飞行汽车变得司空见惯,那么美国联邦航空管理局在接下来的50年内就需要大幅调整其运作模式,正如当使用纳米机器人治疗癌症成为常态时,欧洲药品管理局必须作出改变那样。但是,为了对某一项技术做出回应就重新构建整个政府监管体系,其实是过于突然的且可能无效的措施。

建立一个统一的监管机构来监督算法的使用,也意味着认为所有的算法都具有相同的风险水平和监管需求。然而,算法的应用场景不同,其带来的风险也就不同。低风险的决策不应该仅仅因为使用了算法,就要受到监管。

最后,这类提议中的一部分还关注算法是否服务于“公共利益”——这是一个一般理性人就可以区分其内容的概念。例如,私人车辆的使用可以被视为符合公共利益,因为它们为人类提供了机动性和参与经济活动的机会——尽管它们也污染环境,导致城市扩张,并且每年都在美国造成3万多人死亡的后果。美国政府不是让一个监管机构来认定使用车辆是否符合公共利益,而是基于其客观的利弊(如燃油经济性、汽车安全性以及城市土地的使用)来调整具体的活动。同样地,政策制定者不应该认定使用算法是否符合公共利益,而是在其具体的应用中对它们进行规制。



03

笼统的监管建议

第三类监管建议是一些含义模糊,但容易让人记住的提议;它们的内容各不相同,但大都出自善意。从监管的角度来看,这类提议其实是一些毫无意义的口号和流行语。虽然部分提法可能在算法决策的某些领域具有一定的价值,例如在人工智能开发指南或企业社会责任标准中,但将它们作为监管指南是不切实际的。

许多呼吁对算法进行监管的提议都强调,需要重新审视当前的做法,但它们最终也未能阐明一条有效的路径。英国首相Theresa May在2018年1月发表的演讲就是一个典型的例子,她表示虽然人工智能的发展前景对人类社会的进步至关重要,但“这一技术也给我们带来了新的和巨大的挑战。……所以我今天将阐述如何最有效地利用该技术的巨大潜力,并说明我们要如何应对这些新的问题。”[41]然而,她在接下来的演讲中并未提出任何真正有价值的解决方案,来指导我们去应对人工智能带来的潜在挑战。正如一位评论家所写的,May的演说可以归结为“人工智能可以做伟大的事情,但我们必须确保它是安全的和合乎道德的”,这只不过是一种陈词滥调罢了。[42]

有些例子中,这些建议是作为政策制定的指导原则而提出的,它们本身并不是真正的政策提案。但即便是旨在为未来工作提供参考,它们所包含的建议也经常是过于模糊而没有什么实际用处的,或者是会限制算法的有益用途的。例如,为欧洲委员会提供咨询和建议的欧洲科学和新技术道德研究小组(the European Groupon Ethicsin Science and New Technologies)在2018年3月发布了一份报告,该报告呼吁为人工智能建立一个共同的道德和监管框架,报告中指出:“必须将责任原则作为人工智能研究和应用的一项基本原则。‘自主’系统的开发和使用只能以满足全人类社会和环境利益的方式进行,这些利益的具体内容应当经由审慎的民主过程来决定。”[43]报告中对该观点进行的解释表述的非常模糊:“设计(自主系统)时所欲达成的效果应当与人类的各种基本价值观和基本权利相符。”[44]尽管这听起来可能无害,但其实是非常可疑的。在多数人的价值观对限制妇女权利和宗教少数派权利表示认同的社会中,故意使用算法来助长这种带有歧视的价值观是可以被接受的吗?这种不区分特定情况的笼统的建议对于政策的制定没有任何帮助。这些建议的问题在于,他们没有具体说明应当由谁来决定何种价值观是值得认可的,或者如何对利益进行协调、取舍,比方说在失业率和经济增长率之间进行取舍。此外,这种要求算法与基本权利相符的提法还可能会阻碍旨在提高生产率的算法的应用,因为这类算法与人权没有什么关系。

更重要的是,这些提议还忽视了民主社会已经具备了裁定利益或价值观冲突的机构——立法机构和法院。然而,人工智能界的一些人士似乎还是认为他们才是道德的守护者。例如,一些人反对研发自主武器系统,还认为算法的研发者只应该开发增强人类劳动能力的机器人,而不应该开发取代人类的机器人。虽然这些建议的目的是拯救生命和增加就业,但最好还是经由民主的过程来作出相关的决策,而不是由不能广泛地反映社会多样性的特定人群来作出。例如,民族国家自身最适合确定他们需要什么样的防御系统来保护自己免受对手攻击。此外,社会和政治偏好通常并不适用于技术,而只是在特定的部门和行业中适用。由于存在这些限制,而且要满足消费者的需求,所以让企业来确定如何最大限度地实现创新才是更合适的。

有些提议试图采取更有成效的方法,但最终还是行不通。例如,白宫在2016年5月发布了一份报告,详细地阐述了大数据的发展机遇以及公民权利面临的挑战。它没有去过分地夸大算法系统的复杂性和必要的专有性所带来的威胁,而是提出了“设计出均等机会”(equal opportunity by design)的理念,并将其解释为在数据驱动系统的整个生命周期内确保公平性和禁止歧视的原则。[45]联邦贸易专员Terrell McSweeny对这种方法进行了更加笼统的解释,他将其称作“设计责任”:即在算法设计中要认识到算法系统可能会产生意想不到的结果,并且鼓励研发人员去解决可能在算法系统中造成危害的根本性问题,例如算法不能解释历史性偏见的问题。[46]鼓励研发对算法的设计和应用负责,这是一个有价值的提议;然而仅仅强调研发人员的“设计责任”并不能算是一项解决算法挑战的明确方案。[47]此外,这些提议只关注研发者,而不关注应用者。即使研发者义不容辞地承担起“设计责任”,但如果他们的算法是不实用的产品,它们就不会产生什么影响。相反,如果应用者在监管措施的鞭策下能够主动地对算法的使用负起责任,算法市场将会更好地满足上述提议的要求。



放任不管并非良策

04

由于担心研发人员是唯一能够了解和保护消费者利益的群体,或者基于对最坏情况的担忧,而提出的过度监管的建议,显然会损害创新。对新技术潜在风险的假想和担忧是推动这类建议的有力因素,他们认为在社会能够充分认识到某项技术的益处并能够理解它将产生的影响之前,该项技术就应该被认定为是不成熟的,因此应当对其如何使用进行规范。在技术得到了广泛的应用之后,人们发现,当初由于对破坏性技术的担忧而提出的监管建议其实是非常荒谬的。[48]例如,由于晶体管在20世纪50年代和60年代被大量地使用,美国的一些决策者对其可能被用于监听感到担忧;一位参议员于是提出了一项法律,要求所有的监听设备都要获得政府的许可证。[49]如果国会当年顺应了这种歇斯底里的担忧,并通过了这项法律,那么现在人们广泛使用的许多无害技术产品,例如智能手机和婴儿监视器,恐怕就不会存在了。

因此,在弄清楚市场力量、技术手段和现有法规在技术的成熟过程中会如何引导技术的应用之前,以怀疑的眼光去看待那些鼓吹新技术监管的提议是明智的。但是,对于算法决策而言,拒绝所有的监管提议可能是难以令人信服的。明确要求政府不对算法进行任何干预,将其留给行业进行自我管制的呼声已经很少见了,但还是有些人在提倡这种做法。例如,科技记者Tristan Greene在为TNW网站(The Next Web)撰稿时指出,由于人们对人工智能的许多担忧都是假想出来的,且“政府对人工智能毫无头绪,因此不应该允许政府对其进行规制”。[50]法国SAS公司的创新和商业解决方案总监Mouloud Dey认为,由于政府规制会对创新带来负担,而且行业的自我调节足以应对任何潜在的危害,所以政府不应该介入算法的监管。[51]在许多情况下,一些更加笼统的反规制观点将公正、有益的技术监管措施也描述成有害的,从而鼓动人们相信政府不应干涉的理念。例如,约翰霍普金斯大学应用经济学、全球健康和商业研究中心的学者Simon Constable在为福布斯撰文时,错误地指出,由于美国政府未能阻止或减轻2008年的金融危机,“现在是时候拒绝那些要求政府对科技行业进行更多监管的提议了。”[52]

考虑到有些政府采取的措施,例如欧盟的GDPR等,将明显地限制创新,人们很容易会对这类观点表示赞同。然而,尽管行业自律、市场力量和侵权责任法在规范算法的使用方面可能会发挥重要的作用,但是仅仅依靠这些还不足以防范算法决策的所有潜在危害,其原因有三点。首先,在某些应用场景中,传统的市场力量就可以减轻算法的危害,比如说公司在因算法致害而声誉受损时,就会主动采取措施消除算法危害;但是另外的一些场景中,算法的缺陷可能不会给应用者造成损失。在政府使用人工智能的场景中更是如此:算法的不良决策确实造成了损失,但这些损失却并不是由政府机构来直接承担的。换句话说,即便带有歧视性的算法是一种有缺陷的产品,但在某些情况下,应用者仍然会把它投入使用。其次,在某些应用场景中,即使算法应用者有足够的动因去主动降低算法的危害,但因其危害后果较为严重,政府必须对其进行监管,比方说自动驾驶汽车。第三,某些算法的应用可能会造成一定的危害,如加剧不平等,但却无法认定应用者明显违背了法律。例如,在线工作委员会可以使用一种目标广告算法,该算法不考虑种族因素,但可以使用一些不易被察觉的、可以作为种族因素替代物的变量(例如邮政编码)来确定广告目标,从而实现向特定的种族成员推送工作机会。对公众、监管者甚至应用者而言,这种危害可能不会立即显现出来。在这种情况下,由于不存在公众的指责,也没有追逐更高利润的动机,企业就不会主动去对这种算法进行严格的审查,以降低它的危害。



参考文献

(请向下滑动)


REFERENCES

1. “Big Data: A Report onAlgorithmic Systems, Opportunity, and Civil Rights” (Washington, D.C.:Executive Office of the President, May 2016),

https://obamawhitehouse.archives.gov/sites/default/files/microsites/ostp/2016_0504_data_discrimination.pdf;Catelijne Muller, Artificial Intelligence (Netherlands: European Economic andSocial Committee, 2017),

https://www.eesc.europa.eu/our-work/opinions-informationreports/opinions/artificial-intelligence.

2. Lee Rainie and Janna Anderson,“Code-Dependent: Pros and Cons of the Algorithm Age,” Pew Research Center,February 8, 2017,

http://www.pewinternet.org/2017/02/08/code-dependent-pros-andcons-of-the-algorithm-age/;Christopher Zara, “FTC Chief Technologist Ashkan Soltani on AlgorithmicTransparency and the Fight Against Biased Bots,” International Business Times,April 9, 2015,

http://www.ibtimes.com/ftc-chief-technologist-ashkan-soltani-algorithmic-transparency-fight-against-biased-1876177;“Office of Technology Research and Investigation,” Federal Trade Commission,Accessed March 8, 2018,

https://www.ftc.gov/about-ftc/bureaus-offices/bureauconsumer-protection/office-technology-research-investigation.

3.Cathy O’Neil, Weapons of MathDestruction: How Big Data Increases Inequality and Threatens Democracy (NewYork: Crown, 2016), ORCAA, Accessed May 8, 2018,

http://www.oneilrisk.com/#services-section.

4.Ibid.

5.“Comments of the ElectronicPrivacy Information Center to the Office of Science and Technology Policy,”EPIC, April 4, 2014,

https://epic.org/privacy/big-data/EPIC-OSTP-Big-Data.pdf.

6.Lee Rainie and Janna Anderson,“Code-Dependent: Pros and Cons of the Algorithm Age,” Pew Research Center,February 8, 2017,

http://www.pewinternet.org/2017/02/08/code-dependent-pros-andcons-of-the-algorithm-age/.

7.Matt Burgess, “Holding AI toAccount: Will Algorithms Ever Be Free from Bias If They're Created by Humans?”Wired, January 11, 2016,

http://www.wired.co.uk/article/creating-transparent-ai-algorithmsmachine-learning.

8.Lee Rainie and Janna Anderson,“Code-Dependent: Pros and Cons of the Algorithm Age,” Pew Research Center,February 8, 2017,

http://www.pewinternet.org/2017/02/08/code-dependent-pros-andcons-of-the-algorithm-age/.

9.Ibid.

10.Nick Wallace and DanielCastro, “The Impact of the EU’s New General Data Protection Regulation on AI”(Center for Data Innovation, March 2018),

http://www2.datainnovation.org/2018-impact-gdpr-ai.pdf.

11.“Humans May Not Always GraspWhy AIs Act. Don’t Panic.” The Economist, February 15, 2018,

https://www.economist.com/news/leaders/21737033-humans-areinscrutable-too-existing-rules-and-regulations-can-applyartificial?frsc=dg%7Ce.

12.“Algorithmic Transparency: EndSecret Profiling,” EPIC, Accessed May 8, 2018,

https://www.epic.org/algorithmic-transparency/.

13.Cornell Belcher and Dee Brown,“Hailing While Black—Navigating the Discriminatory Landscape of Transportation”(key findings from the hailing while black survey of Chicago voters, BrilliantCorners, February 12, 2015),

http://www.brilliant-corners.com/post/hailing-while-black;David R. Francis, “Employers’ Replies to Racial Names” (The National Bureau ofEconomic Research, accessed May 16, 2016),

http://www.nber.org/digest/sep03/w9873.html.

14.Nick Wallace, “EU’s Right toExplanation: A Harmful Restriction on Artificial Intelligence,” TechZone360,January 25, 2017,

http://www.techzone360.com/topics/techzone/articles/2017/01/25/429101-eus-right-explanation-harmful-restriction-artificial-intelligence.htm#.

15.Ibid.

16.Ibid.

17.“Report: the War on Marijuanain Black and White,” ACLU, Accessed May 8, 2018,

https://www.aclu.org/report/report-war-marijuana-black-andwhite?redirect=criminal-law-reform/war-marijuana-black-and-white.

18.Christian Sandvig et al.,“Auditing Algorithms: Research Methods for Detecting Discrimination on InternetPlatforms” (paper presented to “Data and Discrimination: Converting CriticalConcerns into Productive Inquiry,” a preconference at the 64th Annual Meetingof the International Communication Association, Seattle, Washington, May 22,2014).

19.Will Knight, “The Dark Secretat the Heart of AI,” MIT Technology Review, April 11, 2017,

https://www.technologyreview.com/s/604087/the-darksecret-at-the-heart-of-ai/.

20.Ibid.

21.Ibid.

22.Curt Levey and Ryan Hagemann,“Algorithms With Minds of Their Own,” The Wall Street Journal, November 12,2017,

https://www.wsj.com/articles/algorithms-with-minds-of-their-own-1510521093.

23.Ibid.

24.Patrick Gillespie, “ChinaBroke Hacking Pact Before New Tariff Fight,” Axios, April 10, 2018,

https://www.axios.com/china-broke-hacking-pactbefore-new-tariff-tiff-d19f5604-f9ce-458a-a50a-2f906c8f12ab.html.

25.Ibid; Frank Pasquale, TheBlack Box Society: The Secret Algorithms That Control Money and Information(Cambridge, MA: Harvard University Press, 2015), 10.

26.John Faber, “How toFuture-Proof Your Search Ranking,” Chapter Three, April 2, 2018,

https://www.chapterthree.com/blog/how-to-future-proofyour-search-ranking.

27.Ibid.

28.Danny Sullivan, “Google UsesRankBrain for Every Search, Impacts Rankings of ‘Lots’ of Them,” Search EngineLand, June 23, 2016,

https://searchengineland.com/google-loves-rankbrain-uses-for-everysearch-252526.

29.Kate Connolly, “Angela Merkel:Internet Search Engines Are ‘Distorting Perception,’” The Guardian, October 27,2016,

https://www.theguardian.com/world/2016/oct/27/angela-merkelinternet-search-engines-are-distorting-our-perception.

30.Adam Segal, “Germany WantsGreater Algorithmic Transparency to Fight Disinformation, But Its Approach isHalf-Baked,” Council on Foreign Relations, April 22, 2018,

https://www.cfr.org/blog/germany-wantsgreater-algorithmic-transparency-fight-disinformation-its-approach-halfbaked.

31.Max Kuhn and Kjell Johnson,Applied Predictive Modeling (New York: Springer-Verlag New York, 2013) 50.

32.Jason Brownlee, “ModelPrediction Accuracy Versus Interpretation in Machine Learning,” MachineLearning Mastery, August 1, 2014,

https://machinelearningmastery.com/model-prediction-versusinterpretation-in-machine-learning/.

33.“Turing Lecture: AlgorithmicAccountability: Professor Ben Shneiderman, University of Maryland,” The AlanTuring Institute, May 31, 2017,

https://www.youtube.com/watch?v=UWuDgY8aHmU.

34.“Written Evidence Submitted Bythe Oxford Internet Institute,” Oxford Internet Institute, April 2017,

http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/science-and-technology-committee/algorithms-indecisionmaking/written/69003.pdf.

35.Andrew Tutt, “An FDA forAlgorithms,” Administrative Law Review 69, no. 83 (March 15, 2016),

http://dx.doi.org/10.2139/ssrn.27479944.

36.“Elon Musk, National GovernorsAssociation, July 15, 2017,” WordsmithFL, July 16, 2017,

https://www.youtube.com/watch?time_continue=245&v=b3lzEQANdHk;Camila Domonoske, “Elon Musk Warns Governors: Artificial Intelligence Poses‘Existential Risk,’” NPR, July 17, 2017,

https://www.npr.org/sections/thetwoway/2017/07/17/537686649/elon-musk-warns-governors-artificialintelligence-poses-existential-risk.

37.Alan Ohnsman, “Push forSelf-Driving Car Rules Overlooks Lack of Federal Expertise in AI Tech,” Forbes,July 18, 2017,

https://www.forbes.com/sites/alanohnsman/2017/07/19/push-for-selfdriving-car-rules-overlooks-lack-of-federal-expertise-in-aitech/#2fd44c7dcbf3.

38.Neil Chilson, “How the FTCKeeps up on Technology,” U.S. Federal Trade Commission, January 4, 2018,

https://www.ftc.gov/newsevents/blogs/techftc/2018/01/how-ftc-keeps-technology.

39.“Strategic Human CapitalManagement,” U.S. Government Accountability Office, 2017,

https://www.gao.gov/highrisk/strategic_human_management/why_did_study.

40.“Artificial Intelligence andLife in 2030” (Stanford University One Hundred Year Study on ArtificialIntelligence, September 2016),

https://ai100.stanford.edu/sites/default/files/ai_100_report_0831fnl.pdf.

41.“PM’s Speech at Davos 2018: 25January,” U.K. Prime Minister’s Office, January 25, 2018,

https://www.gov.uk/government/speeches/pmsspeech-at-davos-2018-25-january.

42.Rowland Manthorpe, “May’sDavos Speech Exposed Emptiness in the UK’s AI Strategy,” Wired, January 28,2018,

http://www.wired.co.uk/article/theresa-may-davos-artificial-intelligencecentre-for-data-ethics-and-innovation.

43.European Group on Ethics inScience and New Technologies, “Statement on Artificial Intelligence, Roboticsand ‘Autonomous’ Systems” (Luxembourg: European Commission Directorate-Generalfor Research and Innovation, 2018),

http://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.

44.Ibid.

45.“Big Data: A Report onAlgorithmic Systems, Opportunity, and Civil Rights” (Washington, D.C.:Executive Office of the President, May 2016),

https://obamawhitehouse.archives.gov/sites/default/files/microsites/ostp/2016_0504_data_discrimination.pdf.

46.“Keynote Remarks ofCommissioner Terrell McSweeny,” U.S. Federal Trade Commission, September 10,2015,

https://www.ftc.gov/system/files/documents/public_statements/800981/150909googletechroundtable.pdf.

47.Daniel Castro, “How CongressCan Fix ‘Internet of Things’ Security,” The Hill, October 18, 2016,

http://thehill.com/blogs/punditsblog/technology/303302-how-congress-can-fix-internet-of-things-security.

48.Daniel Castro and AlanMcQuinn, “The Privacy Panic Cycle: A Guide to Public Fears About NewTechnologies” (Information Technology and Innovation Foundation, September2015),

http://www2.itif.org/2015-privacy-panic.pdf.

49.Ibid; John Neary, “The BigSnoop: Electronic Snooping—Insidious Invasions of Privacy,” Life Magazine, May20, 1966,

http://www.bugsweeps.com/info/life_article.html.

50.Tristan Greene, “U.S.Government Is Clueless About AI and Shouldn’t Be Allowed to Regulate It,” TheNext Web, October 24, 2017,

https://thenextweb.com/artificial-intelligence/2017/10/24/usgovernment-is-clueless-about-ai-and-shouldnt-be-allowed-to-regulate-it/.

51.Daniel Saraga, “Opinion:Should Algorithms Be Regulated?,” Phys.org, January 3, 2017, 

https://phys.org/news/2017-01-opinionalgorithms.html.

52.Simon Constable, “Why WeShould Not Regulate the Tech Industry,” Forbes, March 26, 2018,

https://www.forbes.com/sites/simonconstable/2018/03/26/no-wereally-dont-need-government-regulation-of-the-techindustry/#2e7ad53deb8d.



本文仅作学习交流之用


Bonnie Bews 




往期荐读




编辑:钟柳依


欢迎点击“阅读原文”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存