AI曾一度被看做是打开经济繁荣大门的一把钥匙,很多人呼吁政策制定者要保证AI的公平性、道德性和安全性。纽约市市长Bill de Blasio近期宣布了成立该国第一个检测和评估算法使用的特别工作组。数天后,欧盟颁布了新数据保护条款,要求公司能够像用户解释任何自动化决策。像Elon Musk等高调的批评家呼吁政策制定者对AI进行大力监管。

不幸的是,两个最受欢迎的观念——需要公司公开算法的源代码,并且解释它们是如何决策的——通过使用AI来调整公司的商业模式和内部运作方式,结果或许是弊大于利的,但是公司并不对此负责。

第一个观念,即算法透明度,需要公司公开AI系统中的源代码和使用的数据。这一观念除了想法简单之外,作为一个广泛的解决方案,没有任何的好处。多数的AI系统很复杂,仅仅是看代码是完全理解不了的。一些AI系统依赖上百万的数据点和上千条代码,当遇到新的数据时,决策模型也会随之改变。想要让最有动机、资源丰富的监管人员或者有疑虑的公民指出其中所有的不适当行为,是不现实的,因为即使是系统的开发者也无法指出其中的不足之处。

此外,并非所有的公司都有开源的商业模型。让他们公开源代码则会减少他们投资开发新算法的动力,因为他们的竞争者能够抄袭这些代码。中国的一些不正当竞争者同美国争夺AI的主导权,而通常蔑视知识产权,他们会使用所谓的透明度要求从而盗取源代码。

另一个观念,即算法可解释性,需要公司向用户解释他们的算法是如何决策的。这个提议的问题在于,AI系统中的可解释性和准确性之间的权衡通常是无法避免的。算法的准确性通常是随着复杂性的提高而提高,所以算法越复杂,那么解释起来就越困难。但是这一情况未来会有所改变,因为对于可解释AI的研究已经成熟:DARPA为解决这个问题,在2017年对此投资了7500万美元;但是现在,对于可解释性的要求或许会以牺牲准确性为代价,这个是很危险的。例如,就当前的自动驾驶汽车而言,解释事故重要还是避免事故重要?而回答“解释比准确性更重要”的答案少之又少。

政策制定者应该更多地关注算法问责制,而不是要求公司公开源代码或者限制他们使用的算法种类。问责制的意思是,要对算法系统进行控制,从而保证算法是按照操作人员的意愿工作的,并且要识别和改正算法所产生的负面结果。

按照算法问责制构建的政策框架或许会带来一些重要的效益。首先,它们会让操作人员(非开发人员)对算法所会产生的消极影响负责。操作人员不仅对算法的社会影响力影响最大,而且他们也需要遵循一系列法规来保证他们的决策不会带来任何伤害。例如,员工必须在招聘过程中要遵循反歧视的法律法规,不管他们是否是使用算法进行决策。

其次,让操作人员对算法所产生的结果负责而不是对算法的内部运作方式负责,能够给他们更多的时间去关注确保算法不会造成伤害的最佳方法,如置信度,影响力评估或者程序的规则性。例如,高校想要部署预测哪位同学会退学的AI系统,但是在部署系统之前,要对其进行影响力评估,从而保证这一系统的有效性和公平性。和透明度或者可解释性要求不同的是,这会使高校有效地系统中识别任何潜在的缺陷,而不需要禁止使用复杂、专门的算法。

这并不是说透明度和可解释性不重要。例如透明度要求刑事审判系统中的风险评估算法要合理,毕竟,长期以来,公众要求审判系统要尽可能地接受群众最高级别的监督,即使这种透明度并不是要解释学习系统的工作方式有多先进。

同样地,《信贷机会均等法》(Equal Credit Opportunity Act)要求公司详细地向用户解释为什么要否决用户的信贷。不论企业是否使用AI来决策,用户依旧有权获得公司的解释。

关于如何让AI更加安全的争论忽视了对有细微差别的定向监管方式的需求,人们通常会将算法透明度和可解释性看做是一个杀手锏,而不考虑它们自身的缺陷。想要缓解AI所带来的潜在负面影响,并没有什么不妥,但是过度简单化、过于宽泛的解决方案在很大程度上都是无效的,而且也有可能弊大于利。算法问责制能够让公司负责任地使用AI系统,从而为社会带来切实的好处。

原文作者:Joshua New

信息化和软件服务网 - 助力数字中国建设 | 责编:赵曜 左右