智能机器时代做出了太多的承诺。自动化让我们摆脱了工作的束缚,逻辑和算法也促进了社会繁荣,但自动化可能只是“乌托邦”。

但是我们从未想过,自动化时代的隐性附带产物延迟了这一愿景的实现。我们的机器通过学习之后,和人类一样,也会产生偏见。

现在已经有很多关于AI可疑行为的报道。

以亚马逊的AI招聘工具(现已暂停使用)为例,该工具“认为”男性候选人比女性更适合从事科技工作,并将简历中“女人”或“女性”这个词评为负面因素。这是因为它所发现和重复的模式基于的是十年前的历史数据,当时软件和开发工作的申请人主要是男性。

同样,弗吉尼亚大学计算机科学教授发现,他所开发的软件实际上是根据它“学习”的照片数据集来放大无意识的人类性别偏见,该软件也表明,这些软件所描述的一些行为中也存在偏见,如将女性和做饭联系在一起,将男性和运动联系在一起。

这种令人不安的趋势仍在继续。ProPublica是一家独立的非营利性调查性新闻编辑部,他们之前的一项调查强调了一项法院风险评估软件计划,该计划预测黑人再次犯罪的概率大约有 65%,但是事实上,只有 45%的罪犯会再度犯罪,而白人的再次犯罪概率为23.5%。预测性警务计划使机器建议对存在大量黑人的社区加大监管力度。

当然,这一问题并不在于机器。事实上,它们是从一些已经带有偏见的数据中学习和处理,这些数据反映了以前人们就被社会边缘化了。

当人们将数据馈送到机器中时,他们的意图通常是好的:寻找犯罪的热门地区,以便警察可以将资源集中在这些领域,或者金融机构可以确定谁可以负责任地偿还贷款,亦或是雇主可以招聘拥有工作技能且最适合特定工作的求职者,这些都是明智的想法。

但机器和我们想的不一样,它们的电路板是冰冷的,它们只是根据所给的数据产生结果,因此自动化加深了人类的偏见。

幽默作家Evan Esar曾说:“计算机可以搞清楚各种问题,除了这个问题不合乎常理。”

机器人不是种族主义者或性别歧视者:这一问题就是现实。如果我们想继续在办公场所及其它地方使用大数据和机器学习,我们首先需要重新解决我们收集数据的方式。机器学习的问题在于他们从何处学习。

我们甚至会将性别和机器联系在一起:像Alexa和Siri等虚拟助手使用的通常是女性的名字,这对我们的文化起着重要作用。为什么男性化的AI角色往往是强大而暴力的,如Ultron(奥创,美国漫威漫画旗下超级反派)、HAL 9000(电影中AI反派的鼻祖)和The Terminator(终结者),而女性化的AI角色往往是仆人或者感情对象,像电影《她》中的Samantha或Stepford Wives?

我们如何解决这个问题?

机器永远都只是机器。在当前的人类历史阶段中,我们可以重新审视我们的数据,让自己走在更光明的未来道路上。这不是一个天真的概念。灵活的员工队伍、更短的工作时间和AI减少我们的工作时间将从根本上改变了人类生活和工作的方式,这些都已经发生了。

2018年的一篇报告写道,AI Now研究所是纽约大学研究AI技术社会影响的机构,该机构正在推动影响这些项目的系统性和结构性偏差的研究。它列举了人们在医疗保健、住房和就业等方面受到机器决策影响的例子。

AI Now研究所希望受决策系统影响的社区和团体向他们咨询问题,以便能够考虑他们的关注点,保持这些计划创建者的透明度,并防止公共部门中的算法问责制。

伦敦的阿兰图灵研究所和牛津大学的另一个研究小组呼吁建立一个第三方AI监督机构,可以在人们认为受到自动计算机系统歧视的情况下仔细检查算法。

你要知道,这些并不是未来的解决方案,我们现在就很需要,否则原本推动社会向前发展的技术让社会回退到几十年前。

原文作者:Nigel Davies

信息化和软件服务网 - 助力数字中国建设 | 责编:赵曜 左右