德澜文库

原来人工智能也有歧视
2017/09/09
分享人:匿名
分类:生活休闲
更多

人工智能已经成为我们日常生活的一部分,但科技也可能含有危险的基础和假设,对于这样的结果,我们的认识才刚刚开始。

研究表明,人工智能可能和人类一样冥顽不灵。2016年秋天,有人发现一个被用于图像识别的复杂软件所产生的结果带有性别歧视色彩,比如,它把清洁工作、厨房和女性联系在一起,把运动和男性联系在一起。发现这一点的人对此感到十分不安,但其实他们不应该这么吃惊的,毕竟,即便是最复杂的电脑和软件本质上都是输入和输出系统。人工智能是通过输入大量已经存在的数据“训练”出来的。在这个例子中的图像识别软件,就被输入了成千上万张照片。如果它把某个性别和某些特定活动联系在一起,那是因为它数据的来源本身是带有偏见的,所有它输出的结果也是这样,当今世界,在图片中呈现的出现在厨房的人确实是女性居多。

这个问题很重要。理论上,人工智能这个词就是来自于科幻小说里提出的——带有个性的完全自主机器人。目前来说,人工智能一般指,用于做出决定或者执行任务的复杂软件,从决定信用是否良好,到预测购物习惯,到自动驾驶汽车,软件在我们的日常生活中已经变得越来越无处不在。随着我们把决策、顾客服务和身体或者精神任务之类的事情外包或者自动化,交给软件完成的时候,有几个意义深远的衍生问题:雇佣关系、政府、规章制度和社会正义。我们处于决定的节点上,我们的决定将影响一个新的科技时代会到底是重复过去的那些不公正,或者被用于想现在的不平等现象发起挑战上。

“人工智能”这个术语指的是组成它的几个相关领域:机器学习指的是向电脑输入信息,让其逐渐学会用更复杂的方式辨别和处理问题;自然语言处理指的是让软件学会辨别人类表达思想的多种、不断变化的方式;图像识别指的是“看见”并明白图像信息;还有推理,也就让电脑学会“思考”。显然,我们口袋里的电话并不是富有情感的小东西。但很多应用运用部分的人工智能去解决诸如面部识别、图像识别,应答比如把某人的地点加入到短信中的上下文,理解我们声音给出的指令等等。人工智能科技最最基础的水平,就是运行像“如果这样,则那样”的语句——如果x大于100,则响一下闹钟,只是远远比这个复杂。

一旦我们理解人工智能只是一个做出基础决定的系统,我们更容易也更惊喜地发现人工智能占据我们生活的范畴,通常还伴随着缺乏透明度的忧虑。比如,亚马逊在过百个方面使用人工智能:辨别顾客喜好、向买家推荐产品、管理仓库和配送,当然他们的Alexa语音助手产品,如亚马逊Echo系列也是人工智能。但该公司还是用人工智能把顾客引向来自比较友好的合作伙伴的高价产品上。这些例子变得越来越常见,也越来越严重。ProPublica公司的一个调查表明,司法系统运用人工智能来预测再次犯罪的几率,并误把被告列入容易成为未来罪犯的黑名单中。人工智能也用于决定监狱囚牢是否应当出狱,就像《大西洋月刊》指出的那样,她或者他拥有什么样的访问权也是由人工智能决定的。人工智能和机器学习对影响2016美国总统大选虚假新闻也要背上一定的责任.人工智能用来决定信用额度或者提供金融产品给其他人,也经常带着歧视色彩来做这些事——如果你是黑人或者拉丁裔,程序给你推荐的产品利率比亚裔和白人更高一点。

随着人工智能变得越来越复杂,即便是设计师也更难搞清楚它是如何处理问题的。这就带来一些列的问题,特别是当人工智能是客观或者科学的认知已经成为常识的时候,问题更加严在重。在这样的情况下,科技成为作出决策和提供判决的黑箱子,并且我们被鼓励遵从科技的决定。随着复杂程度的不断增长,认识到在社会现实中,是什么影响人工智能的变得越来越重要。

现实是,科技从来都不是中立的。图像识别的性别歧视只是冰山一角。自从机器学习和人工智能用来收集、分类、学习和分析现有的数据以来,他们就在重复现在的架构基础,除非它们被明确设计来负责这些并且中和这些因素的影响。为了改变这种情况,需要一个特殊的社会公正导向远景的措施,一个是经济是如何与性别,种族,性取向和其他因素息息相关的。但赋予如科技专家对盲目精英教育的普遍信念之类文化因子,强行让思想专注在平等问题上是一场艰难的战役。

尽管如此,这个问题的解决有些许的进展。AI Now是以纽约为基础的研究,最初由凯特·克劳福德和美丽迪斯·惠特克领导。这个项目的目的是寻求对人工智能运作方式的进一步的理解,探求如何更好的利用人工智能、目前安装的人工智可能有哪些害处。在一个年度报告中,小组发布一系列针对如何中和人工智能偏见的推荐方案。其中包括:给数据标上来源,增加人工智能系统收到的数据多样性,特别是与受排挤群体相关的树叶——男人在洗盘子的图片,或者两个女性的结婚照等等。另一个建议是在使用的时候同时开发一个评估人工智能公平性和伤害力的系统;并且尝试改进设计和执行人工智能的人群多样性,以便于搜索设计者的盲点和偏见。毕竟,如果有更多的开发者是黑人或者女性,程序就不会如此偏向一个白人男性的世界观。

当我们谈论人工智能的时候,很容易被大惊小怪带偏。最近,戏剧性的头条新闻在传播,脸书被迫中断人工智能实验,因为两个机器人“发明了他们自己的语言”。事实上,只是两个机器人开始用一种速记法沟通,而不是大多数人可以理解的方式(来对话)——这个项目被叫停,不是因为它已经构成了危险,而是对人类不再有使用价值。并没有什么人工智能征服世界的狗血情节出现。

但在某种意义上说,数码科技做到以一件事情:把社会问题暴露出来。比如,社交媒体使得“公共领域”更加视像化,也更加形象。我们也看到这样的科技可以带来难以置信的好处还坏处:信息开放的数码世界同时也成为仇恨传播的场所以及烦恼。人工智能似乎部分暴露了结构性的偏见。我们的生活由很多复杂的物质和意识形态的因子和体系构成的,为了抵消里面的偏见,我们首先要认清楚我们由这个更大的系统塑造并影响的事实,然后逆着他们的潮流去重新塑造现存的权利结构。可以很清楚地看到,人工智能的“智慧”就是把我们自己投入和偏见映射出来,因此让我们理所应当地把它构建成可以反应现实的样子。人工智能一如既往地反应被输入的东西,而输入东西的就是我们——我们的文化、我们的意识形态、我们自己。为了让科技有一个更加平等的未来,这些就是我们学要改变的东西。

(编译 诺曼R)

……………………………………

欢迎你来微博找我们,请点这里。

也可以关注我们的微信公众号“界面文化”【ID:BooksAndFun】

 

界面-思想

Copyright ©2010-2014 Data-Land Corporation, All Rights Reserved

隐私保护 德澜公司 版权所有 京ICP备13031485