欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能的歧视锅 究竟是谁给盖上的?

程序员文章站 2022-07-24 21:33:53
歧视并非人类社会特有,作为人类智慧的衍生物,人工智能领域如今出现的歧视问题,也需引起我们的关注。歧视已涉及方方面面种族歧视:微软在今年3月的Tay,一个人工智能聊天机器人。仅仅在 Twitter 火热...

歧视并非人类社会特有,作为人类智慧的衍生物,人工智能领域如今出现的歧视问题,也需引起我们的关注。

人工智能的歧视锅 究竟是谁给盖上的?

歧视已涉及方方面面

种族歧视:微软在今年3月的Tay,一个人工智能聊天机器人。仅仅在 Twitter 火热 16 小时后紧急下线。Tay 作为人工智能,所以她会模仿人类的言语来回答其它用户的问题,在一天里,Tay 就被迅速“教成”了一位满口污言秽语的种族歧视者。谷歌有个照片应用,可以自动在电子相册中把标签分配到不同照片上,用户发现它会把黑人的照片归类为大猩猩。谷歌做出了道歉,表示它并不是故意的。

性别歧视:早些时候美国波士顿大学 Tolga Bolukbasi 和微软研究院研究团队发现,人工智能也存在着性别偏见。最近,谷歌的一款数据库中,就被人发现了其微妙的“性别歧视”现象,很多工作的搜索结果会自动与性别对应。比如,如果“女人”这个词经常和与家庭有关的词一起出现,那么“女人”这个概念就和“家庭”关联性非常高。

话题倾向性:Facebook曾遭遇批评称,该网站编辑对于新闻存在倾向性。Facebook表示:“在新版趋势话题中,我们将不再需要简单的趋势描述或摘要。我们的团队将更多地转向运营和技术工作。”

种种现象看来,机器学习也不是那么的完美,最起码的从人类身上是好的坏的全都吸收了。

人工智能的歧视锅 究竟是谁给盖上的?

人工智能歧视源于哪里?

其根源是人类让机器学习的“数据库”,即人工智能学习人类平日语言表达所固有内容形成的框架。简单来说,机器学习的原理就是用大量的数据对算法进行训练,从而达到理解人、学习人的目的。

人工智能由感知上升为对世界的理解,然后通过理解做出反应。在数据中不断学习、加深对于问题的理解,同时跟随数据的演进,才是关键,这也是大数据的重要意义,在数据的本质上,为人提供了解世界的可能性。

一旦将数据导入机器,机器就可通过消化和吸收生成对世界认知的模型。因为机器学习的目的本来就是理解人、模仿人,发展的过程中必定会带有人类社会里不那么光明的一面。可以说,在机器学习中存在着很多人类社会带来的偏见影响,所以在其表达上也会或多或少的受其影响而反映出这样或者那样的问题。

所以总结起来非常简单:我们从周围的世界学习到偏见,而AI则从我们这里学到偏见。Caliskan-Islam, Bryson, and, Narayanan写到,人工智能(AI)“就能够从显示历史不公正的训练数据中获得有害的偏见。”

而且,在智能汽车领域,研究人员意图将机器学习运用到人工智能车载系统上,并让其学会车主的驾驶习惯。但是,在看了上面的例子之后,我们还能对这样的应用放心吗?

人工智能的歧视锅 究竟是谁给盖上的?

人工智能歧视怎么破?

人工智能的伟大之处不在于让机器更伟大,而在于开发智能机器人辅助人,让每个平凡的人变得更伟大。先贤们虽然有远见,但是有些过分乐观,他们认为,人工智能的基本问题可以在一个夏天解决,但是这些问题至今没有完全解决。

即使不能指望根除,也要尝试着去化解,比如从以下的几个方面:

1、技术升级领域:这得从数据方面下手。如果想要好好的训练算法,研究人员就得剔除数据中的不良信息和隐藏的逻辑,再让算法分别识别。但从这里我们就可以了解到,这是对于研究人员而言,将是一项极其繁重、极具难度的工作。人类从诞生至今产生的歧视,会通过公式就能解决?

我们要么*学会信任人工智能,要么试图控制它们。因为当不透明的算法带来灾难时,我们再去要求解释可能就毫无意义了。

2、制度建设领域:我们要做的也许就跟欧盟的算法鉴别法案建议的一样:确保决策链中有人类的参与。当然,我们也无法确保人类不会有偏见,但是禁止深度学习和先进人工智能底层技术的研发是毫无意义的,我们可以引导它朝着有利于人类的方向发展。要做到这一点需要政治意愿的参与,需要有完善的制度、法律的规范,而不能只是让企业追逐自己的利益。

人们对现代科技持乐观态度,部分原因在于大家相信这是一种*化力量--不被人类长时间学到的狭隘偏见所限制。但是最新研究发现,这只是海市蜃楼般的假象。

3、思想意识领域:教育是最本质的内容,从小不要给孩子灌输片面和错误的观念,为他们树立健康的三观;用正确的宣传是消除误解、歧视的有效方式,树立典型的形象有助于破除大众对特定人群的刻板印象或者歧视,这就需要媒体的配合,打造良好的舆论引导环境。在珍 艾略特做了蓝眼睛和褐眼睛的试验十七年以后,纪录片《分裂的课堂》的导演对已经长大成人的学生们进行了回访。

无一例外,他们认为这个实验在其生命中意义重大。正因为童年时期有了这个体验,长大后更容易接纳不同文化、不同宗教背景、不同种族和不同意见的人,看到更大的世界。

其实,消除歧视的目的,可以仅仅是因为世界那么大,我们何必那么狭隘。

4、社会道德领域:机器学习算法的数据来源于人们的语言、行为习惯等,但是,如果人们有不良语言意识习惯,那将会对算法的学习提供错误的示范。比如:新闻媒体为了博人眼球,在某个车祸报道的标题中,会刻意加上一个“女司机”的标签,让大家产生一种女司机车祸几率更高的错觉,事实上数据统计,男司机车祸几率更高。

这种手法屡见不鲜,“富二代、90 后”等标签时常存在于各类媒体报道当中,比起事实本身,大众更关心这类标签的意义。改变这一情况需要科技界能承担起更多社会责任。*和公众也需要尽到自己的责任,秉持公平的观念。