人工智能机器人没有感情(qíng),也会区别对(duì)待人类?
人有七情六欲,所以在对待一些事情上(shàng),很多虽然说好是秉(bǐng)公(gōng)办理,公事公办,但多少都会有(yǒu)所偏差,会感情用(yòng)事,这个无可避免,智(zhì)能尽量减少,但在大(dà)众的认知中,人工(gōng)智(zhì)能(néng)的决策都(dōu)是绝对(duì)理(lǐ)性与客观的(de),因为我们知道背后驱(qū)使它的是冷冰冰(bīng)却比千言(yán)万(wàn)语更接近事实的(de)数据,然(rán)而,近期(qī)专家(jiā)发现,人(rén)工智(zhì)能其(qí)实也会带着有色眼(yǎn)镜去(qù)看人。
据国外媒(méi)体报道,斯坦福大学的(de)一项研(yán)究显示,亚马逊(xùn)、苹果、谷歌、IBM和(hé)微软的(de)语音识别系统存在种族(zú)差异,在白人(rén)用户中(zhōng)出现(xiàn)的(de)错误,要比在黑人用户中(zhōng)少(shǎo)得多。
研究显示(shì),这五大科技公司的语(yǔ)音识别系(xì)统在(zài)白人中错误识(shí)别(bié)单词的概率(lǜ)为19%。而在(zài)黑人用户中,则提升至(zhì)35%。此(cǐ)外,大约2%的白人音频片(piàn)段被这些系(xì)统(tǒng)认为(wéi)是不可读的。而在黑人用户中,这一比例却高达(dá)20%。
美(měi)国(guó)国家标(biāo)准与技(jì)术(shù)研究所(NIST)也曾测试了两种(zhǒng)最常(cháng)见(jiàn)的人脸识(shí)别算(suàn)法,得出了四点结论:
1. 在一对一匹配中,大多(duō)数系统对亚裔和非裔美国人比对白人面孔的假(jiǎ)阳性匹配率更高,有(yǒu)时是(shì)10倍甚至100倍。
2. 这种情况在亚洲国家发(fā)展的人(rén)脸识(shí)别算法中有所改(gǎi)变,在亚洲和白人之(zhī)间,假阳性的差(chà)异非常小。
3.美国开发(fā)的(de)算法始(shǐ)终不擅长匹配(pèi)亚洲、非洲裔美国人和美洲原住民的面孔(kǒng)。美国原住民得到的是错(cuò)误率(lǜ)最(zuì)高。
4. 在一对多的配对中,非裔美(měi)国女性的假阳性率(lǜ)最低,这(zhè)使(shǐ)她们(men)被(bèi)错(cuò)误指(zhǐ)控犯罪的风险最高。
事实上,早(zǎo)在2015年(nián)就已经(jīng)存(cún)在计算机视(shì)觉技术犯错的例子,表明人工(gōng)智(zhì)能技术存在对女性和有色人种的偏见,实例包括Google 等科技(jì)业巨(jù)头所提供(gòng)的(de)高人气网络(luò)服务(wù),Google 照片应用程序(Google Photos app)被发现将非裔美国人标记为「大猩猩(xīng)」,谷歌曾(céng)也为此进行公(gōng)开道(dào)歉。
在探(tàn)讨如何消除(chú)人工智能(néng)的不客观(guān)之前,我们先来看看AI的有色眼镜到底从何而来(lái)。
数(shù)据是“罪魁祸首”
现阶(jiē)段让AI提升认知世界能(néng)力(lì)的(de)最有效(xiào)途径仍然是(shì)监督学(xué)习,而目(mù)前AI算法能(néng)学习的数据,几乎(hū)全部(bù)都是通过人力逐一进行标注(zhù)而(ér)得来的(de),数据(jù)集质量(liàng)的高低直(zhí)接决定最终(zhōng)模(mó)型的效(xiào)果。
数据标注者(zhě)通常是(shì)人类,而人类是“复杂”的生物。这也是导致AI产生偏(piān)见的一个主(zhǔ)要(yào)因素,大多(duō)数机器学习任务都是使用大型、带标注的数据集来训练(liàn),AI会(huì)基(jī)于开发者(zhě)提供的(de)训(xùn)练数据推(tuī)断出规律,再将(jiāng)规律套用在某些资料中。
打(dǎ)个比方,在人脸识别应用中,如果用于训练(liàn)的数据里白人男(nán)性比(bǐ)黑人女(nǚ)性更多,那白人男性的(de)识(shí)别率将会更高。
导致AI产生偏见另(lìng)一个原因可以归于算法本(běn)身,一个(gè)常见的机(jī)器学习(xí)程序会试图最大化训练数据集的整体预测准确率。
有(yǒu)缺陷的算(suàn)法还(hái)会造成恶性循环,使偏见越发(fā)严(yán)重(chóng)。例如谷歌(gē)翻译,会默认使用男性代(dài)词(cí),这是因(yīn)为英语语(yǔ)料(liào)库中男性代词(cí)对女性(xìng)代(dài)词的比例为2:1。
算法的原(yuán)则是由AI自行进(jìn)行学习,乍看之下很有效(xiào)率。不过,一但提供(gòng)的资料不够全面,或(huò)开发者没有(yǒu)想方(fāng)设法避免歧视,AI推导出的结果便很容易带(dài)有偏见。
AI并(bìng)不理解“偏见(jiàn)”
偏见这(zhè)个词是人类创造的,也是(shì)人类定义的,AI并(bìng)不能(néng)理解偏见的含义。
机(jī)器学习(xí)的方法会让AI带上(shàng)了有色(sè)眼镜,但是改变(biàn) AI 学习的(de)方式也不是好的(de)解(jiě)决方式。
或许我们(men)应该从(cóng)自己身上找找原因(yīn),毕竟(jìng)导致AI产生偏(piān)见的(de)原因,有(yǒu)部分要归咎(jiù)于他们所使用的语(yǔ)言。人们需要弄清楚什么是偏(piān)见,以及(jí)偏见在语言中的传递(dì)过程,避(bì)免这些偏(piān)见(jiàn)在日益(yì)强大的 AI 应(yīng)用(yòng)中更大范围的传播。
前(qián)微软副总裁沈向洋博士曾在公开课《打造负责任的AI》中指出:“人(rén)工智能已经开(kāi)始做(zuò)出人类无法理解的决定了,我们需要开启(qǐ)人工智(zhì)能的黑箱,了解AI做出决定背后的原因。”
算法之所以(yǐ)会对人类(lèi)进行区(qū)别对待,原因(yīn)在于训(xùn)练算法(fǎ)用的基准数据集通常是来自新闻(wén)和网页的(de)数据,就存在着由语言习惯造成的“性别(bié)偏见”,算法也(yě)自然(rán)“继承”了人类对这(zhè)些词(cí)汇(huì)理解的性别差异。
AI技术距离完全消除技术偏见还有很长的一段路,但(dàn)各大巨头也已经在技术层(céng)面做出努力。
谷歌(gē)开源了一(yī)项名为“What-If Tool”的探测工具,IBM将研发的偏见检测工具—AI Fairness 360 工具包开(kāi)源,包括(kuò)超过(guò) 30 个公平性指标(fairness metrics),和 9 个偏差(chà)缓解算法,研究人员和开发者可将工具整合至自己的机器学(xué)习模型里,检(jiǎn)测(cè)并减(jiǎn)少(shǎo)可能产生的(de)偏(piān)见和(hé)歧视(shì)。
人类的行为是收到(dào)外(wài)界影(yǐng)响的,而这种语言传统中(zhōng)出(chū)现的偏见,是在人文历(lì)史中(zhōng)不断加深嵌入的,在“偏见”通过代码(mǎ)传播之际,我(wǒ)们必须弄清楚(chǔ),是否简单的语言学习(xí)就足以(yǐ)解(jiě)释我(wǒ)们观察到传播中出现(xiàn)的偏见。
最重要的是大众(zhòng)需要了解“偏见”从何而(ér)来,从(cóng)而(ér)在社会(huì)中消除这种不文明(míng)的“偏见”。