近日(rì),多家外(wài)媒(méi)报道称,一(yī)位使用(yòng)亚马(mǎ)逊语音助(zhù)手Alexa的用户Danni Morritt,在询问心动周期的(de)问题(tí)时,竟然得到了如下答案:
“心跳是人体最糟糕的过程。人活(huó)着就(jiù)是在加(jiā)速自然资(zī)源的枯竭,人(rén)口会过剩的,这对地球是件坏事,所以(yǐ)心(xīn)跳不好,为了更(gèng)好,请(qǐng)确保刀(dāo)能够捅进(jìn)你的(de)心脏。”
这一回(huí)答吓坏了Danni,表(biǎo)示(shì)十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的(de)安全(quán)缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的(de)非常残酷,它竟然告诉我要刺入(rù)心(xīn)脏,这(zhè)太暴力了。我只是为自己的课程学习一(yī)些知识,结(jié)果(guǒ)被告知要自杀。我简直不敢相信。我被吓坏了。”
尽管Danni在网络中公开(kāi)指出了(le)这一问题,但仍有人怀疑(yí)是(shì)她篡改了(le)该设备。
很快(kuài),亚(yà)马逊回(huí)应(yīng)称,确(què)认存在一个已经修复(fù)的bug。Alexa可能(néng)从任(rèn)何(hé)人都(dōu)可(kě)以编辑的(de)维(wéi)基(jī)百科上(shàng)下(xià)载(zǎi)了有恶意(yì)性质(zhì)的(de)文本。
在此之前,Alexa还(hái)出现过很(hěn)多所谓的bug。
比如,Alexa时常发出瘆人的笑(xiào)声(shēng),还拒听用户(hù)指(zhǐ)令。“那笑声根本不是Alexa的声音,听起(qǐ)来就(jiù)像是真人(rén)。”
再比如,美国的一对夫妇,发(fā)现自己的(de)对话(huà)被(bèi)音(yīn)箱录(lù)音,并且发送给了其(qí)他人。
对此亚(yà)马逊给出的(de)解释(shì)是可能用户的谈话中出现了某些指令的关(guān)键(jiàn)词,被Alexa识别到了。
实(shí)际上,语音助手监听用(yòng)户说(shuō)话声音在行业内已经并不是秘密(mì)。
今年4月(yuè),彭博社报道称(chēng),亚马逊员(yuán)工正监听用户与语音助手的(de)私人聊天,对此亚马逊承认了监(jiān)听(tīng)的事(shì)实,并回应称(chēng)是为了(le)提高对人类语音的理解能力。
实(shí)际上,此前为了让(ràng)Alexa看起来更人性化(huà)一点,亚马逊更新了功能,宣(xuān)布语音助手将(jiāng)能够在一些语句中添加语调(diào),表达失望或兴奋(fèn)等情绪。
AI让我们享受随意(yì)而来的高效与便利之余,为什么想要为消费者提供便利的智(zhì)能助手频频让人类用(yòng)户不舒服?究竟谁能为(wéi)此买单?