英国《新科学家》周刊网站8月7日文章,原题:人工智能(néng)聊(liáo)天机器人能否(fǒu)受(shòu)到“说真(zhēn)话”法律义务的约束人们能要求人工智能(néng)讲(jiǎng)真话(huà)吗?或许不(bú)能,但一个伦理(lǐ)学家(jiā)团队表示,从(cóng)法(fǎ)律(lǜ)上来说,人工智能开发商(shāng)应(yīng)该承担(dān)减少犯错风险的责任。“我们只是在(zài)尝试创建一种(zhǒng)激励(lì)构架,让公(gōng)司在创建(大语(yǔ)言模(mó)型)系统时更重(chóng)视真实性或(huò)准确性,”牛(niú)津大学伦理学家布(bù)伦特·米特尔施(shī)塔特(tè)说(shuō)。
基于对大(dà)量文本的(de)统计分析,大语言模型聊天机(jī)器人,例如ChatGPT能对用(yòng)户提出(chū)的(de)问题生成(chéng)类似人类(lèi)的(de)回答。然而(ér),尽管它们的答案通常看(kàn)起(qǐ)来令人信服,但也容易出错,这(zhè)是一种被(bèi)称为“幻觉”的(de)缺陷。米特尔施塔特说:“我们拥有这些极其(qí)令人(rén)印象深刻的生成式人(rén)工智能系统,但它们也会频繁出错,从我们对这种系(xì)统基(jī)本机能的了解来(lái)看(kàn),没有根本(běn)的解决方法(fǎ)。”
米特(tè)尔施塔特(tè)表示(shì),对(duì)大语言(yán)模型系(xì)统来(lái)说,这是一个重大问题,因为它(tā)们正在被应用(yòng)于政府决(jué)策(cè),在这种情况下,它(tā)们(men)诚实地承认(rèn)自己的(de)知识局(jú)限性就(jiù)变(biàn)得至(zhì)关(guān)重要。为解决这个问题(tí),他们(men)提出一系列应对措施(shī):当被问及与事实有(yǒu)关的问(wèn)题时(shí),人工智能应该像人一样。这意味着它们要(yào)诚实,秉持“知之为知之,不知为(wéi)不知,是知也(yě)”的态(tài)度(dù)。“要点在于采取(qǔ)必(bì)要步骤,让它们真正做到谨(jǐn)言(yán)慎行(háng),”米特尔施塔特说,“如果对某件(jiàn)事不(bú)确(què)定,它们(men)不要只是为了(le)让人们(men)信服而编造一些东(dōng)西(xī)。相反,它们应该说,‘嘿(hēi),你知道(dào)吗?我不知(zhī)道。让我来研究一(yī)下。我会回复你(nǐ)的。’”
这似乎是一个值得称赞的目标,但在英国(guó)德蒙福(fú)特大(dà)学网络安全(quán)教(jiāo)授伊(yī)尔(ěr)克(kè)·鲍伊腾看(kàn)来,伦理(lǐ)学家提出的这些要求(qiú)在技术上(shàng)未必可(kě)行。开发商正尝试让人工(gōng)智能实事求(qiú)是,但到(dào)目前为止,事实(shí)证明这是一项(xiàng)极其(qí)“劳动密集型”的任务,甚至不切(qiē)实际。“我不明白,他(tā)们怎么期望法律要求强制执行(háng)这种(zhǒng)命令,我(wǒ)认(rèn)为(wéi)这在技术(shù)上根本(běn)行不通,”鲍伊腾说。
为此,米特尔施塔特及其同事(shì)们提(tí)出一些更直接的措(cuò)施,可能使人工智能更“诚实”。他说,这些模(mó)型应该列出答案的信息源,目前许多模型都在(zài)这样做以证明它(tā)们给出答(dá)案的可信度,此外,更广泛(fàn)地使用(yòng)一种(zhǒng)被(bèi)称为(wéi)“检索(suǒ)增强(qiáng)”的(de)技术来给出答案,也可能限制这些模型产生“幻觉(jiào)”的可能(néng)性。他还认为,应该缩减在政府决策等高风险领域部(bù)署人工智能的规模,或(huò)者应该限制模(mó)型可利(lì)用的信息源。“如果我们有一(yī)个仅在医学中使用的语(yǔ)言模型,我们就应(yīng)该限制它,让它只能在高质(zhì)量医(yī)学期刊上(shàng)搜索学(xué)术文章。”
米特尔施塔特(tè)声称,改(gǎi)变观(guān)念也很重要,“如果我们(men)能摆脱所谓(大语言模型)善(shàn)于回答事实性问题、或者(zhě)它(tā)们至少会给你一个可靠答案的想法,而是(shì)认为它们有助于为你提供更多相关的(de)信息,那就太(tài)好了。”
但(dàn)荷兰乌得勒支大学法学(xué)院副(fù)教授卡塔琳(lín)娜·戈安(ān)塔表示,这些研究(jiū)人员过于关注技术,因此(cǐ)对(duì)公共(gòng)话(huà)语中(zhōng)长期存在的谎言问题关(guān)注不够。“在这种(zhǒng)背景下,仅将矛头(tóu)指向大语言模型会制(zhì)造(zào)一种假象,即人类非(fēi)常勤(qín)奋细(xì)致,永远不会犯此类错误。问问(wèn)你遇到的任何法官,他们(men)都遇到(dào)过律师玩忽职守的可怕经历,反之亦然——这并(bìng)非一个机器的问题。”(作者克里斯(sī)·斯托克(kè)尔-沃克,王会聪译)