您的位置:首頁(yè) > 資訊 >

ChatGPT 情商很高,但事實(shí)表明它并不適合當(dāng)搜索引擎

4 月 26 日消息,美媒稱,目前基于大型語(yǔ)言模型的人工智能工具,例如 ChatGPT,更擅長(zhǎng)共情而不是提供準(zhǔn)確的事實(shí)信息。這是因?yàn)樵O(shè)計(jì)者優(yōu)先考慮流暢性而非準(zhǔn)確性。加之訓(xùn)練數(shù)據(jù)庫(kù)中包含大量情感信息,將大型語(yǔ)言模型植入搜索引擎的競(jìng)爭(zhēng)毫無(wú)意義。

圖源 Pexels

今年早些時(shí)候,普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授阿爾溫德?納拉亞南(Arvind Narayanan)為自己四歲的女兒開(kāi)發(fā)了支持 ChatGPT 的語(yǔ)音界面。這不僅是一個(gè)實(shí)驗(yàn),更是因?yàn)榧{拉亞南相信,人工智能機(jī)器人有一天會(huì)成為女兒生活中的重要組成部分。


(資料圖片僅供參考)

納拉亞南的女兒天生好奇,經(jīng)常問(wèn)他有關(guān)動(dòng)物、植物和人體的問(wèn)題。他認(rèn)為 OpenAI 開(kāi)發(fā)的 ChatGPT 可以提供有用的答案。令他驚訝的是,一旦他告訴系統(tǒng)正在與小孩對(duì)話,這款聊天機(jī)器人就能表現(xiàn)出無(wú)可挑剔的共情能力。

納拉亞南的女兒?jiǎn)枺骸盁魷缌藭?huì)怎么樣?”

“燈滅了,天就黑了,可能會(huì)有點(diǎn)嚇人,”ChatGPT 用人工合成的聲音回答道。“但別擔(dān)心!”“你可以做很多事情來(lái)讓自己在黑暗中感到安全舒適?!?/p>

ChatGPT 隨后提出了一些使用夜燈的建議,并最后提醒:“在黑暗中感到有點(diǎn)害怕很正常?!边@個(gè)解釋顯然讓納拉亞南的女兒感到很安心。

微軟和谷歌正急于使用大型語(yǔ)言模型技術(shù)來(lái)強(qiáng)化搜索引擎。但有充分的理由認(rèn)為,相比于提供事實(shí)性信息,這項(xiàng)技術(shù)更適合作為人們情感上的伴侶。

聽(tīng)起來(lái)可能很奇怪。但無(wú)論是谷歌的 Bard 還是微軟的新 Bing,這種人工智能在用于搜索信息時(shí)都出現(xiàn)了一系列尷尬的事實(shí)性錯(cuò)誤。Bard 在首次公開(kāi)演示時(shí)就給出了關(guān)于詹姆斯?韋伯太空望遠(yuǎn)鏡的錯(cuò)誤信息,而新 Bing 也搞錯(cuò)了一大堆財(cái)務(wù)報(bào)表數(shù)據(jù)。

當(dāng)人工智能聊天機(jī)器人用于搜索時(shí),出現(xiàn)事實(shí)性錯(cuò)誤的代價(jià)很高。Replika 是一款人工智能應(yīng)用程序,下載量已經(jīng)超過(guò) 500 萬(wàn)次。該應(yīng)用程序的創(chuàng)始人尤金尼亞?庫(kù)伊達(dá) (Eugenia Kuyda) 表示,當(dāng)人工智能被設(shè)計(jì)成伴侶時(shí),出現(xiàn)錯(cuò)誤的代價(jià)就要低得多。她說(shuō):“這不會(huì)影響用戶體驗(yàn),不像搜索,小小錯(cuò)誤就會(huì)破壞用戶對(duì)產(chǎn)品的信任?!?/p>

谷歌前人工智能研究員瑪格麗特?米切爾 (Margaret Mitchell) 曾與人合作撰寫(xiě)過(guò)一篇關(guān)于大型語(yǔ)言模型風(fēng)險(xiǎn)的論文。她表示,大型語(yǔ)言模型根本“不適合”作為搜索引擎。這些大型語(yǔ)言模型之所以會(huì)出錯(cuò),是因?yàn)橛?xùn)練所用的數(shù)據(jù)經(jīng)常包含錯(cuò)誤信息,而且模型也沒(méi)有基本事實(shí)來(lái)驗(yàn)證所生成的內(nèi)容。此外,大型語(yǔ)言模型的設(shè)計(jì)者可能優(yōu)先考慮生成內(nèi)容的流暢性,而不是準(zhǔn)確性。

這也是這些工具特別擅長(zhǎng)迎合用戶的原因之一。畢竟,目前大型語(yǔ)言模型都是從網(wǎng)上抓取文本進(jìn)行訓(xùn)練,其中包括推特和 Facebook 等社交媒體平臺(tái)上發(fā)布的情緒性內(nèi)容,以及 Reddit 和 Quora 等論壇上的個(gè)人心理疏導(dǎo)內(nèi)容。電影電視劇中的臺(tái)詞、小說(shuō)中的對(duì)話,以及關(guān)于情商的研究論文都進(jìn)入了訓(xùn)練數(shù)據(jù)庫(kù),這使得這些工具更具有同理心。

據(jù)報(bào)道,一些人把 ChatGPT 當(dāng)成機(jī)器人治療師來(lái)使用。其中一位說(shuō),他們這樣做是為了避免成為別人的負(fù)擔(dān)。

為了測(cè)試人工智能的共情能力,人們對(duì) ChatGPT 進(jìn)行了一次在線情商測(cè)試。結(jié)果顯示,它表現(xiàn)出色,在社會(huì)意識(shí)、關(guān)系管理和自我管理方面都獲得了滿分,在自我意識(shí)方面只是略有差池。

從某種程度上來(lái)說(shuō),ChatGPT 在測(cè)試中的表現(xiàn)比一些人還要好。

雖然一臺(tái)機(jī)器能為人們帶來(lái)共情感受有點(diǎn)不真實(shí),但確實(shí)有一定道理。人們天生需要社會(huì)聯(lián)系,人類大腦也有能力反映他人感受,這意味著即使對(duì)方?jīng)]有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經(jīng)元會(huì)在我們感受到他人的共情時(shí)被激活,給我們帶來(lái)一種彼此相連的感覺(jué)。

當(dāng)然,共情是一個(gè)涉及多方面的概念,要想真正體驗(yàn)到這種感覺(jué),人們還是需要與真正的人進(jìn)行交流。

倫敦國(guó)王學(xué)院臨床心理學(xué)家托馬斯?沃德 (Thomas Ward) 研究了軟件在心理治療中的作用,他警告人們不要想當(dāng)然地認(rèn)為,特別是在心理問(wèn)題很嚴(yán)重的情況下,人工智能可以充分滿足人們?cè)谛睦斫】捣矫娴男枨蟆@?,聊天機(jī)器人可能無(wú)法理解人的情感復(fù)雜性。換句話說(shuō),ChatGPT 很少說(shuō)“我不知道”,因?yàn)樗谠O(shè)計(jì)上傾向于自信而不是謹(jǐn)慎回答問(wèn)題。

人們也不應(yīng)該把聊天機(jī)器人作為發(fā)泄情感的習(xí)慣性渠道。沃德說(shuō):“在將人工智能聊天機(jī)器人視為消除孤獨(dú)方式的世界里,微妙的人際關(guān)系,例如拉住手或明白何時(shí)說(shuō)話何時(shí)傾聽(tīng),可能會(huì)消失?!?/p>

這可能會(huì)最終導(dǎo)致更多問(wèn)題。但就目前而言,人工智能在情感方面的技能至少要比它們掌握的事實(shí)更可靠。

標(biāo)簽:

相關(guān)閱讀