世界觀熱點(diǎn):首秀“翻車”后,谷歌高管警告:AI 聊天機(jī)器人有時(shí)會(huì)一本正經(jīng)地胡說八道
(資料圖片僅供參考)
IT之家 2 月 12 日消息,本周谷歌新推出的 AI 聊天機(jī)器人 Bard 在回答查詢時(shí)給出錯(cuò)誤答案,導(dǎo)致其母公司 Alphabet 股價(jià)暴跌 8%,市值縮水 1000 多億美元。
美東時(shí)間周六,谷歌公司搜索引擎高管在接受媒體采訪時(shí)表示,目前的生成性人工智能形式(如 ChatGPT),可能是不可靠的,要警惕聊天機(jī)器人中人工智能的陷阱。
谷歌高級(jí)副總裁兼谷歌 Search 負(fù)責(zé)人普拉巴卡爾?拉加萬(Prabhakar Raghavan)在接受采訪時(shí)表示:“我們現(xiàn)在談?wù)摰倪@種人工智能,有時(shí)會(huì)導(dǎo)致出現(xiàn)某種我們所謂的錯(cuò)覺(hallucination),具體表現(xiàn)為機(jī)器會(huì)一個(gè)看起來令人信服但卻完全是捏造的答案?!?/p>
拉加萬補(bǔ)充說,目前人工智能行業(yè)的基本任務(wù)之一,就是將這種情況控制在最低限度。
IT之家了解到,事實(shí)上,許多 ChatGPT 用戶,包括蘋果公司聯(lián)合創(chuàng)始人史蒂夫-沃茲尼亞克,都抱怨其經(jīng)常給出錯(cuò)誤答案。
自從 OpenAI 的 ChatGPT 推出以來,谷歌的開發(fā)人員一直面臨著巨大的壓力,該技術(shù)已經(jīng)風(fēng)靡全球,并威脅到谷歌的核心業(yè)務(wù)?!拔覀冿@然感受到了緊迫性,但我們也感受到了巨大的責(zé)任,”拉加萬說,“我們當(dāng)然不希望誤導(dǎo)公眾”。