OpenAI 預(yù)測(cè)超智能 AI 十年內(nèi)出現(xiàn),正研究用 AI 來(lái)監(jiān)督 AI
(資料圖)
北京時(shí)間 7 月 6 日早間消息,當(dāng)?shù)貢r(shí)間周三,ChatGPT 的開(kāi)發(fā)者 OpenAI 表示計(jì)劃投入更多資源并成立新的研究團(tuán)隊(duì),研究如何確保 AI 對(duì)人類的安全性,最終實(shí)現(xiàn)用 AI 來(lái)監(jiān)督 AI。
OpenAI 聯(lián)合創(chuàng)始人伊利亞?蘇茨凱弗(Ilya Sutskever)和 AI 對(duì)齊負(fù)責(zé)人簡(jiǎn)?萊克(Jan Leike)在官方博客中表示:“超級(jí)智能的巨大能力可能導(dǎo)致人類失去力量甚至滅絕。目前,我們還沒(méi)有解決方案來(lái)操縱或控制一個(gè)可能的超智能 AI,并防止其變成無(wú)賴?!?/p>
這篇博文預(yù)測(cè),超智能 AI,即相比于人類更智能的系統(tǒng),可能會(huì)在未來(lái) 10 年中出現(xiàn)。人類需要比目前更強(qiáng)大的技術(shù)來(lái)控制超智能 AI,因此需要在“AI 對(duì)齊研究”方面取得突破,確保人 AI 對(duì)人類持續(xù)有益。AI 對(duì)齊是 AI 控制中的主要問(wèn)題,即要求 AI 的目標(biāo)和人類的價(jià)值觀與意圖保持一致。
作者寫道,OpenAI 將在未來(lái) 4 年內(nèi),將算力的 20% 專門用于解決這方面問(wèn)題。此外,該公司將組建新的“超對(duì)齊”團(tuán)隊(duì)來(lái)組織這方面的工作。
該團(tuán)隊(duì)的目標(biāo)是開(kāi)發(fā)達(dá)到“人類水平”,由 AI 驅(qū)動(dòng)的對(duì)齊研究員,隨后通過(guò)龐大的算力推動(dòng)其發(fā)展。OpenAI 表示,這意味著將使用人工反饋來(lái)訓(xùn)練 AI 系統(tǒng),通過(guò)訓(xùn)練 AI 系統(tǒng)來(lái)協(xié)助人工評(píng)估,最終訓(xùn)練 AI 系統(tǒng)來(lái)進(jìn)行實(shí)際的對(duì)齊研究。
不過(guò),人工智能安全的倡導(dǎo)者康納?萊希(Connor Leahy)表示,OpenAI 的計(jì)劃存在根本性缺陷,因?yàn)樽畛醯娜祟愃?AI 可能會(huì)失控并造成嚴(yán)重破壞,而這將迫使研究者去解決 AI 安全問(wèn)題。他在接受采訪時(shí)表示:“在構(gòu)建人類水平的智能之前,必須先解決對(duì)齊問(wèn)題,否則默認(rèn)情況下你無(wú)法控制它。我個(gè)人認(rèn)為這不是個(gè)特別好的、安全的計(jì)劃。”
AI 的潛在危險(xiǎn)一直是 AI 研究員和公眾最關(guān)心的問(wèn)題。今年 4 月,一群 AI 行業(yè)領(lǐng)袖和專家簽署公開(kāi)信,呼吁暫停 6 個(gè)月開(kāi)發(fā)比 OpenAI 的 GPT-4 更強(qiáng)大的系統(tǒng),原因是對(duì)社會(huì)存在潛在風(fēng)險(xiǎn)。益普索今年 5 月的調(diào)查發(fā)現(xiàn),超過(guò) 2/3 的美國(guó)人擔(dān)心 AI 可能產(chǎn)生的負(fù)面影響,61% 的人認(rèn)為 AI 可能威脅人類文明。
廣告聲明:本文含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考。IT之家所有文章均包含本聲明。
標(biāo)簽: