您的位置:首頁 > 資訊 >

馬斯克等千人聯(lián)名呼吁暫停研發(fā)更強大 AI,人工智能專家稱一些說法“精神錯亂”

北京時間 4 月 3 日上午消息,據(jù)報道,四名人工智能專家的研究結果被一封公開信引用,公開信獲得埃隆?馬斯克聯(lián)合簽名并要求緊急暫停研究人工智能,專家們對此表示擔憂。

截至當?shù)貢r間上周五,這封日期為 3 月 22 日的公開信已獲得超過 1800 個簽名。信中呼吁,在開發(fā)比微軟支持的人工智能研究公司 OpenAI 新 GPT-4“更強大”的系統(tǒng)過程應中斷 6 個月時間。GPT-4 可以進行類似人類的對話、作曲并總結冗長的文件。

自從 GPT-4 的前身 ChatGPT 于去年發(fā)布以來,競爭對手也競相推出類似產(chǎn)品。


(資料圖片)

公開信中說,具有“人類競爭智能”的人工智能系統(tǒng)對人類具有深遠的風險,信中引用了專家的 12 項的研究結果,這些專家包括大學學者,以及 OpenAI、谷歌及其子公司 DeepMind 的現(xiàn)任和前任員工。

此后,美國和歐盟的民間社會團體一直向立法者施壓,要求約束 OpenAI 的研究。OpenAI 沒有立即回應記者的置評請求。

公開信由未來生命研究所發(fā)出,而該研究所主要馬斯克基金會資助。批評人士指責研究所優(yōu)先考慮想象中的世界末日場景,而忽略人工智能帶來的更緊迫的擔憂,比如編程到機器中的種族主義或性別歧視偏見。

信中引用的研究包括瑪格麗特?米歇爾 (Margaret Mitchell) 合著的著名論文《論隨機鸚鵡的危險》。她本人曾在谷歌負責人工智能倫理研究,現(xiàn)在是人工智能公司 Hugging Face 的首席倫理科學家。

但米歇爾本人批評了這封信,并表示目前還不清楚什么東西“比 GPT4 更強大”。“這封信將許多值得商榷的想法視為假定事實,信中提出了一系列有利于未來生命研究所支持者的人工智能優(yōu)先事項和敘述”,她說,“現(xiàn)在,我們沒有特權忽視主動傷害?!?/p>

米歇爾的合著者蒂姆尼特?格布魯(Timnit Gebru)和艾米麗?M?本德(Emily M. Bender)也在 Twitter 上批評了這封信,后者稱信中一些說法“精神錯亂”。

未來生命研究所總裁邁克斯?泰格馬克(Max Tegmark)則表示,這一舉動并不是為了試圖阻礙 OpenAI 的企業(yè)優(yōu)勢。

“這太搞笑了。我看到有人說,‘埃隆?馬斯克正試圖減緩競爭,’”他說,并補充表示,馬斯克沒有參與起草這封信?!斑@件事關乎的不是一家公司。”

目前的風險

康涅狄格大學的助理教授施里?多里-哈科恩(Shiri Dori-Hacohen)也對信中提到她的研究提出了異議。去年她與他人合著了一篇研究論文,論文認為人工智能的廣泛使用已經(jīng)帶來了嚴重的風險。

她的研究認為,今時今日人工智能系統(tǒng)的應用可能會對氣候變化、核戰(zhàn)爭和其他威脅生存相關的決策產(chǎn)生影響。

她表示:“人工智能不需要達到人類水平就會加劇這些風險?!?/p>

“有些非生存風險也真的非常非常重要,但這些風險沒有得到高度重視?!?/p>

當被問及如何評論這些批評意見時,未來生命研究所總裁泰格馬克表示,應該認真對待人工智能的短期和長期風險。

“如果我們引用某人的話語,這只是意味著我們認為他們贊同這句話。這并不意味著他們認可這封信,或者我們認可他們的所有想法,”他說。

公開信中引用的另一個專家是總部位于加州的人工智能安全中心主任丹?亨德里克斯 (Dan Hendrycks)。他支持信中內容,并表示,考慮黑天鵝事件是明智的。黑天鵝事件是指那些看起來不太可能發(fā)生,但會產(chǎn)生毀滅性后果的事件。

公開信還警告稱,生成式人工智能工具可能被用來在互聯(lián)網(wǎng)上充斥“宣傳和謊言”。

多里-哈科恩表示,馬斯克簽署這份公開信“相當富有”,他援引民間社團組織 Common Cause 等機構記錄的消息稱,在馬斯克收購 Twitter 平臺后,Twitter 上的錯誤信息有所增加。

Twitter 將很快推出針對訪問其研究數(shù)據(jù)的一種新的收費架構,這可能會阻礙對該主題的研究。

“這直接影響了我的實驗室工作,以及其他研究錯誤和虛假信息的人的工作,” 多里-哈科恩說?!拔覀兪艿搅耸`?!?/p>

馬斯克和 Twitter 沒有立即回應置評請求。

標簽:

相關閱讀