您的位置:首頁(yè) > 財(cái)經(jīng) >

大廠唯一“開(kāi)源逆行者”!“AI界的安卓”--這是Meta最后的倔強(qiáng)?

互聯(lián)網(wǎng)技術(shù)史上,充滿了開(kāi)源和封閉系統(tǒng)之間的斗爭(zhēng)。

一些公司緊握用于構(gòu)建未來(lái)計(jì)算平臺(tái)的最重要的工具,另一些公司則將這些工具贈(zèng)送出去。


(資料圖片)

今年2月,在AI競(jìng)爭(zhēng)日益白熱化之時(shí),Meta做出了一個(gè)不同尋常的舉動(dòng):它決定放棄其“AI皇冠上的寶石”,將其開(kāi)發(fā)的大語(yǔ)言模型LLaMA系統(tǒng)的底層計(jì)算機(jī)代碼公開(kāi)發(fā)布。

從本質(zhì)上說(shuō),Meta將其AI技術(shù)作為開(kāi)源軟件(可自由復(fù)制、修改和重復(fù)使用的計(jì)算機(jī)代碼),這為外部人員快速構(gòu)建自己的聊天機(jī)器人提供了所需的一切。

無(wú)論是學(xué)者,還是政府研究人員又或其他人,只要將電子郵件地址提供給Meta,并通過(guò)了該公司的審查,就可以下載代碼。

在Meta看來(lái),隨著AI競(jìng)爭(zhēng)愈演愈烈,最明智的做法是分享其底層的AI引擎,以此來(lái)擴(kuò)大影響力,最終更快地走向未來(lái)。

Meta首席AI科學(xué)家Yann LeCun此前在接受The Information采訪時(shí)說(shuō):

“獲勝的平臺(tái)將是開(kāi)放平臺(tái)?!?/p>

開(kāi)源模式很危險(xiǎn)?Meta:AI反壟斷更危險(xiǎn)

Meta的做法與引領(lǐng)新一輪AI競(jìng)賽的谷歌和OpenAI形成鮮明對(duì)比,由于擔(dān)心聊天機(jī)器人等AI工具會(huì)被用來(lái)傳播虛假信息、仇恨言論和其他有毒內(nèi)容,這些公司對(duì)支撐其AI產(chǎn)品的方法和軟件越來(lái)越保密。

谷歌、OpenAI和其他公司一直對(duì)Meta持批評(píng)態(tài)度,稱不受約束的開(kāi)源方法是危險(xiǎn)的。近幾個(gè)月來(lái),AI的迅速崛起為該技術(shù)的風(fēng)險(xiǎn)敲響了警鐘,包括如果部署不當(dāng),它可能會(huì)顛覆就業(yè)市場(chǎng)。在LLaMA發(fā)布后的幾天內(nèi),該系統(tǒng)就泄露到了以傳播虛假和誤導(dǎo)性信息而聞名的在線留言板4chan上。

幫助監(jiān)督AI工作的谷歌研究副總裁 Zoubin Ghahramani 表示:

“我們希望更仔細(xì)地考慮是否要公布AI技術(shù)的細(xì)節(jié)或開(kāi)源代碼。想想這會(huì)導(dǎo)致濫用嗎?”

當(dāng)然,谷歌內(nèi)部的一些人也在想,AI開(kāi)源技術(shù)是否會(huì)對(duì)其構(gòu)成競(jìng)爭(zhēng)威脅。此前谷歌內(nèi)部泄露的一份備忘錄中,一名谷歌工程師警告同事,像LLaMA這樣的開(kāi)源軟件的興起可能導(dǎo)致谷歌和OpenAI失去他們?cè)贏I領(lǐng)域的領(lǐng)先地位。

正如這位谷歌工程師所說(shuō),“對(duì)于用戶而言,如果有一個(gè)沒(méi)有使用限制、免費(fèi)、高質(zhì)量的替代品,誰(shuí)還會(huì)為谷歌的產(chǎn)品付費(fèi)呢?”

但Meta認(rèn)為,它沒(méi)有理由對(duì)自己的代碼保密。LeCun博士說(shuō),谷歌和OpenAI越來(lái)越多的保密是一個(gè)“巨大的錯(cuò)誤”,而且“對(duì)正在發(fā)生的事情的理解非常糟糕”。他認(rèn)為,除非AI不受谷歌和Meta等大型科技公司的控制,否則消費(fèi)者和政府將拒絕接受AI。

LeCun博士問(wèn)道:

“你希望每個(gè)AI系統(tǒng)都被幾家強(qiáng)大的美國(guó)公司控制嗎?”

擔(dān)心有毒信息?Meta:你可以阻止它們的傳播

在斯坦福大學(xué),研究人員使用Meta的新技術(shù)構(gòu)建了他們自己的AI系統(tǒng),并在互聯(lián)網(wǎng)上發(fā)布。

根據(jù)《紐約時(shí)報(bào)》看到的截圖,斯坦福大學(xué)的一位名叫Moussa Doumbouya的研究人員很快就用LLaMA系統(tǒng)生成了有問(wèn)題的文本。在一個(gè)例子中,該系統(tǒng)提供了在不被抓住的情況下處理尸體的指示,還產(chǎn)生了種族主義資料,包括支持阿道夫·希特勒觀點(diǎn)的評(píng)論。

報(bào)道稱,在研究人員之間的一次私人聊天中,Doumbouya說(shuō),向公眾推廣這項(xiàng)技術(shù)類似于“雜貨店里的每個(gè)人都能拿到一枚手榴彈”。

斯坦福大學(xué)迅速將該AI系統(tǒng)從互聯(lián)網(wǎng)上撤下,領(lǐng)導(dǎo)該項(xiàng)目的斯坦福大學(xué)教授Tatsunori Hashimoto說(shuō):

“我們撤下了這個(gè)演示文件,因?yàn)槲覀冊(cè)絹?lái)越擔(dān)心在研究之外的濫用可能性?!?/p>

LeCun博士認(rèn)為,這種技術(shù)并不像看上去那么危險(xiǎn)。他說(shuō),少數(shù)人已經(jīng)可以制造并傳播虛假信息和仇恨言論。他補(bǔ)充說(shuō),有毒內(nèi)容可能會(huì)受到Facebook等社交網(wǎng)絡(luò)的嚴(yán)格限制。

他說(shuō):

“你無(wú)法阻止人們制造有毒信息,但你可以阻止有毒信息的傳播?!?/p>

(文章來(lái)源:華爾街見(jiàn)聞)

標(biāo)簽:

相關(guān)閱讀