人工智能快速發(fā)展引發(fā)安全擔(dān)憂_當(dāng)前速看
原標(biāo)題:以ChatGPT為代表的人工智能技術(shù),在為人們打開新想象空間的同時,如何對其實施有效監(jiān)管也被提上日程——(引題)
人工智能快速發(fā)展引發(fā)安全擔(dān)憂(主題)
梁凡
(相關(guān)資料圖)
今年以來,以ChatGPT為代表的生成式人工智能,憑借其驚艷的語言理解、生成、知識推理能力,在全世界掀起了一波人工智能領(lǐng)域的技術(shù)巨浪,短短兩個月內(nèi)全球活躍用戶數(shù)達(dá)到1億人。
然而,在生成式人工智能技術(shù)“火爆全場”的同時,其引發(fā)的問題、爭議與擔(dān)憂也接踵而至。如何讓監(jiān)管在促進(jìn)技術(shù)發(fā)展與確保社會安全之間實現(xiàn)平衡,將是一個不小的考驗。
一
據(jù)《華爾街日報》報道,一群歐洲議員4月17日致函表達(dá)了他們對人工智能技術(shù)的擔(dān)憂,并呼吁制定更多的規(guī)則來對其加以監(jiān)管。
在信中,議員們列出了他們希望看到歐洲議會采取的幾項舉措,包括在擬議的《人工智能法案》草案中提供一個框架,旨在“引導(dǎo)強大的人工智能朝著以人為本、安全可靠的方向發(fā)展”,此外還提及應(yīng)召開關(guān)注人工智能風(fēng)險的全球峰會。
歐盟內(nèi)部市場委員蒂埃里·布雷頓稱,計劃中的《人工智能法案》將幫助人們消除對新近大熱的ChatGPT聊天機器人以及其他人工智能技術(shù)風(fēng)險的擔(dān)憂。
歐盟理事會則表示,這項法案將與其他倡議齊頭并進(jìn),包括旨在加快歐洲人工智能投資的《人工智能協(xié)調(diào)計劃》。
除歐盟層面外,歐洲多國政府也已將人工智能技術(shù)監(jiān)管提上議程。
意大利負(fù)責(zé)監(jiān)管數(shù)據(jù)的機構(gòu)3月31日宣布將暫時禁止在其境內(nèi)使用ChatGPT,并限制相關(guān)公司處理意大利用戶信息數(shù)據(jù),同時對其隱私安全問題立案調(diào)查。
德國監(jiān)管部門隨后也警告稱,可能會效仿意大利的做法,出于數(shù)據(jù)安全問題阻止ChatGPT在該國的使用。法國、西班牙、英國等國,也紛紛就ChatGPT所引發(fā)的數(shù)據(jù)隱私泄露等問題,展開調(diào)查或發(fā)出警告。
二
事實上,即使在ChatGPT的“老家”美國,政府以及商界、科技界的不少人士,近來也就人工智能技術(shù)監(jiān)管問題密集發(fā)聲,甚至直接“出手”。
18日,美國聯(lián)邦貿(mào)易委員會領(lǐng)導(dǎo)人表示,ChatGPT等最新的人工智能工具可能導(dǎo)致詐騙行為激增,該機構(gòu)將追究濫用人工智能技術(shù)來進(jìn)行欺詐的公司。
美國商務(wù)部11日就人工智能問責(zé)措施公開征求意見,希望了解是否可以采取措施來保證人工智能系統(tǒng)是“合法、有效、合乎道德且安全的”?!度A盛頓郵報》認(rèn)為,這是美國商務(wù)部迄今應(yīng)對人工智能技術(shù)的最重大舉措。
在行政部門的具體監(jiān)管動作外,美國政府高層似乎也在醞釀更宏大的監(jiān)管方案。
4月初,美國總統(tǒng)拜登表示,人工智能是否危險還有待觀察,但他強調(diào),科技公司有責(zé)任確保其產(chǎn)品在公開之前是安全的。
美國參議院多數(shù)黨領(lǐng)袖、民主黨人查克·舒默13日表示,他已經(jīng)起草了一個針對ChatGPT等人工智能工具的監(jiān)管框架,防止其對社會和國家安全可能造成的大范圍影響。
在政府之外,包括特斯拉公司CEO埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人沃茲尼亞克在內(nèi)的一批商界與科技巨頭,也是美國國內(nèi)要求加強人工智能技術(shù)監(jiān)管的一支重要力量。
3月29日,馬斯克等千名業(yè)界和學(xué)界人士聯(lián)署公開信,呼吁所有人工智能實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng),暫停至少6個月,以便制定和實施安全協(xié)議。
4月16日,在一檔哥倫比亞廣播公司的采訪節(jié)目上,谷歌母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊表示,人工智能技術(shù)可能帶來巨大的安全問題,因此必須有監(jiān)管存在,以確保人工智能對世界的影響。
三
人工智能技術(shù)讓人“不省心”的問題,主要是這樣幾個方面:數(shù)據(jù)的來源合法性,用戶數(shù)據(jù)尤其是隱私的安全,虛假信息和網(wǎng)絡(luò)犯罪,商業(yè)秘密泄露風(fēng)險以及國家安全隱患。
在帶來重重隱憂的同時,人工智能技術(shù)的監(jiān)管難度又比較大。一個技術(shù)上的難點在于算法的“可解釋性問題”,深度神經(jīng)網(wǎng)絡(luò)一直存在“算法黑箱”,或許連技術(shù)開發(fā)者也很難說清算法是如何運行的,因此也難以對其加以相應(yīng)的監(jiān)管;另一個技術(shù)難點是,生成式人工智能的供應(yīng)鏈過長,涉及大模型服務(wù)商、開源廠商、應(yīng)用商、云廠商、終端用戶等一連串角色,這也給有針對性的問責(zé)帶來很大的挑戰(zhàn)。
不過,從根本上說,人工智能技術(shù)監(jiān)管最難的地方,還是如何做到既能實現(xiàn)有效監(jiān)管,又不妨礙這一技術(shù)及相關(guān)產(chǎn)業(yè)的發(fā)展。
在此背景下,聯(lián)合國教科文組織上月末號召各國執(zhí)行其《人工智能倫理問題建議書》。
聯(lián)合國教科文組織總干事阿祖萊表示,世界需要加強人工智能倫理規(guī)范,這是“我們這個時代面對的挑戰(zhàn)”。教科文組織《人工智能倫理問題建議書》設(shè)定了適當(dāng)?shù)囊?guī)范性框架,并于2021年11月獲得全部會員國通過?,F(xiàn)在到了在國家層面實施有關(guān)戰(zhàn)略和法規(guī)的時候。
標(biāo)簽: