環(huán)球關(guān)注:潘多拉魔盒?如何給狂飆的AI安上“剎車”
(資料圖片僅供參考)
原標題:潘多拉魔盒?如何給狂飆的AI安上“剎車”
從橫空出世到持續(xù)大火,ChatGPT不僅引發(fā)科技圈狂歡,也備受各國監(jiān)管部門的關(guān)注。
歐洲議會近日通過了關(guān)于《AI法案》的談判授權(quán)草案,該項法案光修正案就有一千多項。其中包含了有關(guān)面部識別、生物識別監(jiān)控和其他AI應(yīng)用使用的新規(guī)則,并提出嚴格監(jiān)管ChatGPT等AI工具。無獨有偶,作為未來監(jiān)管的第一步,美國商務(wù)部上月已就相關(guān)措施正式公開征求意見,包括新AI模型在發(fā)布前是否應(yīng)經(jīng)過認證程序。
說起來,自AI誕生那天起人類就憂慮重重:作為頂尖智慧和技術(shù)的結(jié)晶,AI會不會帶來我們無法承受的種種風險,甚至走向失控?彼時,機器人之父圖靈如此告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。以歷史視角觀之,“機器人三定律”等似乎緩解了一些憂慮,但隨著相關(guān)技術(shù)的發(fā)展和應(yīng)用的擴大,人工智能所面臨的法律與倫理沖突的復(fù)雜性遠不是幾條簡單甚至“一廂情愿”的定律所能約束的了。尤其在過去這段時間里,ChatGPT讓人驚喜不已,但同時也喚醒并加劇了人類對其后風險的“原始畏懼”。無論是全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)比GPT-4更強大的AI系統(tǒng),還是在業(yè)內(nèi)有“AI教父”之稱的計算機科學家杰弗里·辛頓因?qū)ι墒紸I感到擔憂而于本月初離職谷歌,無不折射出不少人對AI的心態(tài)已從“相對警惕”轉(zhuǎn)變?yōu)椤叭缗R大敵”。
理性來看,“AI末日論”多少有些危言聳聽,但種種現(xiàn)實擔憂也絕非杞人憂天。就眼下來看,不斷進階的AI正催生著多重風險——由于無法核實數(shù)據(jù)來源的真實性,以及缺乏足夠數(shù)據(jù)進行深度學習,生成式AI常會“一本正經(jīng)”生成和傳播虛假信息;數(shù)據(jù)挖掘像個“黑箱”,簡單快捷、“百無禁忌”,為學術(shù)不端大開方便之門不說,還可能侵犯知識產(chǎn)權(quán),以及泄露個人數(shù)據(jù)隱私和商業(yè)秘密……試想,當網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,當AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠以一鍵換臉、一鍵脫衣等危害公共秩序,我們是否還有信心用好這個工具?更關(guān)鍵的,人類從來都是在思考中迸發(fā)靈感、在試錯中革新向前,可當AI提供了前往正確答案的“直通車”,不僅可能“挖空學習資源”,更可能反噬創(chuàng)新。
技術(shù)是把雙刃劍,如何把握好技術(shù)創(chuàng)新與防范風險的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測其影響并采取行動;而當它已經(jīng)出現(xiàn)時,采取行動往往為時已晚或成本過高。相對樂觀的是,人類又總能通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。以汽車為例,在大規(guī)模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,甚至在汽車發(fā)明100多年后,我們還在為其安全“打補丁”——加裝安全氣囊。以史為鑒,為狂奔的AI安上“剎車”,同樣勢在必行。
無規(guī)矩不成方圓。這一方面歐美在行動,中國也在積極探索。一個月前,網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,從大模型的數(shù)據(jù)來源要可靠、對AI生成的內(nèi)容應(yīng)履行告知義務(wù)、一旦造成損害相關(guān)責任方需要承擔責任等方面給生成式AI的發(fā)展套上了“籠頭”。誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實。但確保其被健康地使用,防止打開潘多拉魔盒,卻是必要的。換句話說,除了跟上創(chuàng)新步伐、謀求技術(shù)突破,如何構(gòu)建一套趨利避害的AI治理體系,同樣是一條不可忽視的競爭賽道。
“利維坦”“烏托邦”這兩個詞匯,想必大家都很熟悉。有學者借此,將“賽先生”的兩個發(fā)展趨向形容為“賽維坦”(對科技無所抗拒又無能為力)和“賽托邦”(科技最大程度造福社會)。如今重重挑戰(zhàn)在前,我們不必過分悲觀,也不能盲目樂觀,堅定馴服“賽維坦”的信心,保持實現(xiàn)“賽托邦”的理想,在遵從科技倫理、人本主義、法治理念的基礎(chǔ)上,不斷完善人工智能相關(guān)法規(guī),力求價值引領(lǐng)與技術(shù)“糾錯”并行、秩序保障與創(chuàng)新提升協(xié)同、權(quán)益維護與義務(wù)承擔對稱,就能最大程度爭取科技向善。(晁星)
標簽: