世界視點(diǎn)!理性應(yīng)對(duì)ChatGPT網(wǎng)絡(luò)安全威脅
原標(biāo)題:理性應(yīng)對(duì)ChatGPT網(wǎng)絡(luò)安全威脅
聊天機(jī)器人ChatGPT的最初功能定位是以貼近人類溝通的方式進(jìn)行人機(jī)互動(dòng),但是用戶在使用過(guò)程中發(fā)現(xiàn),ChatGPT除了能與用戶進(jìn)行正常對(duì)話外,甚至能夠很好地完成代碼、論文、短評(píng)、新聞、翻譯、郵件等內(nèi)容的創(chuàng)作,并讓人難以分辨其創(chuàng)作者為真人還是機(jī)器人。
(資料圖片)
ChatGPT作為一種現(xiàn)象級(jí)產(chǎn)品,表現(xiàn)出的強(qiáng)大功能展現(xiàn)了人工智能技術(shù)對(duì)社會(huì)人力資源分配和產(chǎn)業(yè)結(jié)構(gòu)優(yōu)化的潛在市場(chǎng)價(jià)值。但與任何一項(xiàng)新技術(shù)應(yīng)用一樣,ChatGPT也會(huì)具有兩面性,在提升人類生活品質(zhì)和工作效率的同時(shí),也有可能因其濫用而產(chǎn)生一些負(fù)面的社會(huì)效果,特別是其有可能產(chǎn)生網(wǎng)絡(luò)安全威脅:
第一,ChatGPT的代碼編寫功能將拓展黑客攻擊的技術(shù)工具,使得原有的網(wǎng)絡(luò)攻擊呈現(xiàn)更加龐大的規(guī)模化趨勢(shì)。ChatGPT能夠輔助黑客高效完成惡意軟件的編寫,如此一來(lái),針對(duì)關(guān)鍵信息基礎(chǔ)設(shè)施有組織、有規(guī)模的網(wǎng)絡(luò)安全攻擊頻次將會(huì)增加,同時(shí),過(guò)去以大型企業(yè)為主要目標(biāo)的攻擊模式可能轉(zhuǎn)變?yōu)槟依ù笾行⌒推髽I(yè)的攻擊模式。
第二,ChatGPT的信息編寫功能能夠輔助網(wǎng)絡(luò)詐騙分子生成規(guī)模化、低成本的網(wǎng)絡(luò)釣魚軟件,并且生成的詐騙信息由于具有智能化特征,使得被詐騙者識(shí)別信息真?zhèn)蔚碾y度增加。
第三,ChatGPT的信息編寫功能可能導(dǎo)致網(wǎng)絡(luò)虛假信息泛濫,并且網(wǎng)絡(luò)用戶更加難以甄別這些信息的真?zhèn)危纱司W(wǎng)絡(luò)空間輿情治理壓力勢(shì)必增加。
針對(duì)這些問(wèn)題,有專家學(xué)者提出應(yīng)對(duì)ChatGPT“制定專門立法”“制定配套措施”。實(shí)際上,ChatGPT的市場(chǎng)成功不等于人工智能產(chǎn)業(yè)取得了突破性發(fā)展??紤]到ChatGPT目前能夠處理的工作任務(wù)具有鮮明的重復(fù)性、模板性特征,因此,監(jiān)管機(jī)構(gòu)沒(méi)有必要立即將ChatGPT技術(shù)監(jiān)管作為現(xiàn)階段網(wǎng)絡(luò)空間治理的核心工作任務(wù),否則,我國(guó)立法模式會(huì)陷入“出現(xiàn)一項(xiàng)新技術(shù),制定一項(xiàng)新規(guī)定”的邏輯怪圈。
其實(shí),我國(guó)已先后頒布了網(wǎng)絡(luò)安全法、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī),針對(duì)人工智能技術(shù)和算法技術(shù)濫用規(guī)定了詳細(xì)的法定義務(wù)和監(jiān)管體系,足以應(yīng)對(duì)短期內(nèi)ChatGPT可能導(dǎo)致的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)?,F(xiàn)階段,我國(guó)監(jiān)管部門可以充分利用現(xiàn)有法律制度,加強(qiáng)對(duì)ChatGPT相關(guān)產(chǎn)業(yè)的監(jiān)管;未來(lái)在經(jīng)驗(yàn)成熟時(shí),可以考慮啟動(dòng)人工智能技術(shù)應(yīng)用領(lǐng)域的立法,以應(yīng)對(duì)各種潛在的安全風(fēng)險(xiǎn)。
首先,重點(diǎn)監(jiān)管大型企業(yè)研發(fā)活動(dòng),落實(shí)人工智能技術(shù)標(biāo)準(zhǔn)。ChatGPT對(duì)于算法、數(shù)據(jù)乃至服務(wù)器的需求量驚人,具備開(kāi)發(fā)類似產(chǎn)品的主體大多僅限于超大型互聯(lián)網(wǎng)企業(yè)或技術(shù)公司。在相關(guān)產(chǎn)品投入市場(chǎng)之前,可以利用算法備案機(jī)制,對(duì)具備影響網(wǎng)絡(luò)安全和國(guó)家安全可能性的產(chǎn)品或服務(wù)進(jìn)行安全性審查。并且,相較于對(duì)用戶使用行為進(jìn)行監(jiān)管而言,從源頭上對(duì)研發(fā)企業(yè)進(jìn)行監(jiān)管成效更顯著,且研發(fā)企業(yè)也有技術(shù)能力對(duì)惡意軟件代碼片段編寫功能進(jìn)行限制。
其次,明確研發(fā)機(jī)構(gòu)、網(wǎng)絡(luò)平臺(tái)經(jīng)營(yíng)者對(duì)于人工智能產(chǎn)品應(yīng)用的安全風(fēng)險(xiǎn)評(píng)估義務(wù)。ChatGPT及其類似產(chǎn)品本身不具有社會(huì)危害性,關(guān)鍵在于以不當(dāng)方式使用可能導(dǎo)致一定的損害結(jié)果。針對(duì)ChatGPT可能引發(fā)的網(wǎng)絡(luò)釣魚郵件等網(wǎng)絡(luò)詐騙風(fēng)險(xiǎn),應(yīng)當(dāng)明確作為“危險(xiǎn)制造者”的研發(fā)機(jī)構(gòu)、網(wǎng)絡(luò)平臺(tái)經(jīng)營(yíng)者在此類產(chǎn)品投入市場(chǎng)之前進(jìn)行安全風(fēng)險(xiǎn)評(píng)估,確保風(fēng)險(xiǎn)可控。
最后,需要關(guān)注以人工智能信息審核技術(shù)規(guī)制人工智能可能誘發(fā)的虛假信息泛濫風(fēng)險(xiǎn)。為了避免ChatGPT等人工智能產(chǎn)品大量生成難以通過(guò)自動(dòng)化批量審核的虛假信息內(nèi)容,監(jiān)管機(jī)構(gòu)以及網(wǎng)絡(luò)平臺(tái)經(jīng)營(yíng)者可能需要進(jìn)一步提升監(jiān)管技術(shù),充分利用人工智能技術(shù)的審核智能化特征,根據(jù)ChatGPT這類產(chǎn)品的發(fā)展水平和生成信息內(nèi)容特征,鼓勵(lì)行業(yè)協(xié)會(huì)、大型企業(yè)或第三方專業(yè)機(jī)構(gòu)積極推進(jìn)人工智能違規(guī)信息審核產(chǎn)品的研發(fā)和推廣。
(趙精武,作者系北京航空航天大學(xué)副教授,北京科技創(chuàng)新中心研究基地副主任)
標(biāo)簽: 人工智能 網(wǎng)絡(luò)安全 人工智能技術(shù)