您的位置:首頁(yè) > 快訊 >

實(shí)時(shí):推動(dòng)AI負(fù)責(zé)任應(yīng)成為社會(huì)自覺(jué)


(資料圖)

原標(biāo)題:推動(dòng)AI負(fù)責(zé)任應(yīng)成為社會(huì)自覺(jué)

當(dāng)前,AI的運(yùn)用與監(jiān)管備受社會(huì)關(guān)注。近日,國(guó)家網(wǎng)信辦就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《征求意見(jiàn)稿》)向社會(huì)公開(kāi)征求意見(jiàn),擬進(jìn)一步強(qiáng)化相關(guān)主體責(zé)任,內(nèi)容涉及數(shù)據(jù)安全、個(gè)人信息保護(hù)、算法設(shè)計(jì)、內(nèi)容合規(guī)等多個(gè)方面。

隨著ChatGPT等通用人工智能的革命性突破,AI技術(shù)已成為數(shù)字經(jīng)濟(jì)時(shí)代的核心驅(qū)動(dòng)力、產(chǎn)業(yè)轉(zhuǎn)型升級(jí)的重要支撐。AI在智慧城市、智慧醫(yī)療、智能制造、金融科技等領(lǐng)域的應(yīng)用示范,推動(dòng)社會(huì)向更高層次的智能化水平邁進(jìn),深刻改變著人們的生產(chǎn)生活方式。

強(qiáng)勁發(fā)展勢(shì)頭下,AI不可避免會(huì)遭遇“成長(zhǎng)煩惱”。尤其是以ChatGPT為代表的生成式人工智能服務(wù),能力不斷升級(jí),治理難度隨之提升。AI生成的內(nèi)容高度“仿真”,但往往真假難辨、虛實(shí)結(jié)合。AI有著強(qiáng)大的信息收集能力,但并不能保證數(shù)據(jù)收集的合法性以及海量信息不被泄露。AI自動(dòng)化的文本生產(chǎn)模式效率極高,但屢屢出現(xiàn)合成他人作品、復(fù)制藝術(shù)家風(fēng)格、抄襲開(kāi)發(fā)代碼等版權(quán)問(wèn)題??此瓶陀^中立無(wú)情感的AI,有時(shí)“理直氣壯”地輸出偏見(jiàn)歧視的內(nèi)容,對(duì)社會(huì)認(rèn)知和道德倫理產(chǎn)生負(fù)面影響。最近一段時(shí)間,利用AI技術(shù)“復(fù)活”已故親人、換臉換聲干預(yù)現(xiàn)實(shí)世界、無(wú)代碼編程降低黑客門(mén)檻等事件頻出,引發(fā)社會(huì)爭(zhēng)議。不解決這些問(wèn)題,就無(wú)法在關(guān)鍵領(lǐng)域信任并使用AI。發(fā)展負(fù)責(zé)任且可信的人工智能技術(shù),成為產(chǎn)業(yè)趨勢(shì)和社會(huì)共識(shí)。

讓AI更負(fù)責(zé)任,正是圍繞AI出臺(tái)一系列法律法規(guī)的目標(biāo)所在。什么是可接受的、什么是不可接受的,對(duì)于人工智能來(lái)說(shuō),目前標(biāo)準(zhǔn)并不明確。此次把生成式人工智能服務(wù)監(jiān)管提上日程,為AIGC(人工智能生成內(nèi)容)產(chǎn)業(yè)提供了一套明確的法規(guī)框架,不僅有助于規(guī)范產(chǎn)業(yè)健康發(fā)展,也可以提升公眾對(duì)AIGC的理解和信任。雖然監(jiān)管往往落后于新技術(shù)發(fā)展,但通過(guò)建章立制,強(qiáng)調(diào)風(fēng)險(xiǎn)防范、監(jiān)管前置,能夠幫助人們警惕和預(yù)判挑戰(zhàn),更好應(yīng)對(duì)技術(shù)發(fā)展帶來(lái)的未知性和不確定性。

如何讓AI更負(fù)責(zé)任?技術(shù)是中性的,但技術(shù)研發(fā)的核心是人,不同人會(huì)對(duì)技術(shù)用途作出不同選擇。因此,強(qiáng)化相關(guān)主體責(zé)任,尤其是強(qiáng)調(diào)生成式人工智能產(chǎn)品提供者的責(zé)任,應(yīng)被放在突出位置?,F(xiàn)實(shí)中,一些科技公司盲目追逐商業(yè)利益,任由算法野蠻生長(zhǎng),內(nèi)容無(wú)序輸出,道德底線頻頻失守。內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息。向公眾提供服務(wù)前,應(yīng)當(dāng)申報(bào)安全評(píng)估。不利用生成內(nèi)容損害他人形象、名譽(yù)以及其他合法權(quán)益……《征求意見(jiàn)稿》明確責(zé)任主體、劃出權(quán)責(zé)范圍,讓科技公司有的放矢、有章可循,倒逼上游產(chǎn)業(yè)鏈優(yōu)化結(jié)構(gòu)、達(dá)成內(nèi)容互信。

為狂飆的AI套上“韁繩”,不是“踩剎車”,而是定方向,助其沿著正確軌道前行?!墩髑笠庖?jiàn)稿》提出,國(guó)家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國(guó)際合作,鼓勵(lì)優(yōu)先采用安全可信的軟件、工具、計(jì)算和數(shù)據(jù)資源,再次明確對(duì)AI產(chǎn)業(yè)的支持態(tài)度。政策層面已在加速建立制度“防護(hù)欄”,技術(shù)層面也要加快開(kāi)發(fā)治理工具,實(shí)現(xiàn)技術(shù)應(yīng)用全生命周期的多層次監(jiān)管,比如通過(guò)科技手段識(shí)別AI生成內(nèi)容,方便內(nèi)容檢測(cè)、作品確權(quán)。進(jìn)一步說(shuō),監(jiān)管也要把握好度。約束技術(shù)“暗黑面”的同時(shí),盡可能探索治理新路徑,創(chuàng)造條件引導(dǎo)技術(shù)向善、釋放創(chuàng)新潛力,防止“一管就死、一放就亂”情況在AI領(lǐng)域出現(xiàn)。

未來(lái)AI或許會(huì)像人類一樣思考,但在此之前,人們應(yīng)該思考的,并不是能不能創(chuàng)新,而應(yīng)是為什么創(chuàng)新、如何更好創(chuàng)新。想清楚這些,才能引導(dǎo)AI作出正確的、合乎法治倫理的決策和行動(dòng)。每一個(gè)新技術(shù)的參與者、使用者、監(jiān)管者,都應(yīng)拉緊道德和法律的韁繩、有所為有所不為,以負(fù)責(zé)任的方式更好服務(wù)社會(huì)。從這個(gè)角度說(shuō),推動(dòng)AI負(fù)責(zé)任應(yīng)成為社會(huì)自覺(jué),(韓小喬)

標(biāo)簽:

相關(guān)閱讀