您的位置:首頁 > 聚焦 >

規(guī)范AI服務管理,為技術(shù)應用劃定法律紅線

規(guī)范AI服務管理,為技術(shù)應用劃定法律紅線(主題)


(資料圖)

中國婦女報全媒體記者 張萌

《生成式人工智能服務管理暫行辦法》將于8月15日起正式施行。提供和使用生成式人工智能服務應當尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)和個人信息權(quán)益。

不久前,內(nèi)蒙古包頭市警方發(fā)布一起使用智能AI技術(shù)進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元。

一天中午,郭先生接到好友的微信視頻,說自己的朋友在外地競標需要430萬元保證金,且需要公對公賬戶轉(zhuǎn)賬,想要借郭先生公司的賬戶走賬?;趯糜训男湃危由弦呀?jīng)視頻聊天核實了身份,郭先生沒有核實錢款是否到賬,就分兩筆把430萬元轉(zhuǎn)到了好友朋友的賬戶上。后來郭先生撥打好友電話,才知道被騙。騙子通過智能AI換臉和擬聲技術(shù),佯裝好友對他實施了詐騙。

“當時他是給我打了視頻的,我在視頻中也確認了是好友的面孔和聲音才放下戒備?!惫壬f。

幸運的是,接到報警后,包頭、福州兩地警銀聯(lián)動,迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉(zhuǎn)移。

此類AI詐騙事件并非孤例。近幾年,多地出現(xiàn)使用智能AI技術(shù)進行電信詐騙的案件。隨著深度合成技術(shù)的開發(fā),深度合成產(chǎn)品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻進行詐騙、誹謗的違法行為日益增多。那么,AI詐騙常用手段有哪些?AI換臉、AI換聲涉嫌侵犯哪些權(quán)利?法律底線在何處?

AI詐騙的常用手段

AI換臉、換聲技術(shù)是通過運用人工智能技術(shù)和深度算法,可以將人臉、表情、聲音等進行高效準確的替換,實現(xiàn)深度偽造,讓人真假難辨。

技術(shù)持續(xù)更新?lián)Q代,我們接觸到AI實時換臉技術(shù)的門檻日漸降低。內(nèi)蒙古尊恒律師事務所律師張躍飛在接受中國婦女報全媒體記者采訪時表示,AI詐騙通常有以下幾種常用手段——

第一種:聲音合成。

詐騙者通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。

第二種:AI換臉。

人臉效果更易取得對方信任,騙子用AI技術(shù)換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。詐騙者首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術(shù),通過AI技術(shù)篩選目標人群。在視頻通話中利用AI換臉,騙取信任。

第三種:轉(zhuǎn)發(fā)微信語音。

詐騙者在盜取微信號后,會向其好友“借錢”,為取得對方的信任,他們會轉(zhuǎn)發(fā)之前的語音進行詐騙。微信沒有語音轉(zhuǎn)發(fā)功能,但他們會通過提取語音文件實現(xiàn)語音轉(zhuǎn)發(fā)。

第四種:利用AI程序篩選受害人。

詐騙者利用AI來分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術(shù)對人群進行篩選,在短時間內(nèi)便可制定出詐騙腳本,實施精準詐騙。如實施情感詐騙時,可以篩選出經(jīng)常發(fā)布感情類信息的人群;實施金融詐騙時,可以篩選出經(jīng)常搜索投資理財信息的人群。

張躍飛提醒大家,對于個人而言,人臉、聲音、指紋等生物信息以及身份證、銀行卡賬號等個人信息的保護變得尤為重要。如果熟人在線上提出轉(zhuǎn)賬需求時,要通過多重驗證來確認對方身份,特別是對AI技術(shù)了解不多的老年人更要加強防范。

AI技術(shù)濫用的法律風險

近日,“AI明星”正成為短視頻平臺新一輪流量密碼,同時,一些普通主播為增加賣點,吸引流量,通過“AI換臉技術(shù)”搖身一變成為一線當紅女星進行直播帶貨。

張躍飛告訴記者:“能以假亂真、掩人耳目的AI技術(shù)在民事方面易引發(fā)肖像權(quán)等侵權(quán)行為,在刑事方面易引發(fā)詐騙罪、侵犯公民個人信息罪等?!?/p>

根據(jù)民法典第一千零一十八條規(guī)定,“肖像是通過影像、雕塑、繪畫等方式在一定載體上所反映的特定自然人可以被識別的外部形象?!边@表明肖像權(quán)的范圍并不僅限于人的面部特征,只要能夠識別特定自然人的外部形象都受到肖像權(quán)的保護。民法典明確了侵犯肖像權(quán)的具體行為,其中包括未經(jīng)肖像權(quán)人同意,丑化、污損,或者利用信息技術(shù)手段偽造等方式侵犯他人的肖像權(quán)。

未經(jīng)明星本人同意,擅自利用“AI技術(shù)”變成明星臉來帶貨,根據(jù)民法典第一千零一十九條規(guī)定,“任何組織或者個人不得以丑化、污損,或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán)”。該行為涉嫌侵害明星的肖像權(quán)。

如果帶貨過程中有故意丑化或者損毀的情形,導致被換臉明星的社會評價降低,根據(jù)民法典第一千零二十四條規(guī)定,“任何組織或者個人不得以侮辱、誹謗等方式侵害他人的名譽權(quán)”。該行為涉嫌侵犯明星的名譽權(quán)。

如果“AI換臉技術(shù)”未經(jīng)當事人同意,就處理其生物特征等敏感信息,根據(jù)民法典第一千零三十二條規(guī)定,“任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權(quán)”。該行為涉嫌侵犯他人隱私權(quán)。

另外,對于著作權(quán)人而言,程序運營者和普通用戶未經(jīng)授權(quán)和許可,擅自將圖片或視頻作為模板提供給不特定用戶用于“換臉”或?qū)Q臉后的視頻通過信息網(wǎng)絡(luò)公開傳播,則可能構(gòu)成對信息網(wǎng)絡(luò)傳播權(quán)和保護作品完整權(quán)的侵害。

劃“紅線”注“標識”確保個人信息安全

技術(shù)是把雙刃劍,一旦技術(shù)被濫用,就隱含了巨大的風險。面對AI技術(shù)的快速發(fā)展和濫用現(xiàn)象,有效的監(jiān)管和規(guī)范必不可少。我國與人工智能技術(shù)相關(guān)的法律法規(guī)正在不斷完善。

國家網(wǎng)信辦出臺的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》于今年1月10日正式施行,主要針對深度合成服務者的義務進行了規(guī)定,其中要求深度合成服務提供者提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內(nèi)容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。由此可見,做好風險防范首先要從技術(shù)開發(fā)者、服務提供者入手。

近日,為促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),將于今年8月15日起施行。

國家互聯(lián)網(wǎng)信息辦公室總工程師孫蔚敏表示,出臺《辦法》,堅持發(fā)展與安全并重,既鼓勵創(chuàng)新,又依法治理,堅持包容審慎、分級分類的思路,以安全促發(fā)展,以發(fā)展保安全。

隨著人工智能與日常生活場景結(jié)合越來越密切,針對在此基礎(chǔ)上凸顯的隱私泄露、造謠詐騙等問題,《辦法》將保護使用者的個人信息安全擺在了重要位置。《辦法》第九條提出,生成式人工智能服務提供者應當依法承擔網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任,履行網(wǎng)絡(luò)信息安全義務。

這一條就將生成式人工智能服務提供者明確納入了網(wǎng)絡(luò)平臺責任的規(guī)制范圍內(nèi),讓違規(guī)違法者無處可遁。

《辦法》第十一條要求服務提供者不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄?!掇k法》第十四條提出,提供者發(fā)現(xiàn)違法內(nèi)容的,應當及時采取停止生成、停止傳輸、消除等處置措施并采取模型優(yōu)化訓練等措施進行整改。

而針對目前生成式人工智能內(nèi)容難以被分辨,甚至出現(xiàn)技術(shù)被濫用、誤用等問題,《辦法》明確服務提供者應當對相關(guān)生成內(nèi)容進行顯著標識。標識的作用在于警示和提醒用戶,該內(nèi)容是由AI生成的。

技術(shù)進步需要更加健全、與時俱進的規(guī)則和法律保護,完善相關(guān)法律體系和實施細則,加強有效監(jiān)管,明確行為底線,各個環(huán)節(jié)形成合力,多管齊下,才能讓人工智能產(chǎn)業(yè)在法律法規(guī)的軌道內(nèi)平穩(wěn)健康發(fā)展。

標簽:

相關(guān)閱讀