您的位置:首頁 > 資訊 >

研究人員開展 DeepFake AI 偽造音頻攻防拉鋸戰(zhàn),促進業(yè)界辨?zhèn)渭夹g(shù)提升


(資料圖)

IT之家 7 月 10 日消息,DeepFake 當(dāng)下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱,模型生成的各種信息相對可以輕松繞過各種企業(yè)機構(gòu)的識別系統(tǒng),因此也有許多黑產(chǎn)圍繞 DeepFake 而展開,當(dāng)下如何更精準(zhǔn)辨識 DeepFake 生成的內(nèi)容成為難題。

IT之家曾報道,加拿大滑鐵盧大學(xué)的兩名研究人員 AndreKassis 與 UrsHengartner 研發(fā)了新型語音 DeepFake 軟件,成功欺騙語音認(rèn)證系統(tǒng)概率高達 99%,該軟件使用機器學(xué)習(xí)軟件,只需要 5 分鐘的人聲錄音,就可以模擬出非常逼真的人聲。

用戶通過語音認(rèn)證注冊之后,會要求用戶重復(fù)一個特定的短語或者句子。

系統(tǒng)會根據(jù)用戶的聲音提取聲紋(語音指紋),并將其存儲在服務(wù)器。

如果您將來嘗試進行身份驗證,系統(tǒng)將提示您說出不同的短語,并從中提取的特征將與系統(tǒng)中存儲的語音指紋進行比較,以確定是否應(yīng)授予訪問權(quán)限。

▲ 圖源 uwaterloo 網(wǎng)站

對于這一新型語音 DeepFake 軟件,其他安全研究人員紛紛開始應(yīng)對,亞馬遜的研究人員嘗試檢查語音樣本,來判斷樣本的真實性。

▲ 圖源 Pindrop 網(wǎng)站

而 Kassis 與 Hengartner 打造出一個方法來繞過上述亞馬遜的機制,該方法可辨識出合成語音中的標(biāo)記,并自動移除這些具有 AI 特征的段落,令系統(tǒng)無法區(qū)分。

另一方面,專門開發(fā)語音身份認(rèn)證安全機制的 Pindrop 則認(rèn)為這一機制并不穩(wěn)妥,即“雖然攻擊方可以移除生成的語音片段中具有 AI 特征的段落,但防守方可以同時從多角度來判斷音頻文段的真實性,例如檢測 IP 地址、要求提供特定的語音信息等”,因此依然可以檢測出使用 DeepFake 的攻擊者。

▲ 圖源 Pindrop 網(wǎng)站

但研究人員 Pindrop 同時指出,現(xiàn)有用來對抗 Deekfake 語音的系統(tǒng)有許多缺陷,打造安全系統(tǒng)的唯一方式是像黑客一樣思考。他同時建議那些只仰賴語音進行身份認(rèn)證的企業(yè),應(yīng)該部署額外的認(rèn)證措施,以防止企業(yè)受到詐騙,導(dǎo)致經(jīng)濟損失。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

標(biāo)簽:

相關(guān)閱讀