您的位置:首頁 > 快訊 >

當(dāng)騙子學(xué)會用AI,千層套路該怎么破

原標(biāo)題:當(dāng)騙子學(xué)會用AI,千層套路該怎么破

近日,內(nèi)蒙古包頭警方發(fā)布了一起電信詐騙案例,一男子10分鐘內(nèi)被騙430萬元。不過,讓人感到詫異的是,這起詐騙是騙子利用人工智能(AI)實(shí)施的。


(資料圖片僅供參考)

據(jù)財聯(lián)社5月22日報道,福建福州市郭先生的好友通過微信視頻聯(lián)系他,以工作為由,要求郭先生為其轉(zhuǎn)賬430萬元?;趯糜训男湃危由弦呀?jīng)視頻聊天核實(shí)了身份,郭先生就直接把430萬轉(zhuǎn)到了好友的銀行卡上。后來,郭先生才知道被騙。目前,AI詐騙案件在全國范圍內(nèi)都有發(fā)生,詐騙的成功率甚至接近100%。

那么騙子是如何騙取受害者信任,又如何在視頻身份驗證的前提下成功實(shí)施詐騙的呢?

第一步是盜取信息,通過案情分析可以看出,騙子不僅只是簡單地盜取社交媒體賬號,而是盜取了受害者好友的全套信息,從賬號密碼,到人物關(guān)系,到個人照片、聲音,再到支付信息,任何一個環(huán)節(jié)的缺失,都會讓詐騙難以成功實(shí)施。

第二步是技術(shù)應(yīng)用,騙子在視頻中使用了AI換臉和擬聲技術(shù)佯裝成對方好友,才成功騙取對方信任,實(shí)施了詐騙。

騙子先是盜取社交媒體賬號,再盜取其賬號上發(fā)布的個人信息,最后使用AI完成詐騙,千層套路讓人防不勝防,同時,也讓人感嘆不法之徒的詐騙手段也在與時俱進(jìn)。

實(shí)際上,騙子詐騙時使用的AI換臉和擬聲技術(shù)大家可能并不陌生,在視頻平臺爆火的明星換臉與AI歌手就分別使用了這兩項技術(shù)。隨著人工智能的發(fā)展,AI換臉技術(shù)門檻逐漸降低,應(yīng)用場景也越來越多,不少人通過AI滿足了獵奇、美顏、社交等需求,給生活帶了歡樂。

但最近,AI這把雙刃劍露出了它的另一面。從被“換臉”的明星,到地鐵上被“一件脫衣”的普通人,再到AI詐騙,AI將使用者的“惡”不斷放大,受到傷害的對象也從明星這樣的特定群體,變成面容較好的普通人,再到億萬個身邊的普通人。AI技術(shù)在不法分子的利用下,被頻繁用于炒作、詐騙、色情等非法逐利行為,產(chǎn)生了極大危害,不僅侵害他人合法權(quán)益,還危害社會公共安全。

雖說防人之心不可無,但如此層出不窮的套路確實(shí)讓人很難防備,如此亂象又該如何監(jiān)管?

首先,從防范的角度來說,隨著科技的發(fā)展,電信詐騙的方式已經(jīng)不再是從前單純文字聊天的形式了。對此,大眾要留個心眼,眼見不一定為真,視頻里的熟悉朋友和家人可能AI合成的騙子。對于涉及金錢交易的核實(shí),要通過多種渠道反復(fù)核實(shí)。有時,保護(hù)財產(chǎn)安全就是再多打一個電話的事。

其次,從事后的責(zé)任追究來說,立法機(jī)關(guān)要盡快完善相關(guān)法律,對相關(guān)違法行為嚴(yán)肅處理,不能讓技術(shù)跑贏了監(jiān)管,讓使用AI的不法之徒變成“法外狂徒”。

總之,對于AI技術(shù),我們既要坦然面對,又要多方合力織起安全網(wǎng),探索AI技術(shù)的應(yīng)用邊界,確保AI技術(shù)向善而行。(楊晗)

標(biāo)簽:

相關(guān)閱讀