短時間內曝光的兩起AI換臉詐騙案,對今年以來持續火爆的AI技術發展無疑是一種警醒:未來令人“防不勝防”的AI換臉詐騙會否大規模爆發?又應如何防範這類詐騙?

新京報貝殼財經記者 羅亦丹 編輯 嶽彩周

AI火了,騙子也來了!

近日,兩起利用AI換臉實施詐騙的案例引發關注。繼包頭警方發佈“福州市某科技公司法人代表郭先生10分鐘內被人用AI換臉詐騙430萬元”後,5月25日,安徽警方也通過當地媒體披露了一起類似案件,詐騙分子使用了一段9秒鐘的智能AI換臉視頻,佯裝“熟人”,導致安慶經開區的何先生被詐騙245萬。

短時間內曝光的兩起AI換臉詐騙案,對今年以來持續火爆的AI技術發展無疑是一種警醒:未來令人“防不勝防”的AI換臉詐騙會否大規模爆發?又應如何防範這類詐騙?

5月25日,新京報貝殼財經記者採訪反詐民警以及行業專家發現,目前使用AI換臉詐騙的案例並不多,同時在上述兩起詐騙案中受害者均是先入爲主認爲發來視頻的是朋友的社交賬號纔有了後續“AI換臉”的登場,因此源頭上應先防止自己賬號被盜用、警惕他人社交賬號真僞。此外,AI技術的發展也確實降低了AI換臉的門檻,客觀上降低了AI換臉詐騙的成本。

━━━━━

兩起AI換臉詐騙有何共同點?

針對性詐騙,賬號被盜是問題關鍵

新京報貝殼財經記者注意到,近期曝光的兩起AI詐騙案例均屬於針對性較強的“特定性詐騙”。在郭先生的案例中,“好友”通過微信視頻聯繫他,表示自己的朋友在外地競標,需要430萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。郭先生轉賬後撥打好友電話,才知道被騙。而在何先生的案例中,其微信“好友”突然向其發起視頻通話,電話接通後,何先生看到“好友”正在一間會議室內,並藉故會議有事,通過QQ要求週轉資金,導致何先生被騙。

可以發現,在上述詐騙案例中,詐騙分子對受害者和其好友的身份、日常話術均有深刻了解,才能完成詐騙。此外,在僞造好友身份這一環,通過AI僞造視頻只是增加可信性,但消息確實是從“好友”的微信號發來,才造成了受害者深信不疑。

電信專家付亮表示,在何先生的案例中,首先出現微信直接聯繫,然後轉QQ號碼直連,轉賬也未通過微信或QQ(繞開了騰訊的安全判定),“假冒QQ好友的詐騙手法快30年了,都沒有用到AI,互聯網快速發展,更多防護意識較弱的人成爲網民,快捷的電子轉賬也爲騙子提供了便利。兩起案例中都是盜用賬號詐騙,AI換臉只是輔助。”

民間互聯網安全組織網絡尖刀創始人曲子龍告訴新京報貝殼財經記者,此類AI換臉的詐騙手段都是定向針對性詐騙,而非傳統意義上“廣撒網,打打電話”的電信詐騙,往往乾的也都是“大單”。源頭上需要防止賬號被盜用,不要輕易加陌生人,“也要防止其他人用小號加你,過一段時間改成你親友,然後再實施詐騙。”

━━━━━

AI換臉詐騙不會大規模出現

有哪些方法可以識別對方是AI換臉?

5月25日,某沿海城市反詐專班民警對新京報貝殼財經記者表示,目前並未發現當地有使用AI冒充熟人作案的案例,主要是這種詐騙方式手段特殊,需要特定人羣、還需要人臉數據等,要素比較多,因此不會大規模出現。

實際上,AI換臉技術早在2017年就已在網上流行,不論是使用女明星的臉替換成人影星的色情影片,還是爲了娛樂使用自己的臉替換電影形象曾流行一時的App“ZAO”,使用的都是同一類技術。

如何識別對方是AI換臉?曲子龍表示,AI換臉目前在連續動作的實時渲染方面還是會存在技術缺陷,比如在說話的時候嘴部動作、眼部動作,如果仔細看都會存在一定的“不和諧”情況,如丟幀、嘴巴時大時小等問題。

有專家提示稱,“AI假臉”的紋理特徵存在破綻。例如,僞造後的視頻人物的眼睛或牙齒輪廓細節容易不一致;兩隻眼睛瞳孔的顏色不一樣或瞳孔中心反射的細節不一樣;很多僞造視頻由於視頻分辨率低於原始視頻,僞造出來的視頻牙齒邊緣過於整齊等。

新京報貝殼財經記者注意到,爲了防止“穿幫”,一般詐騙分子不會長時間播放AI換臉的視頻,如在何先生的案例中,詐騙分子只視頻通話了9秒,就匆匆轉到了文字聊天。

不過,一個現實問題是,隨着AI技術的進步,AI換臉的門檻確實也越來越低。“以前AI換臉還需要一兩百張圖片,現在不同角度的照片,一般5到8張就可以生成很不錯的模型了。”曲子龍說。

曲子龍坦言,“AI發展太快,想要防止臉被盜用太難了,尤其是一些公衆人物、明星、網紅,他們的照片很好獲取。像微博、抖音、朋友圈,或者乾脆去偷拍你幾張高清照片,都能通過AI建模實現換臉。”

付亮對新京報貝殼財經記者表示,對於此類詐騙手法,主要要防範騙子通過微信或 QQ 假冒熟人(親戚、朋友、客戶)詐騙。一方面,有資金往來,應先電話確認;此外,把錢打到陌生賬戶,要反覆確認;最後,一定切記,對面和你聊天的不一定是本人,可能是假冒的,甚至可能是機器人,不要輕易相信。

責任編輯:石秀珍 SF183

相關文章