記者/張唯

1月31日,公安部網安局發文提醒公衆,注意防範合成聲音和AI換臉等人工智能新型手段詐騙,建議通過多重驗證、保護信息和相互提示的方式避免上當。

所謂合成聲音,是指騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用僞造的聲音騙過對方。

據公安部網安局公佈的案例,2020年12月,某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元,並將轉賬信息以郵件形式發送,轉款理由是避免繳納滯納金。由於老闆的口音十分逼真,小王信以爲真,在1小時內轉款完成,後發現被騙。

澎湃新聞梳理發現,類似的案件也發生在國外。2019年9月,犯罪分子使用語音克隆軟件對英國一家能源公司高管的聲音進行模仿。該公司的執行董事在接聽詐騙電話後,將24萬美元匯入了一個匈牙利賬戶。目前,該罪犯仍未被抓獲。

2020年2月20日 ,互聯網安全專家公司Symantec報告了三起音頻詐騙案例,犯罪分子通過電話會議、YouTube、社交媒體以及TED演講獲得了公司高管的音頻,然後用機器學習技術複製高管的聲音,致電財務部門的高級成員要求緊急匯款。

比聲音合成更高級的騙術是AI換臉。

近年來,以“深度僞造”技術(Deepfake)爲代表的AI換臉技術日益成熟。通過“深度僞造”技術,可以將圖片或視頻中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。

2019年8月,一個名爲“ZAO”的AI換臉APP一度爆紅,後因隱私、倫理等問題備受詬病。在“ZAO”APP中,用戶只需上傳一張自己的照片,就能將自己的臉替換到某位明星的頭上,而且臉融合效果非常棒。這款應用強大的“換臉術”就是基於“深度僞造”技術。

目前,“深度僞造”技術正在被用於詐騙。騙子首先分析公衆發佈在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人羣。在視頻通話中利用AI換臉,騙取信任。

近日,南京警方接到小李報警稱,被詐騙3000元。小李介紹,大學同學通過QQ跟她借錢,對方打過來一段只有四五秒的視頻電話,小李看到確實是本人,便放心轉賬。她在第二次轉賬時發現異常,再次撥通對方電話才得知同學的帳號被盜。警方判斷,那段視頻很有可能被人換了臉。目前,警方已立案。

《科技日報》此前援引安全分析公司Sensity的調查結果稱,自2018年12月以來,“深度僞造”技術在線造假視頻的數量大約每6個月翻一番,而截至2020年6月,造假視頻已經多達49081個,比2019年7月增長了330%。

公安部網安局提醒,面對AI換臉詐騙,“看眼睛”是識別假臉的方法之一。多數假臉都是使用睜眼照片合成,假臉極少甚至不會眨眼,缺少眨眼是判斷一個視頻真假的好方法。

辨識“深度僞造”換臉視頻的方法還包括語音和嘴脣運動的同步狀況、情緒不符合、模糊的痕跡、畫面停頓或變色。然而,專家指出,通過不斷的技術迭代,遲早會有人可以通過“深度僞造”技術製造出人類用肉眼無法識別的“假臉”。

面對日益強大的人工智能新型詐騙手段,公衆可以採取哪些防範方法?

公安部網安局提醒以下三點:

多重驗證,確認身份。目前,AI換臉難以肉眼區分。因此,在涉及錢款時,儘量通過電話詢問具體信息,確認對方是否爲本人。

保護信息,避免誘惑。加強個人信息保護意識,對於不明平臺發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。

相互提示,共同預防。做好家中老人的宣傳防範工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。

相關文章