【TechWeb】4月19日消息,過去一年,AI成爲火爆全網的熱詞。圍繞AI的應用不斷湧現,爭議也隨之而來,尤其是AI詐騙,頻頻登上熱搜。

日前,香港警方披露,一家跨國公司香港分公司的財務人員,在參加一場內部“多人視頻會議”後,被騙2億港元。原來,除了受害人是“真人”,視頻會議裏的其他“同事”均是用AI換臉技術冒充的。今年央視315晚會上也曝光了多起利用AI擬聲、換臉進行詐騙的案例。

這幾起詐騙事件背後都有着深度僞造技術Deepfake的身影。這不是一項新技術,但過去一年生成式AI技術的爆發大大降低了其門檻,使製作難以辨識的換臉視頻越來越容易,“有圖有真相”變得不再靠譜,騙術更是防不勝防。

那麼,我們該如何保護自己的個人信息?又該如何識別對話視頻中的是“真人”還是“數字人”?

防不勝防的Deepfake

所謂Deepfake,其實是“deep learning”(深度學習)和“fake”(僞造)的合成詞,指的是基於深度學習算法,從大量的視頻和圖像數據中學習,僞造出逼真的面部動畫和語音。Deepfake技術最常見,也是我們最熟知的應用,就是AI換臉。

人們最初認識這項技術是在2017年12月,一位名叫“deepfakes”的網友在Reddit網站發佈了一條視頻,利用AI技術將成人電影女主角的臉換成了《神奇女俠》主演蓋爾·加朵,引發廣泛關注。後來人們開始用他的網名deepfakes命名這項技術。

在國內,deepfakes也深受一些技術宅的喜歡。網上不乏售賣AI換臉軟件的學習教程,除了詳細的操作指導,甚至還附贈合成視頻成品大禮包、明星臉部素材庫、合成輔助工具等。2019年2月,B站UP主“換臉哥”用AI技術把朱茵飾演的黃蓉換成了楊冪的臉,也曾引發熱議。

deepfakes小有名氣之後,同名算法在GitHub開源,越來越多的換臉視頻在網上流傳。清華大學人工智能研究院等機構發佈的《深度合成十大趨勢報告(2022)》顯示,2021年新發布的深度合成視頻的數量,較2017年已增長10倍以上。

2023年ChatGPT突然爆火刷屏,生成式AI“飛入尋常百姓家”,尤其是視頻生成模型Sora的問世,大大降低了AI換臉技術的門檻。OpenAI CEO阿爾特曼近日在出席活動時表示,“OpenAI 可以將非常高質量的 AI 技術成本降至接近零”。

但技術的使用是把雙刃劍,過去一年,利用Deepfake技術僞造虛假的圖像、視頻和音頻來冒充他人身份進行詐騙的事件越來越多,“AI詐騙成功率接近100%”、“AI換臉騙走香港男子2億港元”、“公司老闆被AI詐騙430萬”等相關話題頻頻登上熱搜,對公衆財產、隱私等權益造成侵害。

中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,當前,深度僞造技術相對成熟,使用成本在逐漸降低,速度和擬真程度不斷提升,技術的檢測需求逐漸增大,但檢測難度不斷提升。比如,Sora生成的視頻,很難用肉眼辨別真假。

如何識破“AI變臉”?

AI換臉騙走香港男子2億港元的事件傳開後,如何識別對話視頻中的是真人還是數字人再度成爲熱議焦點。

有專家表示,可以讓對方摁鼻子、摁臉,觀察其面部變化。如果是真人,臉部會變形,如果是數字人,則不會,或出現破綻。隨後,“懷疑對方AI換臉可以讓對方摁鼻子”登上微博熱搜,目前閱讀量高達1.3億。

不過,也有業內人士認爲這個方法不一定奏效。螞蟻集團天璣實驗室安全算法專家朱凱在接受《解放日報》採訪時表示,這個做法有一定的參考價值,但未必完全奏效。

因爲大多數的生成算法(AIGC)生成的都是乾淨的臉,而摁鼻子或者摁臉,意味着給人臉增加了遮擋,相關算法可能因爲訓練時數據不夠,從而在生成有遮擋的臉時出現破綻。

但是,一些比較先進的算法已經可以在靜態場景下、有局部遮擋的情況下生成畫面。也就是說,如果只是摁鼻子或者摁臉,有些算法也能給出以假亂真的效果。

就目前來看,朱凱建議,在摁鼻子或摁臉的同時左右搖晃頭部,這樣一種動起來的方式識別AI換臉。因爲目前很多AI換臉的基礎是被模仿者的照片,照片是平面的,生成的“數字人”也是以正面、平面爲主。當人臉動起來時,會產生破綻。

此外,中國計算機學會安全專業委員會數字經濟與安全工作組成員方宇在接受央視採訪時表示,可以要求對方在視頻通話的時候,在臉前通過揮手來識別。這種方式會造成面部數據的干擾,僞造視頻會出現抖動或閃現等異常情況。在點對點的溝通中,則可以問一些只有對方知道的問題,來驗證對方的真實性。

以AI對抗AI

值得一提的是,Deepfake攻和防是一個相對且不斷精進的過程,你在進步,Deepfake也在進步,“我們要做的就是跑在它的前面”,ZOLOZ產品總監陶冶這樣說道。以AI對抗AI,也就是所謂的“用魔法打敗魔法”,是業內在積極踐行的。

百度、阿里、騰訊、字節跳動、螞蟻集團以及科大訊飛等AI頭部企業,均在通過開發先進的AI算法和工具,積極提升對深度僞造內容的識別能力。比如,阿里通過分析視頻細微特徵開發多種算法,字節跳動和科大訊飛則結合內容分析和語音識別技術來維護網絡空間的真實性。

此外,螞蟻數科旗下科技品牌ZOLOZ最近還發布了深度僞造綜合防控產品ZOLOZ Deeper,以攔截用戶刷臉過程中的“AI換臉”風險,目前已率先應用在身份安全領域。

據介紹,ZOLOZ早在2019年就啓動了Deepfake算法研發,彼時主要應對一些簡單的人臉攻擊,比如把圖片、視頻、面具等虛假內容呈現在攝像頭前面,攻破人臉識別系統。ZOLOZ Deeper是針對注入式、活化等複雜攻擊手段迭代而來的產品,在服務印尼某頭部銀行後,產品上線一個月時間內實現了Deepfake風險“0漏過”。

陶冶披露,ZOLOZ聯合螞蟻安全響應中心設立了超百萬的獎金池,支持安全極客來挖掘ZOLOZ Deeper的漏洞,通過“螞蟻集團安全響應中心”官網提交漏洞情報。“互聯網世界沒有絕對的安全,希望聯合外部的安全技術人才持續提升ZOLOZ的安全水位,守護用戶的安全感。”

漏洞懸賞獎金是科技公司“化被動爲主動”的安全策略。例如今年有黑客發現特斯拉系統漏洞,贏得20萬美元獎金和一輛Model 3;微軟曾在2019年送出史上最高一筆漏洞挖掘獎勵,總額高達20萬美元,稱發現這一漏洞爲數十億用戶提供了保護。

普通人能做什麼?

隨着衣食住行都跟各種互聯網APP結合,必然會造成對個人信息的採集和收集。2023年8月15日,我國正式施行《生成式人工智能服務管理暫行辦法》,從多個方面“劃下紅線”,其中也提到“不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益”。

對於普通人來說,除了一些辨別AI換臉詐騙的小訣竅,我們都應該注意個人信息的保護,尤其要注意圖像、聲音、指紋等生物信息的保護,因爲AI換臉的數據基礎就是被模仿人的照片、視頻等。

中國信通院人工智能研究中心安全與元宇宙部主任石霖向TechWeb等表示,在個人信息保護方面,首先建議大家優先使用一些大廠或擁有多年品牌經驗的技術產品,它們在遵守監管落實上會比較嚴格,也有比較好的一些個人信息保護記錄和管理經驗。

第二,使用APP時儘量減少對個人資料的留存,比如個人照片的上傳,尤其是發到社交平臺上,所以少發一些朋友圈確實可以減少一些個人信息的採集和蒐集。

此外,我們在日常購物或者是去買房租房時,可能也會被採集個人信息。比如,去看下裝修,信息一登記,一個月之內各種電話打來推銷。這種時候留一個假電話,也能夠規避個人信息被泄露的風險。

需要注意的是,在涉及轉賬匯款、資金往來等場景時,務必第一時間提高警惕,通過回撥對方手機號等額外通信方式覈實確認,未經覈實不要輕易轉賬。(周小白)

相關文章