DeepFakes 可以通過人工智能技術把所有視頻中的人臉換成你想要的任何其他人,進而滿足很多人「大膽的想法」。然而,被騷擾最嚴重的明星們卻發現這些視頻有時是無法刪除的。近日,好萊塢女星斯嘉麗·約翰遜對這種現象發表了自己的看法。

這項研究通過人臉識別算法實現,不僅被人們用於拼接色情視頻,還被用於製造大量「假新聞」併發布到社交網絡中。研究人員還在不斷提升 DeepFakes 的真實度,最新版的變種已經可以達到破解人臉識別系統的程度了(參見:驚了,DeepFakes 不僅騙過人,還能騙過人臉識別系統?!)。

自從 2017 年底 DeepFakes 流行起來之後,斯嘉麗的臉已被匿名「創作者」拼接到很多影片的性愛場景中——目前市面上已經出現了免費的人工智能軟件用於創作效果逼真的假視頻。其中一條被描述爲「泄露內容」的假視頻已經在著名色情網站上被觀看了超過 150 萬次。

作爲目前當紅的影星,斯嘉麗·約翰遜被人們當做「造假」對象不足爲奇。她是目前全球片酬最高的女星,淨身價達到 1.4 億美元。她因爲出演「復仇者聯盟」系列電影中的黑寡婦一角而被人們熟知。有些諷刺的是,在科幻電影「她」中,斯嘉麗還曾飾演人工智能助理。

AI用你的臉生成假視頻,你卻不能刪除

而且,她早已對現代明星隱私泄露的荒唐情況不厭其煩了。2011 年,她是明星私照大範圍泄露的受害者之一,這一事件的涉事黑客 Christopher Chaney 後來已被處以 10 年刑期。

想讓尼古拉斯凱奇「出演」各類大片嗎?DeepFakes 可以幫你輕鬆做到,這一技術已經成爲了攻擊女性的武器。

DeepFakes 背後的深度學習雖然對於很多人來說有點難懂,但這種技術已經被人們製作成了簡單的 APP。有人在社交網絡上稱,自己從高中女同學的 Facebook 和 Instagram 上搜集到約 380 張照片,隨後製作出了質量不錯的視頻。

創建假色情圖像的技術幾十年前就已經出現,但是被用於侵犯和羞辱明星和普通人的 deepfake 視頻標誌着女性在追求互聯網安全方面遇到新的巨大挑戰。斯嘉麗在一次採訪中表示。

但是,她也坦率地談到對抗這一新興技術被錯誤使用的案例非常困難,部分原因在於這需要對世界多個地方的相關視頻合法性發起挑戰。

她對此的發言是:

「很明顯這對我的影響沒有那麼大,因爲人們知道色情視頻裏的人並不是我。我認爲對此的相關訴求從法律上講是無用的,主要原因在於互聯網是一個巨大的黑暗蟲洞,不停地吞噬它自己。在黑暗的網絡上有很多比這件事更令人恐慌的事情。我認爲是否捍衛自己的肖像權、要求賠償取決於個人。

我的意思是,對我來說這種努力是無用、沒有結果的,但是對於那些因此可能丟掉工作的人來說就不同了。

此外,每個國家在保護公民肖像權方面有自己的法律法規,因此即使你能夠清除美國網站上的相關內容,可能也無法清除德國網站上的內容。即使你的圖像版權屬於你,同樣的版權法在國外未必可行。我對此非常難過。

事實是,對大多數人而言,嘗試保護自己免受互聯網及其邪惡屬性的侵擾是註定要失敗的事情。脆弱的人(如女性、兒童和老人)必須採取額外的措施才能保護自己的身份和個人內容。不管谷歌的策略多麼嚴苛,這都不會改變。(九月份,谷歌將「非自願合成色情影像」加入黑名單。)

互聯網是販賣色情的一大場所,脆弱的人會被攻擊。低級黑客就可以偷竊密碼和身份。每個人都有可能成爲目標,這只不過是時間問題。

人們認爲密碼可以保護他們,只有公衆人物纔有被黑的風險。殊不知,對黑客來說,攻擊誰並沒有太大差別,這隻取決於 ta 想不想攻擊你。

很明顯,如果一個人有更多資源,那麼他們可能會使用更多資源爲其數字身份保駕護航。但是沒有什麼能夠阻止別人將我或其他人的圖像貼到別的身體上,並且合成的內容非常逼真。互聯網沒有規則,它是幾乎沒有法律的深淵,能夠抵禦美國警方。」

去年 9 月,谷歌在其禁令列表中添加了「非自願合成色情圖像」的一條,允許任何人要求搜索引擎阻止這種類型的結果,谷歌將假圖像描述爲在「裸體或在色情情況下」。但迄今爲止,人們對於 DeepFakes 的創作和傳播並沒有簡單的解決方法。

「如果一位生物學家說:『這是一種非常有意思的病毒,讓我們看看當公衆掌握它時會發生什麼。』這是完全不可接受的。然而這正是硅谷一直在做的事情。」達特茅斯學院計算機科學教授 Hany Farid 表示。

目前,這種基於 DeepFakes 的網絡攻擊已經呈現出大衆化的趨勢,從明星擴展到了網絡匿名社區,以及同事、同學和朋友中間。一些製造假視頻的人甚至表示,目前可以接收訂單:20 美元製作一個人的假視頻。

看來,在人工智能技術發展的同時,人們也在面臨着越來越多的隱私挑戰。

查看原文 >>
相關文章