摘要:\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003EAI換臉已成產業,色情網站內中國女星視頻火爆\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E南都記者調查發現,與DeepNude相比,另一種使用了類似算法的人工智能技術——Deepfakes,在黑灰產中更受歡迎。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E談到暗中廣泛流傳的明星換臉視頻,北京京都律師事務所律師金傑說,這些視頻一旦流傳出去,既是對女明星的人格侮辱,也嚴重損害了她們的名譽。

"\u003Cdiv\u003E\u003Cp class=\"ql-align-justify\"\u003E最近,27歲的新加坡女孩Rose(化名)發現,她的社交賬號粉絲莫名暴漲。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E如果不是有人聯繫告知,Rose可能永遠不會知道,一年前她在社交賬號上發佈的生活照片,被人改成了裸體照片,如今正在色情網站流傳。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E一套人工智能算法,數十張正常的生活照,二者結合,就能憑空生成一個女性的裸體照片,甚至把她的臉移花接木到淫穢視頻女優身上。類似的事情正在中國發生,多位知名女明星也中招,成爲不法賣家的牟利工具。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003E被下架的“脫衣”軟件流入中國,有人在電商平臺出售\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E今年6月下旬,一款名爲“DeepNude”的AI軟件現身網絡。它以人工智能算法爲基礎,可以識別並“刪去”照片中人物的衣服,從而把正常照片轉爲“裸照”。據外媒測試,原始照片的清晰度越高、女性裸露的肌膚越多,轉換出的“裸照”就越逼真。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F32f876205ea046bba67515d7ac3432c5\" img_width=\"640\" img_height=\"438\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E左側爲真實照片,右側爲DeepNude僞造的照片。圖自Motherboard\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-justify\"\u003E由於僞造女性裸照極具道德爭議,DeepNude火了不到一個星期便被開發者下架。6月27日,開發者在推特發佈聲明稱,“從未想到該軟件會得到病毒式傳播”。他承認,儘管軟件生成裸照後會打上“僞造”等遮擋水印,人們濫用軟件的可能性還是很大。“這個世界還沒有做好接受DeepNude的準備。”開發者說。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E開發者還表示,肯定會有DeepNude的部分副本在網上流傳,如果有人從其他地方下載、分享這些副本,將違反DeepNude官網的使用條款——如今,這一判斷成爲了現實。對於盜版者而言,“違反使用條款”的警告絲毫沒有震懾力。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E南都記者檢索發現,DeepNude官網關閉後,各種版本的軟件先是在開源社區GitHub上流傳。7月10日,GitHub全面封禁了類似項目的代碼庫。但DeepNude依然流入中國,並在各種社區和雲盤內悄然擴散,甚至有電商平臺商家打出“DeepNude破解版”“無水印”的名號售賣該軟件牟利。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-center\"\u003E7月18日,南都記者檢索發現,在某電商平臺,“DeepNude破解版”“無水印版”的售價在3.99元到10元不等。但根據該電商平臺社區規則,用戶不得發佈色情低俗信息,也不得發佈侵犯他人商標權、著作權、專利權的信息。按這些規則判斷,DeepNude無疑屬於違規交易物品。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F4f1ddb9cc9b14e27ae8f1b25f3c64dc6\" img_width=\"640\" img_height=\"527\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E某電商平臺上兜售DeepNude的商家。圖\u002FAI前哨站\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-center\"\u003E值得注意的是,部分賣家明顯在用話術規避平臺監管。一位賣家在商品介紹中提示,“直接拍,拍完私聊秒發貨”。另一位賣家則聲稱“被禁言了”,在商品介紹中留下了微信號,要求買家加其微信號完成購買。還有的賣家將頭像設置爲二維碼,提示買家通過“掃一掃”跳轉進入其他平臺的鏈接購買。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F15a0d6cfeee1403a82509e733a8c5a81\" img_width=\"640\" img_height=\"679\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E賣家用話術躲避平臺監管。圖\u002FAI前哨站\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-justify\"\u003E北京京都律師事務所律師金傑指出,使用軟件把他人照片轉爲裸照,屬於違法侵權行爲。“利用軟件將他人照片轉爲裸照擴散,既嚴重侵害他人肖像權,也嚴重侵害他人的名譽權,讓公衆誤認爲是他人‘春光泄露’,或者有其他不良行爲、不良癖好,嚴重損害了他人的人格,也降低了他人的社會評價,是法律所嚴格禁止的。”金傑說。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E出售軟件是否構成違法?金傑認爲,要具體情況具體分析。如果是僅限個人使用並不擴散,不會對他人造成損害,則不構成侵權。如果是出於惡意或者專門出售給某些個人或組織,用於非法目的,則應該認定爲違法或違規。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003EAI換臉已成產業,色情網站內中國女星視頻火爆\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E南都記者調查發現,與DeepNude相比,另一種使用了類似算法的人工智能技術——Deepfakes,在黑灰產中更受歡迎。不同於前者只能生成裸照,Deepfakes主打“視頻換臉”。此前火爆網絡的“朱茵變楊冪”視頻,便應用了相關技術。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-center\"\u003E自2017年開始,就有基於Deepfakes的換臉視頻在美國網站流傳。漸漸地,包括“神奇女俠”扮演者蓋爾·加朵、在《復仇者聯盟》飾演“寡姐”的斯嘉麗·約翰遜、《冰與火之歌》中的“Arya”麥茜·威廉姆斯在內,諸多高人氣女演員接連慘遭“毒手”,被合成到了色情淫穢視頻中。儘管有網站宣佈“封殺”,但此類視頻仍然在網上層出不窮。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F3b1f1ae3c6c84548add9e5070494df6a\" img_width=\"640\" img_height=\"415\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E蓋爾·加朵曾被Deepfakes換臉。圖自網絡\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-center\"\u003E如今,這一風氣也傳到國內。7月18日,南都記者在電商平臺發現,一些商家以“動作”“敏捷換臉”“成品”等隱晦關鍵詞叫賣Deepfakes技術製作的淫穢視頻,但視頻中的女主角卻變成了中國知名女星,涵蓋一衆80後到90後影視“大小花”。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F07a5650c72014e0ebe65fe32880cb3d1\" img_width=\"640\" img_height=\"847\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E一些賣家兜售的換臉視頻合集。\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-center\"\u003E這些視頻合集的售價從18.8元到199元不等。有賣家在商品介紹中寫道,視頻使用了深度學習技術,“誤差在0.01甚至0.005”,共有 280個“精品資源”,總大小在40G左右。該賣家同時貼出的截圖顯示,有買家評論“做的沒破綻”。南都記者注意到,爲繞過平臺監管,部分賣家會在發佈一段時間後刪除商品,並通過頭像留下購買提示。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F87d3f491a9be4dfb9d05ec4979ef01b8\" img_width=\"640\" img_height=\"411\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E一些賣家通過“成品”“鏈接”等隱晦詞語提示購買,以躲避平臺監管。\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-justify\"\u003E7月19日,南都記者再次搜索發現,部分賣家已刪除商品鏈接及Deepfakes關鍵詞,但仍有賣家通過頭像提示稱“沒下載的 請等兩天後私我”。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-center\"\u003E除了電商平臺,Deepfakes也在外國的色情網站上大行其道。某知名色情網站2018年便宣佈禁止發佈Deepfakes製作的視頻,但至今仍有用戶上傳涉及中國女明星的換臉視頻,並在標題中公然打出“人工智能換臉”“AI合成”等關鍵詞。這些換臉淫穢視頻均有數十萬瀏覽量,有的甚至超過百萬。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003E通過AI換臉製造淫穢物品牟利,已是明確違法\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E北京莫少平律師事務所律師莫少平說,商家在網上兜售換臉淫穢視頻,肯定屬於違法行爲。根據情節不同,輕則違反《治安管理處罰條例》,重則觸犯《刑法》,構成犯罪。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E按照《治安管理處罰條例》,製作、複製、出售、出租或者傳播淫書、淫畫、淫穢錄像或者其他淫穢物品的,處十五日以下拘留。《刑法》中則規定了“製作、複製、出版、販賣、傳播淫穢物品牟利罪”與“傳播淫穢物品罪”,對構成犯罪的追究刑事責任。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E而從民事層面看,未經當事人同意,以營利爲目的使用公民的肖像,則有侵犯肖像權之嫌。虛假的淫穢視頻,也可能構成名譽侵權。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E談到暗中廣泛流傳的明星換臉視頻,北京京都律師事務所律師金傑說,這些視頻一旦流傳出去,既是對女明星的人格侮辱,也嚴重損害了她們的名譽。對這類視頻的擴散,應當引起重視。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E種種新政表明,監管層已注意到以Deepfakes爲代表的惡意的人工智能應用。今年4月提交十三屆全國人大常委會第十次會議審議的民法典人格權分編擬規定,任何組織或個人不得以利用信息技術手段僞造的方式侵害他人的肖像權。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E5月底,國家網信辦會同有關部門發佈《數據安全管理辦法(徵求意見稿)》,其中要求,“網絡運營者利用大數據、人工智能等技術自動合成新聞、博文、帖子、評論等信息,應以明顯方式標明‘合成’字樣;不得以謀取利益或損害他人利益爲目的自動合成信息”。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E不過,這些尚未正式出臺的法律法規,還無法有效阻止 DeepNude、Deepfakes及僞造裸照、淫穢視頻的傳播。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003E有技術人員正尋求辦法識別僞造視頻\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E有技術人員告訴南都記者,從實踐來看,用Deepfakes製作逼真度較高的換臉視頻,至少需要千餘張的照片。但是,目前已經出現了一些新的技術方法,即便只有一張照片,也可以製作出換臉視頻。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E至於DeepNude,本身便是針對單張照片的轉換軟件。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E這意味着,不僅是女明星,任何曾在社交媒體上公開過生活照片的女性,都可能成爲惡意應用的受害者。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-center\"\u003E正如前文所說的新加坡女孩Rose,她的僞造裸照在色情網站流傳,本人卻毫不知情。據新加坡媒體the Star Online 報道,過去幾周內,有數個像Rose一樣的受害者出現。有人盜取了她們的社交媒體照片,通過DeepNude篡改後發上色情網站。並且,這些照片還在被不停地重新編輯,變得越來越多。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F2050b40600924a1183faf50e947ac2d5\" img_width=\"640\" img_height=\"444\" alt=\"AI軟件能脫人衣服?!還有人出售女星換臉淫穢視頻\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003ERose 被篡改的照片之一。圖自the Star Online\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp class=\"ql-align-justify\"\u003E如果不是被媒體聯繫到,Rose可能還矇在鼓裏。“這非常令人噁心!太不尊重人了,也太變態了。如果有人對他們的母親,姐妹,妻子或女朋友做這樣的事呢?”Rose氣憤地說。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E美國民間組織Revenge Porn的創始人兼首席執行官Katelyn Bowden曾作出鮮明表態,認爲DeepNude這樣的技術不應該向公衆開放。“現在任何人,甚至在根本沒有拍過裸照的情況下,都可能發現自己成了色情報復的受害者。”她對媒體表示。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E“是的,這不是你真正的私處,但別人會以爲他們看到了你的裸體。一個Deepfakes的受害者曾告訴我,她覺得有上千人看到了她的裸體,她的身體好像不再是自己的了。”馬里蘭大學法學院教授Danielle Citron在接受外媒採訪時說。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E全球執法者設法應對的同時,技術人員也在尋求破解之道。今年 6月初,有企業在 DEF CON CHINA 1.0大會上展示了“打假”成果,研究人員用深度神經網絡來訓練識別算法,識別僞造視頻的準確率超過了90%。6月底,加州大學伯克利分校和南加州大學的研究者也發佈了一項進展,據稱“打假”正確率達到了92%。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E技術似乎總是比倫理跑得快。在法律和技術都還無法有效阻止僞造裸照和淫穢視頻傳播的情況下,女性不得不更加保守和謹慎地對待社交網絡。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003ERose告訴媒體,她打算將社交賬戶設爲“私密”。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E來源:南方都市報\u003C\u002Fp\u003E\u003Cp\u003E編輯:趙可\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E"'.slice(6, -6), groupId: '6715576340952646155
相關文章