原標題 AI換臉或受《民法典》人格權編嚴監管,我們該如何防範技術作惡?

作者 編輯部的故事

2020年5月28日下午,十三屆全國人大三次會議表決通過了中華人民共和國民法典,民法典將在2021年1月1日正式施行。6月1日晚,兩會已授權民法典正式文本發佈。

這是中國1949年後首部以“法典”命名的法律,財新評價它:“象徵生命、自由、財產的私權立法迎來高光時刻。”值得注意的是,民法典人格權編中明確規定了不得用技術手段僞造等方式侵害他人肖像權,矛頭直接指向AI換臉、變聲。

“民法典正式施行後,即便用戶利用AI技術換臉只是單純的娛樂,沒有營利目的,也有可能被認定爲是侵犯肖像權。”廣東合邦律師事務所律師肖錦陽對開源中國表示,《民法典》第1019條明確規定了肖像權的消極權能,這對AI換臉等濫用信息技術手段侵犯肖像權的行爲進行禁止和預防具有積極意義。

我國新頒佈的民法典中第1019條就規定:

任何組合或者個人不得以醜化、污損,或者利用信息技術手段僞造等方式侵害他人的肖像權。未經肖像權人同意,不得製作、使用、公開肖像權人的肖像,但是法律另有規定的除外。

未經肖像權人同意,肖像作品權利人不得以發表、複製、發行、出租、展覽等方式使用或公開肖像權人的肖像。

而在此之前,我國的肖像權保護主要參照《民法通則》第一百條規定:

公民享有肖像權,未經本人同意,不得以營利爲目的使用公民的肖像。

AI 換臉在技術層面只是做深度學習訓練的一個切入點,往往兼具娛樂性。但在應用和商業方面,很多換臉軟件遊走在灰色地帶,甚至引發法律風險。現在,人們通常用 deepfake(可直譯爲深度造假)來指代那些會造成不良影響的 AI 換臉影像成品和軟件。

隨着 deepfake 的泛濫,多個國家已出臺政策法規監管。此外,爲防止技術作惡,人們正嘗試用技術制衡技術,也有人在探討如何爲從事技術開發的人員增加一門“道德倫理課”,以追求行業自律……

deepfake “遊戲”氾濫

在5月28日民法典表決剛剛通過時,“AI 換臉被納入監管”的“提示”就立刻在 IT 業傳播開來。

關注度在一定程度上反映了其熱度。日前,GitHub 上一個集成各類 deepfake 功能的倉庫DeepFaceLab 登上熱榜。DeepFaceLab 的介紹中赫然寫着:DeepFaceLab 可以用來換臉,和改變政客們的言論。截至目前,DeepFaceLab 已有14.7K Star。

製造deepfake影像的門檻正在變低。深圳大學計算機與軟件學院副教授儲穎告訴開源中國,無論是將人臉互換、還是直接生成虛假圖片視頻,技術上都屬於深度學習範疇,差別無非就是數據集不同、模型不同、算法不同和參數不同。“人工智能的技術應用門檻正在變得越來越低”。

近兩年,由於生成對抗網絡技術GAN也被用在deepfake製作中,生成的虛假圖片視頻數量飛速上漲。

此外,人工智能在2012年開始火熱也是由於圖像分類識別研究的興起,慢慢從圖像識別、再到圖像生成。而AI合成圖像視頻又是可以看得見、摸得着的應用,因此很多開發者都在嘗試此類應用,這也讓“造假”不可避免地增多。加上虛假信息常和女星、政客、高熱度人物捆綁,deepfake應用和成品往往能飛快走紅。

2019年8月30日,陌陌上線一款智能換臉產品ZAO。用戶只需要在軟件中上傳一張自己清晰、正面的照片,便能將一些經典影視作品中的人物換成自己,同時保留影視人物特徵和自己的部分面部特徵,生成短視頻和 GIF 動圖。視頻和動圖處理過程僅需1-10秒,之後用戶可以將其分享至微信、微博、QQ等平臺。

推出後的第三天,2019年9月1日,ZAO就登頂Apple App Store免費娛樂應用程序榜單。

但由於ZAO的用戶隱私條款存在爭議,很快被微信封殺,陌陌也被網信辦約談整改,熱度驟降。不過,ZAO是用戶將自己的臉套到其他人臉上,最終成果綜合了兩個人物的面部特徵,此類換臉在肖像權和虛假信息傳播方面引發的爭議較小。

而通常我們在談論deepfake有害時,更多指將別人(尤指公衆人物)的臉換到自己、第三人、或虛擬人物的臉上,只保留該人物的面部特徵,但套上了原本不屬於他的面部表情,合成以假亂真的視頻圖片,導致虛假信息甚至新聞擴散

deepfake一詞出現在2017年12月。當時 Reddit 上一個ID爲deepfake的用戶,上傳了一個合成視頻,內容是將好萊塢明星蓋爾·加朵的臉換到情色電影中的女主角身上。該軟件迅速流行起來,但由於很多人不滿,2018年初,Reddit開始封禁deepfake。2019年2月,deepfake在GitHub上的倉庫遭限制訪問。

但deepfake依然備受關注,更多的deepfake軟件和視頻在出現。現在最常見的是使用AI換臉,合成色情或政治人物言論視頻,這可以帶來黑產交易,甚至影響部分國家和地區的政治局勢。

去年有人調查, AI換臉一度形成一條完整的色情黑色產業鏈。閒魚上曾有商家售賣女星的換臉合集視頻,並且提供從成品情色視頻,到軟件製作各環節的交易和服務。當然,曝光之後平臺方做了整改,現在在閒魚上檢索“換臉”,已經沒有相關商品。外媒也曾報道,有技術人員利用 GAN,開發出deepnude等應用程序,可快速使圖像中的人物脫光衣服,以恐嚇和騷擾他人。

另外,一些廣爲流傳的deepfake視頻,主角是知名政客。如下圖中的奧巴馬,均是 AI 合成。2018年,加蓬出現一條涉及總統Ali Bongo新年致辭的虛假合成視頻,甚至引起兵變。過去政客間慣用的以性醜聞打擊對手的招數也借deepfake重燃。如2019年,馬來西亞出現一條涉及內閣大臣的性醜聞錄像帶,後被指控爲政治陰謀。

“從長遠來看,deepfake對民主構成了嚴重威脅,但女性很可能首先遭受苦難”,這是2019年,荷蘭一家專爲監測deepfake而生的網絡安全公司deeptrace發表的調查結果總結。根據Deeptrace的數據,deepfake 視頻從2018年12月的8,000個增長到2019年年中的14,678個。幾乎所有內容都是色情內容,並且這些假視頻截至調查時已被瀏覽1.34億次。 

一方面,deepfake影像製作越來越簡單。另一方面,虛假影像對人身財產安全、人格尊嚴、社會安定的影響愈發嚴重。於是,人們也在加緊尋找減少技術傷害的方法。

用技術、道德規範和法律減少傷害

deepfake虛假信息造成的負面影響,正被技術人員嘗試同樣用AI來解決。“開發者通過技術制衡技術”,肖錦陽認爲,對於防止AI換臉作惡,目前最有效的方法是開發相應的檢測技術。

2019年8月,美國國防部高級研究計劃局DARPA發佈一項旨在能夠自動檢測、歸因和表徵僞造媒體資產的技術——語義取證SemaFor。SemaFor的目標是開發一套語義分析算法,增加僞造媒體內容生產者操控、傳播虛假信息的難度。

之後,2019年9月,Facebook微軟又聯合包括麻省理工、牛津大學在內的幾所高校,發起一項deepfake的檢測挑戰賽。谷歌亞馬遜等企業也參與其中,提供數據和資助。

Facebook給參賽者開放訪問100000多個視頻的獨特數據集權限,並提供1000萬美元的研究資助和獎勵。谷歌母公司 Aiphabet 旗下的 Jigsaw 和谷歌一起,提供了3000個付費演員的新視頻數據集,以幫助改善偵查技術。亞馬遜提供100萬美元的雲信用額度支持該挑戰。

此外,Jigsaw 還曾發佈一種新事實檢查工具 Assembler,使用 AI 來幫助記者檢查圖像是否僞造或被篡改。Jigsaw 還建立了一個 StyleGAN 檢測 deepfake 成品,使用機器學習發現真實人物和被操縱人物圖像之間的差異。

AI 檢測到虛假影像資料之後,就可以提醒用戶。Facebook、Twitter 選擇了標記 deepfake 資料和刪除有嚴重危害的信息。

今年初,外媒報道,Facebook 在美國2020總統大選之前,正加緊審查包含 AI 換臉的假消息。Facebook 全球政策管理副總裁 Monika Bickert 表示,不一定要刪除被標記爲“假”的視頻,但會向用戶發出警告,告知它們是假的。“如果我們僅刪除事實檢查人員標記爲虛假的所有操縱視頻,這些視頻仍將在互聯網或社交媒體生態系統的其他位置提供。通過將其保留並標記爲虛假,我們將爲人們提供重要信息。”此外對於可能造成重大社會危害的虛假信息將做刪除處理。

Twitter 刪帖也是有前提的。如內容可能對某團體或個人人身安全構成威脅,或可能造成暴動和內亂,那麼 deepfakes 內容將會被刪除。反之,可能只是打上標記。2月,Twitter 在術語表中添加了一個新條款,涵蓋了“合成和受控媒體”,表示會標註包含技術僞造內容的推文,並在人們轉發推文之前向他們顯示警告,並阻止推薦。 

在肖錦陽看來,平臺經過覈驗並帶有標識的傳播擴散,不失爲一種好的方式。當然,在做技術檢測的同時,通過相關法律規範各方行爲也是必不可少的一步。

針對平臺方,肖錦陽指出,平臺應對於用戶的隱私和 AI 換臉問題應當按照國家有關規定開展安全評估,進一步加強監管審覈。

根據《侵權責任法》的規定,網絡用戶利用網絡服務平臺實施侵權行爲的,平臺負有采取刪除、屏蔽、斷開鏈接等措施,未採取必要措施的,將與該網絡用戶承擔連帶責任。且網絡服務提供者知道網絡用戶利用其網絡服務侵害他人民事權益,未採取必要措施的,也將與該網絡用戶承擔連帶責任。因此,平臺方面對於用戶的隱私和“AI換臉”問題應當按照國家有關規定開展安全評估,進一步加強監管審覈。

同樣對於用戶來說,隨意使用並上傳 deepfake 視頻也有很大法律風險。肖錦陽介紹,用戶如果要進行 AI 換臉使用、合成、再加工,首先需要得到肖像權人的同意;並不得侵害他人人格權益、不危害社會公共利益。民法典之外,國家還相繼出臺了一些規定等,規範網絡視頻、圖像傳播。

去年底開始,國家相繼發佈《網絡音視頻信息服務管理規定》、《網絡信息內容生態治理規定》等法規,明確不得利用深度學習、虛擬現實等新技術新應用從事法律、行政法規禁止的活動。《網絡音視頻信息服務管理規定》明確,任何組織和個人不得利用網絡音視頻信息服務以及相關信息技術從事法律法規禁止的活動,侵害他人合法權益。

網絡音視頻信息服務提供者和網絡音視頻信息服務使用者違反上述《規定》的,依照《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》《互聯網新聞信息服務管理規定》《互聯網文化管理暫行規定》《互聯網視聽節目服務管理規定》等相關法律法規規定處理;構成違反治安管理行爲的,依法給予治安管理處罰;構成犯罪的,依法追究刑事責任。

這是法律層面的討論,但很多時候,人們都希望問題可以在法庭之外就能被解決,比如提高道德規範。

此前,在 GitHub 限制 deepfake 倉庫時,就有許多開發者提及應該在學校教育中加入“計算機倫理課”,在學習寫代碼之外,瞭解相關法律、以及應如何使用技術的哲學和道德規範。甚至有人發出疑問:要不要製造可能被濫用的技術?這類問題也並不只是聚焦在 deepfake 上。一位科普及解密紀錄片導演詹姆斯•巴拉特,2016年發表《我們最後的發明》一書,提出這樣一個問題:“我懷疑的是先進人工智能的安全性,以及現代文明開發先進技術的魯莽性。”

不過,儲穎認爲,技術本身無對錯。從防止技術作惡的角度出發,開設計算機倫理課固然有必要,但要想守住底線,立法纔是保證。“這涉及道德和法律的關係問題。道德是內在的,非強制性的;法律是外在的,具有明確的強制性。我們應在法律約束的基礎上,儘可能地提高自己的道德標準。”

儲穎現在正在教授《計算機倫理學》課程。這門課程4年前由計軟學院首次在內部開設,去年開始增設了面向全校學生的“品牌通識課程”。儲穎指出,目前在全國範圍內開設此類倫理課程已經是一個趨勢。2018年5月,國務院學位委員會頒佈了《關於轉發<關於制訂工程類碩士專業學位研究生培養方案的指導意見>及說明的通知》,將工程倫理課納入工程碩士專業學位研究生公共必修課範疇。近年來,全國工程專業學位研究生教育指導委員會已組織多期《工程倫理》師資培訓課程。

而關於倫理課要講什麼,儲穎也給出了自己的看法:

“目的不是告訴學生怎麼做和做什麼,而是提醒他,你需要思考這件事,並在將來做出正確的倫理抉擇。”

相關文章