本文轉自:中國經濟網

許多互聯網用戶有過類似感知:剛從某購物平臺瀏覽過一款商品,再打開另一個資訊類APP時,也刷到了同類商品的廣告。這種情況不免引起不明真相的用戶疑慮。其實,這與平臺個性化廣告的推薦技術相關,購物平臺根據用戶在其APP內的間接畫像,向其它媒體進行智能投放。在此過程中平臺間僅進行技術對接,不會獲取彼此的用戶個人信息數據。而這其中正是有隱私保護技術爲該商業價值的實現提供了基本保障。

據悉,此類個性化廣告推薦是程序化廣告的一種模式,廣告主可以程序化採購媒體資源,並利用技術手段匹配精準的受衆人羣。對於大衆的疑慮,在中國廣告協會副祕書長霍焰看來,這是一個很正常的現象,以往每一次重大的技術進步都會伴隨着類似的擔憂出現,“這與信息不對稱,特別是消費者對於平臺個性化廣告運營模式、機制和背後的技術原理不熟悉的原因有關”。

日前在京舉辦的“構建規範互信數據環境的技術實踐及法律適用”研討會上,抖音集團數據與隱私法務團隊聯合清華大學數據治理研究中心共同發佈了《隱私計算法律適用規則報告》(下稱《報告》),該報告中提出“隱私保護計算”與數據保護法律的適配,爲程序化廣告等行業的個人信息保護提供瞭解決方案。

這其中,“聯邦學習”作爲隱私計算核心技術之一,可以確保在原始數據不出庫的前提下,兼顧個人信息的保護和商業價值的實現。“當廣告主、廣告投放平臺分別在各自環境內部署聯邦學習系統,各方輸入的數據只在輸入方本地的聯邦學習系統中計算,兩方的系統之間只會傳輸經過PSI求交後的ID密文、加密的浮點向量(embedding)或梯度(gradients)等數據,而用戶特徵(feature)、標籤(label)等原始數據均只在本地平臺中,從而避免了原始數據的流動。”抖音集團數據及隱私法務部副總監高震談及“聯邦學習”在數字廣告場景中的運作時,如此介紹道。

在研討會上,巨量引擎隱私合規相關負責人劉婧妍還介紹了該平臺使用的“PRL-ECC” (Private Record Linkage-Elliptic Curve Cryptography)方案,該方案使平臺在收到程序化廣告交易請求時,先將個人信息數據經過密鑰進行處理,再依靠哈希算法,使得雙方均無法反推出明文設備號,以進一步實現在廣告投放鏈路中對用戶數據隱私的保護。

對於“PRL-ECC” 方案,對外經貿大學數字經濟與法律創新研究中心主任許可表示了認可:“該方案基於密碼學基礎,避免了個人信息的不必要收集,與個人信息處理的最小必要原則相互契合。”不過,許可也表示,儘管PRL是數字廣告領域中個人信息共享的有效方案之一,但在公衆隱私期待不斷提升的背景下,如何全面落實個人信息處理的正當、合法、必要、誠信原則,依然有很長的路要走。

“隱私計算技術能可持續地爲程序化廣告的發展、個人信息保護和激發經濟活力保駕護航,但需要相關從業者加大科普力度,協助消除大衆憂慮。”霍焰在接受媒體採訪時特別強調,希望以巨量引擎等爲代表的行業各方,能持續加強探索程序化廣告場景中的用戶隱私保護解決方案,爲保障程序化廣告業務數據安全提供堅實護盾,引領數字營銷行業向着更加健康的方向發展。

相關文章