本文转自:中国经济网

许多互联网用户有过类似感知:刚从某购物平台浏览过一款商品,再打开另一个资讯类APP时,也刷到了同类商品的广告。这种情况不免引起不明真相的用户疑虑。其实,这与平台个性化广告的推荐技术相关,购物平台根据用户在其APP内的间接画像,向其它媒体进行智能投放。在此过程中平台间仅进行技术对接,不会获取彼此的用户个人信息数据。而这其中正是有隐私保护技术为该商业价值的实现提供了基本保障。

据悉,此类个性化广告推荐是程序化广告的一种模式,广告主可以程序化采购媒体资源,并利用技术手段匹配精准的受众人群。对于大众的疑虑,在中国广告协会副秘书长霍焰看来,这是一个很正常的现象,以往每一次重大的技术进步都会伴随着类似的担忧出现,“这与信息不对称,特别是消费者对于平台个性化广告运营模式、机制和背后的技术原理不熟悉的原因有关”。

日前在京举办的“构建规范互信数据环境的技术实践及法律适用”研讨会上,抖音集团数据与隐私法务团队联合清华大学数据治理研究中心共同发布了《隐私计算法律适用规则报告》(下称《报告》),该报告中提出“隐私保护计算”与数据保护法律的适配,为程序化广告等行业的个人信息保护提供了解决方案。

这其中,“联邦学习”作为隐私计算核心技术之一,可以确保在原始数据不出库的前提下,兼顾个人信息的保护和商业价值的实现。“当广告主、广告投放平台分别在各自环境内部署联邦学习系统,各方输入的数据只在输入方本地的联邦学习系统中计算,两方的系统之间只会传输经过PSI求交后的ID密文、加密的浮点向量(embedding)或梯度(gradients)等数据,而用户特征(feature)、标签(label)等原始数据均只在本地平台中,从而避免了原始数据的流动。”抖音集团数据及隐私法务部副总监高震谈及“联邦学习”在数字广告场景中的运作时,如此介绍道。

在研讨会上,巨量引擎隐私合规相关负责人刘婧妍还介绍了该平台使用的“PRL-ECC” (Private Record Linkage-Elliptic Curve Cryptography)方案,该方案使平台在收到程序化广告交易请求时,先将个人信息数据经过密钥进行处理,再依靠哈希算法,使得双方均无法反推出明文设备号,以进一步实现在广告投放链路中对用户数据隐私的保护。

对于“PRL-ECC” 方案,对外经贸大学数字经济与法律创新研究中心主任许可表示了认可:“该方案基于密码学基础,避免了个人信息的不必要收集,与个人信息处理的最小必要原则相互契合。”不过,许可也表示,尽管PRL是数字广告领域中个人信息共享的有效方案之一,但在公众隐私期待不断提升的背景下,如何全面落实个人信息处理的正当、合法、必要、诚信原则,依然有很长的路要走。

“隐私计算技术能可持续地为程序化广告的发展、个人信息保护和激发经济活力保驾护航,但需要相关从业者加大科普力度,协助消除大众忧虑。”霍焰在接受媒体采访时特别强调,希望以巨量引擎等为代表的行业各方,能持续加强探索程序化广告场景中的用户隐私保护解决方案,为保障程序化广告业务数据安全提供坚实护盾,引领数字营销行业向着更加健康的方向发展。

相关文章