用戶希望得到個性化推送卻不信任算法,背後啥原因?

人民政協報 本報記者 崔呂萍

隨着算法普遍應用於互聯網服務的各個領域,規範算法應用、防範風險成爲各方期待。日前,浙江金融科技倫理委員會發布了《算法應用的用戶感知調查與分析報告》(以下簡稱《報告》)。《報告》顯示,八成受訪者希望得到個性化推送卻不信任算法,對算法透明有着更高的期待。

去年以來,《關於加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定》《人工智能算法金融應用評價規範》等陸續出臺。大型金融機構及頭部互聯網平臺也紛紛採取行動,積極探索算法治理和倫理建設。成立於2021年3月的浙江省金融科技倫理委員會,是全國首個省級金融科技倫理委員會,由浙江互聯網金融聯合會牽頭,螞蟻集團、浙商銀行、連連支付等企業代表共同參與發起,旨在充分結合學界理論智慧和業界實戰經驗,探索加強金融科技倫理標準與規範建設。

《報告》調研發現,八成受訪者希望得到個性化推送卻不信任算法,其背後大致分爲三方面原因:首先,用戶對算法的排斥實質上是對企業過度利用算法行爲的排斥,並非排斥算法技術和算法應用本身;其次,信息不對稱導致用戶對算法應用存在錯誤認知和牴觸傾向;最後,由於學歷背景、成長環境、收入水平等存在差異,用戶對待算法的感受分化明顯,防範相關風險的能力也存在差異。

《報告》同時認爲,絕大多數受訪者對算法透明有着更高的期待。調研中,超半數受訪者不清楚企業是否使用了算法;60%的受訪者不瞭解企業使用算法的內容和目的;7.22%的受訪者認爲企業不需要對算法進行解釋,54.28%的受訪者認爲企業需要對用戶詳盡解釋算法,38.49%的受訪者認爲只要簡單解釋即可。

算法安全方面,受訪者對算法表現出普遍的“不信任”,希望在規範中促進算法的合理應用和健康發展,期待多維度加強算法風險治理。在各項治理舉措中,受訪者認爲最有效的還是強化自我主動管理。

算法公平方面,受訪者對以“大數據殺熟”爲代表的差別定價態度差異較大,22.16%的受訪者表示沒有經歷過差別化定價,51.46%的受訪者表示偶爾經歷差別定價,26.38%的受訪者表示經常經歷差別定價。絕大多數受訪者表示,在感覺到差別定價後會堅定維護自身權益,並將規則是否透明作爲判斷差別定價的重要影響因素。

算法向善方面,受訪者認爲算法推薦下的過度消費問題並不突出,但信息繭房(即指人們關注的信息領域會習慣性地被自己的興趣所引導,從而將自己的生活桎梏住的現象)、不良信息等問題在一定程度上存在。

基於用戶調研結果,《報告》對互聯網企業提出了多項建議:在個人信息保護法、互聯網信息服務算法推薦管理規定基礎上,分層次進行算法解釋,提高算法透明度;加強算法公平評測、信息安全框架建設,防範算法風險;加強“規則透明”等規範,保障用戶享有平等的知情權、選擇權;加強內容治理,積極響應用戶訴求;暢通不良信息的投訴、舉報、反饋機制。

責任編輯:梁斌 SF055

相關文章