“算法越智能,越能使用戶被‘安排’進所謂‘信息繭房’。久而久之,用戶處於信息‘自我禁錮’困境。”《人民日報》日前刊發了一篇題爲《大數據社會需要考慮算法治理》的文章,再次提到“算法偏見”的話題。這讓人聯想到前一段時間喧囂一時的“大數據殺熟”爭議:一邊是網友控訴在一些旅遊票務預訂平臺“同一航班的機票,賣別人2500,賣我3211”,另一邊是平臺堅稱“從來沒有,也永遠不會利用大數據損害消費者利益”。

不可否認,自從有了智能手機,我們的生活越來越方便。不過手機只是一臺機器,真正主導手機運行結果的卻是算法——算法在手機的背後,手機看得見,算法卻看不見。在搜索引擎鍵入關鍵詞,出來什麼結果、按照什麼順序排列,是算法決定的;在互聯網平臺打車、預訂機票酒店,搜索商品和服務,誰能接單、出來什麼價格,也是算法說了算。算法還能爲你自動匹配好友、找到理想員工,甚至抓到嫌疑犯。很多時候,我們消費者在接受這些個性化服務的時候,真有如沐春風之感。

但是,我們也在付出難以察覺的代價。越來越多的研究者發現,一些算法可能存在公平問題、涉及歧視甚至存在“不當收費”,損害了大衆利益,成了少數公司謀取不當收益的工具。

“大數據殺熟”就是其中一個爭議。在人手一屏的時代,互聯網公司可以通過算法實現千人千價,同一件商品,價格可以因人、因地、因時隨時改變,即動態定價和加價,例如遇上下雨天、高峯期,現在打車平臺都要加價,但加價的算法到底是如何運行的呢?是不是我們拒絕加價,叫車的優先級就會被算法降低,甚至被暫時排除在算法匹配的序列之外?這個還真不好說。

事實是,今天這個數據時代,手機聯接了我們,但同時手機又在割裂我們。雖然是同一部手機,但每個人輸入的數據不一樣,服務的結果也可能不一樣。如果要直指問題的關鍵,那就是:我們必須知道算法運行的邏輯和決策的標準究竟是什麼。

問題是,自誕生以來,一個算法是如何設計的,它就是一個商業公司的核心機密,對所有消費者而言,算法像一個黑盒子,除了公司的高級管理人員和算法開發人員,一個公司的普通員工都無從知曉黑盒子裏的祕密,更不用提消費者了。那麼,我們究竟應該怎麼辦?算法需不需要治理?

在我看來,把算法的開發和設計列爲商業祕密,可以理解、也可以接受,但算法的邏輯和“功效”,應該是可以公開的。這就好像藥品,其製藥的工藝過程可以是商業祕密,但一個藥的成分和功效卻是應該、也必須公開的。否則消費者怎麼能、又怎麼敢把它吞下口呢?

把算法比作藥品,是指它和藥品一樣,能夠解決某種特定的問題,換一個角度看,算法輸入的是數據,輸出的也是數據,它服務大衆、完成某種功能,它也可以被視爲雲端這條大流水線上的一個設備,不過是虛擬設備罷了,既然是服務大衆的設備,那就應該有說明書,沒有說明書就用,那是亂用,和不看說明書就把藥喫了,又有什麼不同呢?

考慮到算法對人類生活方方面面的重大影響,把算法比作藥品或者是保健品,並不爲過。在很多聚合性資訊平臺上,其算法決定了讀者可能會讀到什麼,這些讀到的東西,毫無疑問會影響一個人的心理和意識甚至精神的健康。一顆藥丸要進入市場,生產廠家必須對它的成分、性狀、功用、服用方法以及可能產生的副作用逐一作出說明。對應到算法,它也應該有“成分、性狀和功效”說明,對其輸入、輸出的數據,互聯網公司也應該作出說明,其說明的真實性甚至還需要接受市場管理部門的審查

可以預計,今天及未來的城市生活,將會越來越依賴算法,算法將無處不在,算法治理是一個公平社會、效率社會必須關注的問題。傳統互聯網,其治理的重點常常是內容;今天和未來,我們要對算法進行合理適度的治理,需要專業的人員和機構。在前不久的新一輪政府機構改革中,包括廣東在內的許多省市紛紛成立了大數據管理局。或許,在不久的將來,在大數據管理局或者市場監督管理局可以增設監督算法公平的職能和崗位

本文首發於《南方日報》2019年1月23日A03版

相關文章