原標題:金融領域如何應對AI安全?第三代人工智能給出解決方案

記者傅碧霄 

隨着人工智能技術在金融場景的應用不斷深化,數據、算法與應用層的安全可控問題逐漸凸顯。

6月3日,在北京智源大會“AI安全與產業治理”論壇上,中國科學院院士、清華大學人工智能研究院院長張鈸表示,包含知識、數據、算法和算力四個要素的“第三代人工智能”,爲發展安全、可信、可靠和可擴展的AI技術提供了可能性。

金融業的AI安全問題

對於金融行業來說,人工智能的安全問題尤其需要警惕。

“就像打仗一樣,攻擊者可能用水攻,也可能火攻,還可能偷偷挖條地道來攻打一座城,守城的人不能只考慮一種可能性,必須佈防應對許多的攻擊可能性。”阿里安全高級算法專家越豐這樣說道。

清華大學計算機系教授、瑞萊智慧首席科學家朱軍也指出,目前人工智能算法的安全性存在嚴重不足,爲智能技術的應用帶來較大隱患。

當前,金融機構也在大力投入人工智能領域的研發,在中國工商銀行軟件開發中心大數據與人工智能實驗室副主任黃炳看來,這背後的一個重要原因正是普惠金融的發展。

發展普惠金融,金融機構面對的數據樣本存在嚴重的地區不平衡和人羣不平衡,加之算法設計的不合理,便容易產生公平性問題。

黃炳指出,現在越來越多的數據通過線上渠道採集而來,如何對數據進行精準識別與分類成爲重要問題。另外,金融業還面對算法的可解釋性問題。

“長期以來,金融機構的風控模型就是簡單的邏輯迴歸。而隨着90後、00後步入社會,如何將海量的數據融合從而提供更好的智能金融服務,這是金融機構需要思考的。”黃炳這樣說道。

瑞萊智慧CEO田天對《華夏時報》記者表示,現階段人工智能產業正經歷從高速增長向高質量發展的轉變。人工智能已經突破傳統的感知智能階段,進入到更加高階的認知決策階段,人工智能已開始接近一些核心的智能問題。

田天指出,金融等更高價值場景的AI應用需求不斷增加,安全性的重要性也大大提升。但由於傳統技術範式存在天然的算法漏洞和缺陷,導致人工智能在這些場景的應用存在侷限。

第三代人工智能備受關注

張鈸指出,人工智能的安全可控問題要從技術層面來解決。

據黃炳介紹道,工行在現有人工智能技術體系基礎上,圍繞“軟硬件運營環境可信、數據隱私保護、算法模型安全”三大核心能力建設出金融領域的人工智能安全可信能力。

他還強調,AI安全是AI大規模應用的前提和必備條件,同時AI可信能力必須是全棧且覆蓋模型全生命週期。通過安全可信技術的研究和突破,提升規模化AI生產部署的安全可信支撐能力,可以增強多方數據生產要素的融合能力,爲數字經濟社會提供更高效率、更低成本、更低門檻的普惠金融服務。

關於AI在金融風控中的應用,建信金融科技有限公司創新實驗室總經理王雪從實操層面進行了詳解。

據王雪介紹,客戶在銀行申請信用貸款時首先要進行測額,這一環節的難點在於,如何測度客戶的無形資產價值,即預測客戶在未來幾年內的個人資產總量。

建信金科採用包括AI、經濟學理論、資本理論、認知行爲理論在內的跨學科方法,利用人工智能的機器學習算法提煉出數據驅動的金融素養標籤。

例如,某批發行業小企業主擁有一些固定資產,和一些金融資產,年收入100萬元,建信金科根據他的信息測算形成模型,據此可以構建未來三年的流動性風險限額。這樣的模式更加客觀,也更具前瞻性,使銀行可以更快、更好地把握風險。

另外,在數據隱私保護方面,建信金科還構建了企業級的隱私保護平臺。

關於人工智能的安全可控,田天認爲,“安全”是指打造數據安全與算法安全兩大核心能力,解決數據強依賴帶來的隱私泄漏與數據投毒等隱患,同時提升算法可靠性。“可控”既指應用層面的合規可控,更指核心技術的自主可控,以自主可控爲根基,通過理論創新、技術突破形成核心競爭力。

會上,清華大學聯合阿里安全、瑞萊智慧發佈了首個公平、全面的AI攻防對抗基準平臺,該平臺可實現對AI防禦和攻擊算法的自動化評估。

“安全可控是發展第三代人工智能的核心基準,也是加快人工智能高質量發展的有力支撐。”田天這樣說道。

相關研究報告顯示,到2030年全球人工智能市場規模預計將達到15.7萬億美元,約合人民幣104萬元。“深度智能”時代正將加速到來,人工智能在金融領域的應用不斷拓展。

智能金融的未來充滿想象空間,但要實現真正的人工智能仍面臨諸多深層挑戰。第三代人工智能通過釋放“數據、知識、算法、算力”的全新維度,爲實現安全可控的新一代人工智能提供可能,有望重塑金融行業價值。

相關文章