5月3日消息,微軟公司近日發佈了新的透明度報告,概述了2023年制定並部署了各種措施,負責任地發佈各項生成式產品。

微軟於2023年7月簽署自願協議,承諾每年定期公佈人工智能透明度報告,希望建立負責任的人工智能系統並讓其健康、安全發展。

微軟在《負責任的人工智能透明度報告》中,介紹了在安全部署人工智能產品方面取得的成就,共創建了30個負責任的人工智能工具,擴大了負責任的人工智能團隊,並要求開發生成式人工智能應用程序的團隊在整個開發週期中衡量和繪製風險。

該公司指出,它在其圖像生成平臺中添加了內容憑證,該平臺在照片上添加水印,將其標記爲由人工智能模型製作。

該公司表示,AzureAI客戶可以使用檢測仇恨言論、性內容和自殘等問題內容的工具,以及評估安全風險的工具。

它還正在擴大其紅隊(滲透測試團隊)工作,包括故意嘗試繞過其人工智能模型中的安全功能的內部紅隊,以及紅隊應用程序,以允許在發佈新模型之前進行第三方測試。

相關文章