原標題:谷歌藉助人工智能讓創新性工具更易用

【手機中國新聞】根據美國人口普查局的數據,在這個國家生活着超過5千6百萬殘障人士,他們和健全人士之間的數字化鴻溝正不斷擴大。殘障美國人有大約三倍於健全人的概率不上網,以及20%更少的可能性去購買電子設備。除此之外,他們中只有40%的人有信心藉助自己的力量使用互聯網。

爲了讓互聯網更易使用,谷歌和紐約大學的“能力”項目共同發佈了“創造力(Creativity)”,一個包含了衆多探索人工智能如何幫助殘障人士實驗的項目。這些實驗可以在“創造力”的網頁上被找到,谷歌同時也開源了該項目的代碼。目前它正在向開發者們徵集新的實驗,後者可以上傳自己的作品並可能獲得被谷歌推薦的機會。這些實驗包括了從通過移動面部來創作曲調的作曲工具,到可以將景象和聲音轉化爲素描的數字畫布,以及模仿通感效果的音樂可視化工具。

谷歌藉助人工智能讓創新性工具更易用

其中的關鍵的要數由谷歌TensorFlow機器學習架構驅動的機器學習模型Posenet,它可以檢測圖片和視頻中的人體姿態。通過普通的網絡攝像頭你就可以用臉畫畫,用鼻子編曲。它由JavaScript編寫而成,圖像可以由設備自身或者瀏覽器在線處理。谷歌聲稱其曾與包括失聰作曲家Jay Alan Zimmerman,視障科學家及設計師Josh Miele,科技教育家Chancey Fleet,幫助年輕殘障音樂家組建管絃樂隊的Open Up Music公司創始人Barry Farrimond 和Doug Bott在內的殘障創作者合作開發“創造力”項目。

谷歌藉助人工智能讓創新性工具更易用

“我們希望這些實驗能激勵殘障人士釋放心中的藝術才能。”紐約大學“能力”項目的構思者和研究者Claire Kearny-Volpe在博客中寫道: “藝術給了我們超越語言的能力去實現團結,創造快樂以及獲得滿足。做得很對,技術可以推進這一過程-拓展我們的能力和潛能。”這並不是人工智能第一次被用於提升產品易用性。谷歌的DeepMind部門正使用人工智能爲失聰者提供閉合字幕。在2016年牛津大學一項共同研究中,科學家們創造了一個表現顯著優於脣讀專家的模型,它正確地翻譯了200個隨機抽取片段中46.8%的話語,相比之下人類同行的成績只有12.4%。

與此同時,Facebook也發展了可以向視障人士描述圖片的說明工具。谷歌的Cloud Vision API能夠理解圖片中物體的背景。微軟的Seeing API 具備識別手寫文本,描繪顏色和場景等能力。

查看原文 >>
相關文章