來源:科技日報

據美國每日科學網站近日報道,有史以來第一次,美國科學家研製出的一套新系統,藉助語音合成器和人工智能,通過監控某人的大腦活動,將其想法直接轉化成了可理解、可識別的語音。研究人員稱,最新研究爲那些言語能力有限或無法說話的人重新獲得與外界溝通的能力奠定了基礎,也有望爲計算機直接與大腦通信開闢新途徑。

幾十年的研究表明,當人們說話(甚至想象說話)時,大腦中會出現明顯的活動模式。當我們傾聽某人說話或想象聆聽時,大腦也會出現可識別的信號模式。專家們試圖記錄和解碼這些模式,希望將人們的想法翻譯成口頭語言。

但實現這一壯舉極具挑戰性。以前科學家進行的腦部信號解碼工作主要集中於構建一些用於分析頻譜圖(聲音頻率的視覺表示)的簡單計算機模型,但這種方法不能產生任何類似於可理解的語音的東西。哥倫比亞大學莫蒂默•B。祖克曼心腦行爲研究所的莫斯尕拉尼團隊因此求諸聲碼器,這是一種計算機算法,可在接受人們說話的錄音訓練後合成語音。

爲了教聲碼器解釋大腦活動,莫斯尕拉尼與神經外科醫生阿希什•迪勒希-梅塔合作。在研究中,他們要求接受過腦部手術的癲癇患者聽取不同人說的句子,同時測量他們大腦的活動模式,這也是對聲碼器進行訓練。

接下來,他們要求這些患者聽說話者複述0到9之間的數字,同時記錄可以通過聲碼器運行的大腦信號。然後,再借助模仿生物大腦中神經元結構的人工智能——神經網絡,對聲碼器響應這些信號所產生的聲音進行分析。

莫斯尕拉尼說:“我們發現,這些人可以理解並重復75%的聲音,遠超以往任何嘗試。”

研究人員計劃接下來測試更復雜的單詞和句子。他們希望該系統可以成爲植入物的一部分,將穿戴者的思想直接轉化爲文字。

莫斯尕拉尼說:“這將改變遊戲規則。它有望讓任何失去講話能力的人,重新擁有與周圍世界聯繫的機會。”

相關文章