首頁 >國際 >

美國科學(xué)家用AI算法轉(zhuǎn)換大腦信號 有望幫助失語人士

除了打字,失去說話能力的人還可以依靠什么方式與他人交流?人工智能或許帶來了新的解決方案。

4 月 24 日,《自然》雜志刊登了加州大學(xué)舊金山分校的一項研究成果:科學(xué)家研發(fā)了一種實驗性的“大腦解碼器”,將研究對象的大腦信號與人工智能、語音合成相結(jié)合,從而幫助語言能力受損的人“說出”他們的想法。

許多疾病會導(dǎo)致人失去說話能力,比如中風(fēng)、癌癥,以及肌萎縮性脊髓側(cè)索硬化癥(俗稱“漸凍癥”)。著名科學(xué)家霍金就患有漸凍癥,在很長的時間里,他只能借助輪椅上的電腦和幾根手指與外界交流,每分鐘拼出15-20個單詞。2008 年病情惡化后,霍金連手指都無法再活動,唯一能控制打字的只剩下右臉頰的一塊肌肉,打字速度下降到每分鐘5-6個單詞。

人的正常說話速度約為每分鐘 150 個單詞。研究人員希望借助“大腦解碼器”,讓苦于相關(guān)疾病的患者用正常速度與他人對話。

不過,“大腦解碼器”并不能像科幻電影里那樣直接“讀心”。研究負(fù)責(zé)人、加州大學(xué)舊金山分校的神經(jīng)外科學(xué)家Edward Chang介紹,解碼的關(guān)鍵是聲音系統(tǒng)的數(shù)據(jù)建模。

換言之,“大腦解碼器”是通過比照說話時的大腦信號與發(fā)聲部位的運動情況,推斷出患者想說什么。

在實驗中,研究人員找到了五名能正常說話的癲癇患者作為志愿者。為了治療癲癇,這些患者的大腦表面被植入了能夠監(jiān)測電信號的電極,因此有條件開展額外的實驗。

實驗中使用的電極。圖片源自加州大學(xué)舊金山分校。

一方面,研究人員要求患者大聲朗誦數(shù)百個句子,并記錄下大腦皮層信號。另一方面,研究人員記錄了患者說話時的肌肉運動數(shù)據(jù),涉及到舌頭、嘴唇、下頜和喉部等地方的大約 100 塊肌肉。打個比方,研究人員就像記錄了一套“發(fā)聲樂譜”,但樂譜上寫的不是音符,而是一塊塊肌肉的運動情況。

接下來,研究人員用這些數(shù)據(jù)建模,訓(xùn)練出一套深度學(xué)習(xí)的算法,然后將其輸入到解碼器中。解碼器對大腦信號進行轉(zhuǎn)換,推算出相應(yīng)的聲道運動,再將這些運動轉(zhuǎn)換為合成語音。

算法的轉(zhuǎn)換過程。圖片源自《自然》雜志。

圣地亞哥州立大學(xué)神經(jīng)科學(xué)家Stephanie Riès對《自然》表示,通過聲道運動的映射來合成語音,比直接將大腦信號轉(zhuǎn)換為語音要容易理解得多。

不過,這套系統(tǒng)目前還停留在實驗階段,沒有精確到足夠應(yīng)用的程度。芝加哥西北大學(xué)神經(jīng)學(xué)家Marc Slutzky說,研究邁出了重要一步,但要使得合成語音易于理解,科學(xué)家們還有很長的路要走。

這個視頻里展示了合成語音和原聲的效果。跟原聲相比,合成語音在某些發(fā)音上會顯得不夠清楚。視頻來源:加州大學(xué)舊金山分校。

采寫:南都實習(xí)生陳志芳 記者馮群星

關(guān)鍵詞:

責(zé)任編輯:Rex_01