科技日報北京6月15日電(記者張夢然)美國加州大學大衛斯分校團隊開發出一種研究性腦機介面,有望幫助因神經系統疾病而失去說話能力的人重新“發聲”。這項成果發表在最新一期《自然》雜誌上,展示了該科技如何在人嘗試說話時,立即將大腦活動轉化為語音,從而創建出一種“數位聲帶”。
這項科技已在一名患有肌萎縮側索硬化症(俗稱“漸凍症”)的參與者身上測試成功。他通過植入式腦機介面,借助電腦與家人實时對話,不僅可以控制語調,還能唱出簡單的旋律。
此前的語音腦機介面主要將神經活動翻譯成文字,類似於發送短信,存在延遲並影響自然交流。而這種新型實时語音合成系統則更接近於語音通話,使用戶能够更自然地參與對話。
新植入式腦機介面系統由4個微電極陣列組成,電極通過手術植入大腦中負責語音生成的區域。當參與者試圖說話時,電極記錄下神經元的活動,並將訊號傳輸到外部電腦進行解碼,最終重建語音輸出。團隊還開發了一種新算灋,能將每一時刻的大腦活動精確轉換為對應的語音,參與者可通過調整音高來表達不同的情感或意圖,比如提問、發出感歎或強調某個詞語。
新技術的速度非常快,從神經訊號採集到語音合成僅需1/40秒——這個延遲時間幾乎等同於人們正常說話時聽到自己聲音所需的時間。
參與者還能用該系統“唱”出簡短的旋律,顯示出語音合成的靈活性。聽眾對合成語音的理解率達到近60%,而在不使用該系統的情况下,他的語音僅能聽懂約4%。
實現這一過程的關鍵在於先進的人工智慧算灋。通過對數百個神經元放電模式的分析,團隊成功地將這些模式與參與者試圖產生的語音同步。這使得算灋能在沒有語音輸入的情况下,僅憑神經訊號就準確重建他想要表達的聲音。
這項研究標誌著腦機介面技術在恢復自然語言能力方面邁出的重要一步,為因疾病或損傷而失語的人群帶來了新的希望。未來,其有望應用於更多患者,推動神經假體領域邁向更加智能化和人性化。
【總編輯圈點】
這項研究不僅實現了大腦訊號向語音的實时轉換,更重要的是,它恢復了交流中的語調變化和節奏控制,使溝通更自然、更個性。相較於以前的輸出管道,明顯提升了交流效率與情感表達,極大增强了使用者在對話中的主動性和參與感。相信這項科技有潜力廣泛應用於漸凍症、中風、腦幹損傷等導致喪失語言能力的疾病治療中。同時,隨著算灋優化和硬體小型化,還能拓展到更多神經康復領域,甚至推動人機交互邁向更智能化與人性化。