美國紐約大學科研人員利用深度學習架構(gòu)和神經(jīng)外科監(jiān)測數(shù)據(jù),揭示了人類語音生成過程中前饋和反饋機制的交互作用。該研究成果發(fā)表在《美國科學院院報》(PNAS)上。
人類語音生成過程是一個復雜的神經(jīng)生物學現(xiàn)象,涉及運動命令的前饋控制以及自身產(chǎn)生語音的反饋處理,并需要大腦中多個神經(jīng)網(wǎng)絡協(xié)同參與。科研團隊通過結(jié)合深度學習架構(gòu)和人類神經(jīng)外科監(jiān)測數(shù)據(jù),采用了一種基于規(guī)則的可微分語音合成器,以解碼大腦皮層信號中的語音參數(shù)。通過實現(xiàn)區(qū)分因果(當前和過去的神經(jīng)信號)、反因果(當前和未來的神經(jīng)信號)或兩者(非因果)時間卷積組合的神經(jīng)網(wǎng)絡架構(gòu),科研人員可深入分析前饋和反饋機制在語音生成中的貢獻和交互作用。
該研究不僅揭示了人類語音生成過程的深層神經(jīng)機制,還啟發(fā)了一種新型的語音假肢技術(shù),在神經(jīng)工程和語音重建領(lǐng)域具有突破性意義。
本文摘自國外相關(guān)研究報道,文章內(nèi)容不代表本網(wǎng)站觀點和立場,僅供參考。