鳳凰網科技訊 《AI哨所》北京時間5月2日消息,根據周一發表在《自然神經科學》雜志上的一篇經過同行評議的研究,科學傢已經開發出一種無創人工智能(AI)系統,專註於將人的大腦活動轉化為一連串文本。
這個系統被稱為語義解碼器,最終可能會使那些因中風、癱瘓或其他退行性疾病而失去身體交流能力的患者受益。此前,研究人員已經開發出語言解碼方法,可以讓失去說話能力的人嘗試說話,讓癱瘓的人在想寫的時候也能寫。但新的語義解碼器是首批不依賴大腦植入物的解碼器之一。在這項研究中,它能夠將一個人想象中的語言轉化為實際的語言,在觀看無聲電影時可以對屏幕上發生的事情產生相對準確的描述。
美國得克薩斯大學奧斯汀分校的研究人員在開發該系統時部分使用“變換模型”(Transformer),該模型類似於支撐OpenAI聊天機器人ChatGPT和谷歌聊天機器人Bard的語言模型。這項研究的參與者通過在功能性磁共振成像(fMRI)掃描儀上傾聽幾個小時的播客來訓練解碼器。fMRI掃描儀是一種測量大腦活動的大型機器。
鳳凰網科技 《AI哨所》解到,科學傢們記錄三名參與者聽16個小時敘述性故事時的核磁共振成像數據,以訓練模型在大腦活動和語義特征之間建立映射,捕捉某些短語的含義以及相關的大腦反應。
“這不僅僅是一種語言刺激,”得州大學的神經科學傢亞歷山大胡斯(Alexander Huth)說,他協助領導這項研究,“我們正在聽懂意思,關於正在發生的事情的一些想法。可能發生的事實是非常令人興奮的。”
一旦AI系統經過訓練,當參與者正在傾聽或想象講述一個新故事時,它可以生成一連串文本。這種生成的文本並不是一個精確的文字記錄,研究人員設計它的目的是捕捉一般的想法或觀點。
根據得州大學大學奧斯汀分校發佈的一份新聞稿,經過訓練的AI系統生成的文本在大約一半時間裡與參與者原話想表達的意思非常接近或精確匹配。例如,當參與者在實驗中聽到“我還沒有駕照”這句話時,這種想法被翻譯成“她甚至還沒有開始學開車”。
“對於無創方法來說,這和之前相比實現一個真正的飛躍,之前的方法通常隻能生成單詞或簡短的句子,”胡斯在新聞稿中稱,“我們正在讓這個模型在很長一段時間內解碼具有復雜思想的連續語言。”
新聞稿稱,參與者還被要求在掃描儀中觀看四個沒有音頻的視頻,AI系統能夠準確描述其中的“某些事件”。
局限性
不過,胡斯博士和他的同事們指出,這種語言解碼方法存在局限性。首先,fMRI掃描儀體積龐大,價格昂貴。此外,訓練模型是一個漫長而乏味的過程,為做到有效必須對個人進行訓練。當研究人員試圖使用在一個人身上訓練過的解碼器來讀取另一個人的大腦活動時,它失敗,這表明每個大腦都有獨特的表達意思的方式。
截至周一,解碼器還無法在實驗室環境之外使用,因為它依賴於fMRI掃描儀。但研究人員相信,它最終可以通過更便攜式的腦成像系統來使用。該研究的主要研究人員已經為該技術申請專利合作條約(PCT)專利。
而且,參與者還能夠屏蔽他們的內心獨白,通過思考其他事情來擺脫解碼器。AI也許能夠讀懂人類的思想,但目前它隻能在人類允許的情況下,一次讀一個。