伊利諾伊大學(UIUC)正在與蘋果和其他科技巨頭合作開展"語音無障礙項目",該項目旨在為具有語音模式和殘疾的人改進目前版本難以理解的語音識別系統。雖然經常被嘲笑誤聽用戶的請求,但像Siri這樣的數字助理的語音識別系統多年來已經變得更加準確,包括開發設備上的識別。在一項新舉措中,一個項目旨在通過針對有語言障礙和殘疾的人,進一步提高準確性。
與蘋果、亞馬遜、Google、Meta和微軟以及非營利組織合作,UIUC的語音可及性項目將試圖擴大語音識別系統能夠理解的語音模式范圍。這包括關註受疾病和殘疾影響的語音,包括盧伽雷氏癥、肌萎縮側索硬化癥、帕金森癥、腦癱和唐氏綜合癥。
在某些情況下,語音識別系統可以為患有抑制運動的疾病的用戶提供生活質量的改善,但影響用戶聲音的問題會影響其有效性。
在語音可及性項目下,研究人員將從"代表不同語音模式"的個人身上收集樣本,以創建一個私人和非識別的數據集。該數據集最初將側重於美式英語,然後可用於訓練機器學習模型,以更好地應對語音。
一系列擁有虛擬助理或在其工具中提供語音識別功能的科技公司的參與可以幫助加快項目的發展。與其使用可能重復他人發現的結果的獨立團隊,這些團隊反而可以直接通過項目進行合作。
"語音界面應該向所有人開放,這包括殘疾人,"UIUC的教授Mark Hasegawa-Johnson說。"這項任務一直很困難,因為它需要大量的基礎設施,最好是能夠得到領先技術公司支持的那種,所以我們創建一個獨特的跨學科團隊,擁有語言學、語音、人工智能、安全和隱私方面的專業知識。"
訪問項目官網解更多:
https://speechaccessibilityproject.beckman.illinois.edu/