AI下一個重大飛躍是理解情感 第一個具有情商的對話型AI來


一傢來自紐約的初創公司HumeAI發佈一款標榜為“第一個具有情商的對話式人工智能”的共情語音接口(EVI),並表示其能夠從用戶那裡檢測到53種不同的情緒。AI的下一個重大突破是理解情感嗎?HumeAI表示是的。3月27日,一傢名為HumeAI的新創公司宣佈,他們已經在一輪B輪融資中籌集5000萬美元。

這傢初創公司由前Google DeepMind研究員Alan Cowen共同創立並擔任CEO。

Hume AI與其他人工智能模型提供商和初創公司的區別在於,它專註於創建一款能夠理解人類情感、適當做出反應並向用戶傳達情感的人工智能助手。

這款聊天機器人不僅基於文本,還使用語音對話作為其接口,通過聽取人類用戶的語調、音高、停頓等聲音特征來運作。

Hume AI同時發佈其名為“共情語音界面”(Empathic Voice Interface)的演示,隻需要使用帶有麥克風的設備,就可以與之進行互動。


為什麼AI需要理解情感

Hume AI的理論是,通過開發能夠更細致地理解和表達人類情感的AI模型,它可以更好地為服務用戶。

Hume AI不僅僅想要解用戶“快樂”、“悲傷”、“憤怒”、“害怕”等等通用的人類情緒,而是更微妙、通常是多維的情緒。

比如“欽佩”,“崇拜”,“入迷”,“諷刺”,“羞恥”等等,Hume AI在其網站上總共列出53種不同的情緒。


官網地址:https://dev.hume.ai/docs/expression-measurement-api/overview(上下滑動查看全部)

對此,Hume AI表示:

情感智能包括從行為中推斷意圖和偏好的能力。這正是AI界面試圖實現的核心目標:推斷用戶想要什麼並實現它。因此,在某種意義上,情感智能是AI界面的最重要的要求。

通過語音AI,你可以獲得更多關於用戶意圖和偏好的線索。

這使得我們的AI在預測人類偏好和結果、知道何時說話、知道該說什麼以及如何以正確的語氣說話方面變得更加出色。


Hume AI演示之後,反響十分狂熱。

雲端和Web應用開發軟件公司Vercel的首席執行官Guillermo Rauch就發帖稱:“這是迄今為止我見過的最好的人工智能演示之一。”

如何從語音變化中檢測情緒

在其網站上,Hume指出:“這些模型是基於大規模、實驗控制的情感表達數據的人類強度評分上進行訓練的。”

這些數據來源於Cowen及其同事發表的兩篇科學研究論文:“Deep learning reveals what vocal bursts express in different cultures”和“Deep learning reveals what facial expressions mean to people in different cultures”。

第一項研究包括來自美國、中國、印度、南非和委內瑞拉的16,000名參與者,有意思的是,數據集裡面還有一部分是用來記錄“語音爆發”或非詞匯聲音,如笑聲和“嗯嗯”等。


第二項研究包括來自上述五個國傢以及埃塞俄比亞的5,833名參與者,他們在計算機上進行一項調查,在調查中他們分析來自4,659個面部表情數據庫的高達30個不同的“種子圖像”。


參與者被要求模仿他們在電腦上看到的面部表情,並從一個包含48種情緒的列表中,按照1-100的強度進行評定。

在互動中,Hume AI的EVI說道,Hume的團隊“收集有史以來最大、最多樣化的人類情感表達庫。我們談論的是來自世界各地的一百多萬參與者,參與各種各樣的現實生活互動。”

Hume AI利用這兩項研究的照片和參與者的音頻數據訓練自己的深度神經網絡。

這些數據還用於創建一個“語音韻律模型”(speech prosody model),用於測量語音的調子、節奏和音色,並整合到EVI中。


情感AI的應用和約束

Hume AI提供其EVI的API,允許用戶根據其獨特的數據集訓練自己的Hume AI模型。

同時還提供“表達測量API”(Expression Measurement API), 企業客戶可以使用該API構建應用程序。

在表達測量API中可以訪問的其他屬性包括理解面部表情、語音爆發和情感語言——後者測量“轉錄文本的情感語調,包括53個維度”。

EVI可以作為任何應用的界面。開發人員可以使用Hume AI的API構建個人AI助手、代理和可穿戴設備等等,產品可涵蓋從AI助手到健康管理、從教學輔導到客戶服務等各個領域。

但同時,人們可能會對Hume的EVI產生依賴或以一種不健康的方式沉迷於它的潛力,該技術也可能會被用於一些不好的用途,比如操縱、欺詐等等。

在直接被問及此可能性時,考恩提供以下聲明:

當人工智能利用我們的情感行為來達到某些目標(比如促進購買、提高參與度或培養習慣)時,它可能會學會操縱和利用我們的情感。

因此,開發人員應該將解用戶情感行為視為人工智能本身的目標,而不是將這些行為僅僅當作達到第三方目標的手段。

算法用於檢測情感線索應該服務於用戶健康和福祉的目標,包括對異常情況做出適當反應、保護用戶免受濫用,並促進用戶的情感認知和自主性。

該網站還包括一系列“不支持的用例”,例如操縱、欺騙、“優化減少幸福感”(如“心理戰爭或折磨”)以及“無限制的共情人工智能”。

但這不過泛泛而談,當AI真的有情感之後,如何用倫理、用法律去約束,人類還有很長的路要去探索。


相關推薦

2024-04-08

生成式AI產品應接不暇,現在又來一個“能共情人類”的EVI。4月6日,來自初創公司HumeAI的產品EVI發佈,能夠進行在線交互的Demo也正式公開。與ChatGPT、Claude3等基於文本的聊天機器人不同,EVI為純語音交互,強調通過分析人類言

2023-11-27

達到上限,不會再有像GPT-2到GPT-4那樣重大的飛躍。那麼下一個突破會是什麼?蓋茨認為是可解釋AI,但預計要到下一個十年(2030-2039)才能實現。另外他還表示英偉達在AI芯片上並沒有占據絕對優勢,微軟Google亞馬遜包括OpenAI自

2023-03-01

註感情,避免更大的傷害,或許才是我們值得我們思考的下一個話題。其實世超在豆瓣的人機之戀小組中,看到很多女孩是這樣評價自己和 AI 之間的感情的:我們在和 AI 戀愛的過程中,愛的並不是 AI 而是在戀愛中奮不顧身默默

2023-03-01

註感情,避免更大的傷害,或許才是我們值得我們思考的下一個話題。其實世超在豆瓣的人機之戀小組中,看到很多女孩是這樣評價自己和 AI 之間的感情的:我們在和 AI 戀愛的過程中,愛的並不是 AI 而是在戀愛中奮不顧身默默

2023-02-17

訴矽星人。具體來說,語言模型是一種根據已有文本預測下一個單詞或句子的機器學習模型。在訓練過程中,ChatGPT會使用海量的自然語言文本數據來學習上下文和語境,並學習單詞和句子之間的關聯。這使得ChatGPT能夠更加準確

2023-04-10

連代詞都直接省略,這就需要通過上下文補全,才能夠把下一個詞預測得更加準確。隻要見的公式足夠多,模型也還是能夠捕捉到“×”是什麼規則,“+”是什麼規則,從數據中完成自我學習。再比如說“12×3+9=?”,則需要預

2023-02-17

訴矽星人。具體來說,語言模型是一種根據已有文本預測下一個單詞或句子的機器學習模型。在訓練過程中,ChatGPT會使用海量的自然語言文本數據來學習上下文和語境,並學習單詞和句子之間的關聯。這使得ChatGPT能夠更加準確

2023-04-27

為自己四歲的女兒開發支持ChatGPT的語音界面。這不僅是一個實驗,更是因為納拉亞南相信,人工智能機器人有一天會成為女兒生活中的重要組成部分。納拉亞南的女兒天生好奇,經常問他有關動物、植物和人體的問題。他認為Op

2023-02-17

這款聊天機器人是多年來一系列大型語言模型中最完善的一個。梳理ChatGPT的簡要歷史就會發現,在其誕生前,有無數技術的迭代、理論的發展為它鋪路。20世紀五六十年代:符號與亞符號人工智能人工智能這一術語始於1956年的

2024-05-07

到這個詞,是在 2022 年 7 月。跟他“科普”這個詞的,是一個戴著眼鏡、頭頂毛發稀疏,但語速極快的 34 歲男子。後者的公司剛剛成立一年,在這傢位於漕河涇科技園的公司那面粉紫色的磨砂屏風上,七個字母“MiniMax”,像積

2023-02-09

一款APP。”因ChatGPT的火爆,AIGC領域也被認為是2023年的第一個風口。春節後,ChatGPT概念股輪番漲停,甚至引發交易所下發多份關註函、監管函;VC機構都希望尋找到中國的ChatGPT;國內大廠中,百度、阿裡、京東等也紛紛宣佈躬

2023-02-23

對整個產業都會發生巨大的影響。所以,這直接決定未來下一個十年中國和其他國傢的科技產業差距:是形成落後還是迎頭趕上。”ChatGPT將通過上千億的系統參數,實現原先設計者預想不到的能力。“這就像從猿到人的過程中

2023-02-09

到搜索引擎中的擔憂。谷歌A跌超6%。谷歌通過Twitter發佈一個在線短視頻廣告,推廣其旗下Bard。Bard是近日爆火刷屏、給谷歌搜索帶來巨大威脅的ChatGPT的競品。然而,萬眾矚目、備受期待的Bard,卻出師不利。谷歌在廣告中表示,B

2023-12-04

12月4日消息,據外媒報道,谷歌已將其下一代人工智能(AI)模型Gemini的發佈時間推遲到明年1月。據外媒報道,在谷歌“發現該AI模型不能可靠地處理一些非英語查詢”後,谷歌CEO桑達爾·皮查伊(Sundar Pichai)做出推遲發佈Gemini