快科技7月16日消息,近日,Meta宣佈,將開發一款名為CM3Leon的AI模型,該模型能夠根據文本內容生成圖片,也可以為圖片生成文本描述。
Meta方面表示,CM3Leon在文生圖方面的表現,達到業界最高水平。
這意味著,該模型的表現將超越谷歌、微軟等廠商的一眾產品。
目前,Meta已經演示CM3Leon的表現,展現該模型在包括復雜的文本提示生成圖片、根據文本指令編輯圖像等方面的表現。
據悉,為訓練該模型,Meta使用數百萬張來自Shutterstock的授權圖片,有著高達70億個參數,這是OpenAI的EALL-E2模型的兩倍以上。
不過,Meta也承認,現階段的CM3Leon模型可能存在數據偏見的問題,仍然需要行業監管。
CM3Leon是一款基於Transformer神經網絡結構的模型,該神經網絡的特性是利用註意力機制來處理輸入數據。
這一特點使得相較基於Transformer神經網絡的模型,相較基於diffusion的模型具有更高的訓練效率,且計算成本更低。