IBM宣佈在其watsonx人工智能和數據平臺上提供由MistralAI開發的流行開源Mixtral-8x7B大型語言模型(LLM),以繼續擴展功能,幫助客戶利用IBM自身的基礎模型和一系列開源提供商的模型。IBM提供Mixtral-8x7B的優化版本,在內部測試中,與普通模型相比,它能夠將吞吐量(即在給定時間內可處理的數據量)提高50%。
這有可能將延遲時間縮短 35-75%,具體取決於批量大小--加快洞察時間。這是通過一個稱為量化的過程實現的,該過程減少 LLM 的模型大小和內存需求,反過來又能加快處理速度,有助於降低成本和能耗。
Mixtral-8x7B 的加入擴展 IBM 的開放式多模型戰略,以滿足客戶的需求,為他們提供選擇和靈活性,從而在其業務中擴展企業人工智能解決方案。通過數十年的人工智能研發、與 Meta 和 Hugging Face 的開放合作以及與模型領導者的合作,IBM 正在擴展其 watsonx.ai 模型目錄,並引入新的功能、語言和模式。IBM 的企業就緒基礎模型選擇及其 watsonx 人工智能和數據平臺可以幫助客戶利用生成式人工智能獲得新的洞察力和效率,並基於信任原則創建新的業務模式。IBM 可幫助客戶為金融等目標業務領域的正確用例和性價比目標選擇正確的模型。
Mixtral-8x7B 采用稀疏建模(一種創新技術,隻查找和使用數據中最重要的部分,以創建更高效的模型)和專傢混合技術(Mixture-of-Experts)的組合,後者將擅長並解決不同部分問題的不同模型("專傢")結合在一起。Mixtral-8x7B 模型因其能夠快速處理和分析海量數據,提供與背景相關的見解而廣為人知。
IBM 軟件公司產品管理與增長高級副總裁 Kareem Yusuf 博士說:"客戶要求有選擇性和靈活性,以便部署最適合其獨特用例和業務要求的模型。通過在watsonx上提供Mixtral-8x7B和其他模型,我們不僅為他們提供部署人工智能的可選性,還為人工智能構建者和業務領導者提供一個強大的生態系統,使他們能夠利用工具和技術推動不同行業和領域的創新。"
本周,IBM還宣佈在watsonx上提供由ELYZA公司開源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM還在watsonx上提供Meta的開源模型Llama-2-13B-chat和Llama-2-70B-chat以及其他第三方模型,未來幾個月還將提供更多。