IBM宣佈在其watsonx AI和資料平台上推出由Mistral AI開發的熱門開源Mixtral-8x7B大語言模型 (LLM),繼續擴展功能,幫助客戶利用IBM自己的基礎模型和這些模型進行創新來自一系列開源提供商。IBM提供了Mixtral-8x7B的最佳化版本,在內部測試中,與常見模型相比,該版本能夠將吞吐量(或給定時間段內可以處理的資料量)提高50%。這可能會減少35-75%的延遲,具體取決於批量大小,從而加快獲得洞察的時間。這是透過稱為量化的過程來實現的,該過程可以減少LLM的模型大小和記憶體要求,進而可以加快處理速度,從而幫助降低成本和能耗。
Mixtral-8x7B的加入擴展了IBM的開放式多模型策略以滿足客戶的需求,並為他們提供選擇和靈活性,以便在其業務範圍內擴展企業AI解決方案。透過長達數十年的AI研究和開發、與Meta和Hugging Face的開放合作以及與模型領導者的合作,IBM正在擴展其watsonx.ai模型目錄並導入新的功能、語言和模式。IBM的企業級基礎模型選擇及其watsonx AI和資料平台可讓客戶使用生成式AI來獲得新的見解和效率,並採用信任原則建立新的商業模式。IBM使客戶能夠為正確的用例選擇正確的模型,並為金融等目標業務領域選擇性價比目標。
Mixtral-8x7B是結合稀疏建模(一種創新技術,僅查找和使用數據的最重要部分來創建更高效的模型)和專家混合技術(結合不同模型(「專家」))打造的專門研究並解決問題的不同部分。Mixtral-8x7B模型因其快速處理和分析大量資料以提供上下文相關見解的能力而廣為人知。
IBM軟體產品管理與發展高級副總裁Kareem Yusuf博士表示客戶需要選擇和靈活性來部署最適合其獨特用例和業務需求的模型。透過在watsonx上提供Mixtral-8x7B和其他模型,我們不僅為他們提供瞭如何部署AI的選擇,還為AI打造者和業務領導者提供了強大的生態系統,提供工具和技術來推動不同行業和領域的創新。域。
本週IBM也宣佈在watsonx上提供ELYZA-japanese-Llama-2-7b,這是ELYZA Corporation開源的日本LLM模型。IBM也在watsonx上提供Meta的開源模型 Llama-2-13B-chat和Llama-2-70B-chat以及其他第三方模型,未來幾個月也將推出更多模型。
消息來源 |