聲明:本文來自於微信公眾號AIGC開放社區(ID:AIGCOPEN),作者:AIGC開放社區,授權站長之傢轉載發佈。
3月22日,英偉達在官網宣佈,正式發佈NVIDIA AI Workbench。
AI Workbench是一款面向AI大模型開發人員的工具包,可以幫助開發人員消除很多繁瑣、復雜的部署、開發流程。
無論你的技術水平如何,開發人員都可以體驗快速可靠的 GPU 環境設置以及跨異構平臺工作、管理和協作。
免費下載地址:https://www.nvidia.com/en-us/deep-learning-ai/solutions/data-science/workbench/
AI Workbench主要功能介紹:
快速安裝、設置和配置基於GPU的開發環境。
基於最新模型的預構建、即插即用的生成式人工智能和機器學習示例項目。
使用NVIDIA API目錄中的雲端端點或本地NVIDIA NIM微服務部署生成式AI模型。
直觀的用戶體驗加上命令行界面(CLI)。
易於在不同開發環境中復現和移植。
基於 Git 和容器的開發環境自動化。
容器和Git倉庫的版本控制和管理。
與GitHub、GitLab和NVIDIA NGC目錄的集成。
憑證、秘密和文件系統變更的透明處理。
自Beta版發佈以來,AI Workbench還增加幾個新的關鍵功能:
Visual Studio (VS) Code支持:直接集成到VS Code中,以在GPU環境中編排容器化項目。
基礎鏡像選擇:用戶在創建項目時可以選擇自己的容器鏡像作為項目的基礎鏡像。容器鏡像必須使用符合基礎鏡像規范的鏡像標簽。
改進的軟件包管理:用戶可以通過Workbench用戶界面直接管理和添加軟件包到容器中。
安裝改進:Windows和MacOS用戶有更簡單的安裝路徑。Docker容器運行時也得到改進的支持。
AI Workbench 可以將生成式人工智能開發引入任何支持 GPU 的環境,提供統一界面,適用於數億臺現代 NVIDIA RTX 驅動的工作站和個人電腦,也適用於數據中心和雲端。
Mac 用戶可以安裝 AI Workbench,並將項目遷移到 NVIDIA 驅動的系統,以便進行協作和獲得更強大的計算能力。
NVIDIA提供一系列免費的Workbench項目示例,以幫助開發者入門:
使用混合檢索增強生成(RAG)與你的文檔進行交流。在你的系統上運行嵌入模型,將文檔存儲在私人向量數據庫中。使用NVIDIA API在雲端配置推理,或者在RTX系統上使用NIM推理微服務本地運行。
在任何規模上定制LLMs。從在本地運行量化模型到進行全面微調以優化精度。進行微調並在任何地方運行——在RTX系統上本地運行,或者擴展到數據中心或雲端。在GitHub上查看Llama-2或Mistral-7B項目。
在RTX PC或雲端上運行Stable Diffusion XL,通過文本提示生成定制圖像。輕松在你選擇的GPU啟用環境中重現,以便用你的圖像對模型進行微調。
除快速的GPU工作站設置外,AI Workbench還提供示例項目作為一個即插即用的起點,幫助開發人員更快地開始他們的數據和用例。Workbench項目整合所有需要的資源和元數據,以簡化跨各種基礎設施的工作流管理,同時促進無縫移植和可在任何地方再現性。