當人工智能聊天機器人的風潮開始興起時,大多數人使用的是連接到雲服務器的聊天機器人。不過,讓聊天機器人在PC和智能手機上本地運行的趨勢越來越明顯。今天,NVIDIA推出一種新方法,讓WindowsPC用戶可以創建自己的大型語言模型AI聊天機器人,並連接到本地存儲的內容。
NVIDIA 稱其為本地 LLM Chat with RTX,現在該公司網站上提供演示版。顧名思義,您的電腦必須配備NVIDIA GeForce RXT GPU 才能運行這個本地聊天機器人。以下是具體的硬件要求:
圖形處理器 -NVIDIA GeForce RTX 30 或 40 系列圖形處理器或NVIDIA RTX Ampere 或 Ada 代圖形處理器,至少配備 8GB VRAM
內存 - 16GB 或更大
操作系統 - Windows 11
Geforce 驅動程序 - 535.11 或更高版本
下載並安裝後,您就可以將"與 RTX 聊天"應用程序與您本地存儲的內容(如文檔、PDF 文件、視頻等)連接起來。然後,您就可以使用本地數據集向聊天機器人提問,這樣聊天機器人就能為您提供答案,而無需篩選所有資料。
此外,RTX 聊天工具還可以在一些 YouTube 視頻中查找信息。您隻需將視頻 URL 復制到應用程序中,然後就視頻內容提問。Chat with RTX 會為您提供答案。
當然,像"與 RTX 聊天"這樣的本地 LLM 應用程序的最大特點是,您可以擁有一個人工智能聊天機器人,而不會將數據傳輸到公司的雲服務器,以用於培訓和其他目的。這樣做的代價是,你需要一臺相當強大的電腦來運行它。
NVIDIA 將"與 RTX 聊天"應用程序標註為免費技術演示。這可能表明,該公司計劃在未來某個時候將其轉變為具有更多功能的付費或訂閱型應用程序。