VMware再次與NVIDIA深入合作,讓企業能更快在雲端佈署服務導入自動生成式人工智慧應用資源

在此次VMware Explore 2023活動上,VMware宣布與NVIDIA再次攜手合作,將推出全新VMware Private AI Foundation With NVIDIA服務,藉此協助企業更快導入自動生成式人工智慧技術應用資源,並且確保應用內容資料隱密性、安全性及可控性。

▲VMware宣布與NVIDIA深入合作,推出可讓企業更快導入自動生成式人工智慧技術應用資源,並且確保資料隱密性、安全性及可控性的全新VMware Private AI Foundation With NVIDIA服務
▲VMware宣布與NVIDIA深入合作,推出可讓企業更快導入自動生成式人工智慧技術應用資源,並且確保資料隱密性、安全性及可控性的全新VMware Private AI Foundation With NVIDIA服務

隨著近期自動生成式人工智慧應用趨勢發展,越來越多企業開始觀望此技術應用發展可能性,同時也評估相關應用風險,雖然人工智慧技術應用能帶來諸多便利,但資料隱私安全及應用可控程度也成為企業擔心問題,尤其應用在金融、醫療、零售業、電信、媒體等服務時,客戶資料等數據安全問題必須格外重視。

而VMware此次與NVIDIA合作推出的VMware Private AI Foundation With NVIDIA服務,則是結合NVIDIA AI Enterprise技術資源中的人工智慧模型NeMo,讓企業能在任何端點位置建構自動生成式人工智慧,並且能透過自訂模型框架,以更安全方式快速建構人工智慧應用服務。

▲結合NVIDIA AI Enterprise技術資源,搭配NVIDIA GPU運算資源,讓企業能快速藉由VMware服務整合更多自動生成式人工智慧應用內容
▲結合NVIDIA AI Enterprise技術資源,搭配NVIDIA GPU運算資源,讓企業能快速藉由VMware服務整合更多自動生成式人工智慧應用內容

同時,此服務同樣建構在VMware Cloud Foundation方案上,讓企業能更容易以雲原生形式佈署自動生成式人工智慧應用服務,並且確保資料隱私與存取安全。而除了NVIDIA NeMo,此服務還能選擇使用Meta的開源人工智慧模型Llama 2,讓企業在建置選擇上有更大彈性。

至於與NVIDIA深入合作,VMware也能在特定服務佈署環境透過虛擬化GPU資源加速自動生成式人工智慧運算效率,同時透過最大化使用虛擬化CPU、GPU及DPU運算資源,更有助於降低服務建構成本,搭配VMware vSAN快速儲存架構也能提高服務資料存取效能,甚至直接透過NVIDIA的GPUDirect RDMA技術,更可直接跳過CPU運算流程,直接將資料傳輸到GPU完成運算。

此次合作更進一步讓VMware的vSphere虛擬化平台與NVIDIA NVSwitch技術整合,藉此提高使用多組GPU加速運算的效能表現,甚至也能藉由NVIDIA AI Workbench存取開源社群建構的人工智慧模型,例如透過Hugging Face託管的Llama 2開源模型,在VMware虛擬化環境建構自動生成式人工智慧應用內容。

▲在VMware Cloud Foundation的基礎架構上整合各類模型框架、語言模型等資源,藉此在VMware虛擬化環境建構自動生成式人工智慧應用內容
▲在VMware Cloud Foundation的基礎架構上整合各類模型框架、語言模型等資源,藉此在VMware虛擬化環境建構自動生成式人工智慧應用內容

另外,為了讓企業能更容易佈署各類人工智慧技術應用,VMware更透過預裝諸多人工智慧框架與效能最佳化資料庫內容的vSphere Deep Learning VM映像資源,藉此簡化企業打造、建構人工智慧應用服務門檻。

VMware預計在2024年初推出VMware Private AI Foundation with NVIDIA服務,並且將由Dell、HPE與聯想率先提供相容此服務,並且搭載NVIDIA L40S GPU、BlueField-3 DPU,以及NVIDIA ConnectX-7智慧網卡的伺服器系統。

▲VMware再次與NVIDIA深度合作
▲VMware再次與NVIDIA深度合作

更多Mashdigi.com報導:

Meta推出能識別翻譯近100種語言聲音,並且能以36種不同語言聲音輸出的SeamlessM4T多模模型

VMware將人工智慧技術整合進Anywhere Workspace,讓線上應用服務停擺問題能自動化排除

新一代VMware Cloud基礎架構更新,延續多雲發展策略、打造更具「智慧」雲端環境