Google Cloud與NVIDIA今日宣布推出新的人工智慧基礎架構和軟體,提供客戶建立和部署大規模的生成式人工智慧模型,並加速資料科學工作負載。

在Google Cloud Next的一場爐邊對談中,Google Cloud 執行長 Thomas Kurian與NVIDIA創辦人暨執行長黃仁勳討論了這個合作夥伴關係如何將端到端的機器學習服務帶給全球最大型的人工智慧客戶,包括在基於 NVIDIA 技術建構的 Google Cloud 服務中,使運行人工智慧超級電腦變得更加容易。新的軟硬體整合使用了過去兩年來Google DeepMind和Google研究團隊所使用的相同NVIDIA技術。

黃仁勳表示:「我們正處於一個加速運算和生成式人工智慧相結合的轉折點,以前所未有的速度推動創新。我們與Google Cloud的擴大合作將幫助開發人員加速他們在基礎架構、軟體和服務等方面的工作,從而提高能源效率並降低成本。」

Kurian表示:「Google Cloud在人工智慧創新方面有著悠久的歷史,旨在促進和加速我們客戶的創新。許多Google 產品都是基於NVIDIA GPU 建構和提供服務的,我們許多客戶正在尋求 NVIDIA 的加速運算,以高效開發大型語言模型,從而推動生成式人工智慧的發展。」

Google用於建立大型語言模型(LLM)的框架PaxML,現已經優化以支援NVIDIA加速運算。

PaxML 最初是為了跨越多個 Google TPU 加速器切片而構建的,現在使開發人員能夠使用 NVIDIA H100 和 A100 Tensor Core GPU 進行先進且完全可配置的實驗和規模。NVIDIA NGC™軟體目錄中即刻起提供GPU優化的PaxML容器。 此外,PaxML 在 JAX 上運行,JAX 已針對利用 OpenXLA 編譯器的 GPU 進行了優化。

Google DeepMind和其他Google研究人員是首批使用PaxML與NVIDIA GPU進行探索性研究的團隊。

NVIDIA NGC 容器登錄服務中將立即提供用於PaxML的NVIDIA優化容器,提供全球正在構建新一代人工智慧應用的研究人員、新創公司和企業使用。

此外,兩家公司還宣布Google透過Google Dataproc服務將無伺服器Spark與NVIDIA GPU整合。這將幫助資料科學家加速Apache Spark的工作負載,以準備進行人工智慧開發所需的資料。

這些新的整合是NVIDIA和Google廣泛合作歷史中最新的進展。雙方發布多項軟硬體產品,包括:

– Google Cloud將在由NVIDIA H100提供動力的A3虛擬機器上運行 — Google Cloud今天宣布其以NVIDIA H100 GPU提供動力、專門構建的Google Cloud A3虛擬機器將在下個月正式推出,使NVIDIA人工智慧平台更易用於廣泛的工作負載。與前一代相比,A3虛擬機器的訓練速度提高了3倍,網路頻寬也有顯著的提升。

– NVIDIA H100 GPU 為 Google Cloud 的Vertex 人工智慧平台提供動力 — 預計未來幾週內,在 VertexAI上將普遍可用H100 GPU ,使客戶能夠快速開發生成式人工智慧大型語言模型。

– Google Cloud將可使用NVIDIA DGX™ GH200 — Google Cloud將成為世界上首批能夠使用NVIDIA DGX GH200 人工智慧超級電腦的公司之一,該超級電腦搭載了NVIDIA Grace Hopper™ 超級晶片,可用於探索其在生成式人工智慧工作負載方面的能力。

– NVIDIA DGX Cloud將於Google Cloud上運行 — NVIDIA DGX Cloud 人工智慧超級運算和軟體將可供客戶直接從網頁瀏覽器中使用,以提供高速和大規模的進階訓練工作負載。

– Google Cloud Marketplace上提供NVIDIA AI Enterprise — 使用者能使用NVIDIA AI Enterprise,它是一個安全的雲端原生軟體平台,可簡化開發和部署企業級應用程式,包括生成式人工智慧、語音人工智慧、電腦視覺等等。

– Google Cloud率先提供NVIDIA L4 GPU — 今年稍早,Google Cloud隨著G2 虛擬機器的推出,成為首家提供NVIDIA L4 Tensor Core GPU的雲端服務供應商。當客戶從CPU切換至L4 GPU以處理人工智慧影片工作負載,可提升高達120倍的效能、效率提升99%。L4 GPU廣泛用於影像和文字的生成,以及虛擬桌面基礎架構( VDI )和人工智慧加速的音訊/影片轉碼。

Tags: