Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動

去年宣布推出第四代TPU加速器之後,Google在此次Google I/O 2022宣布以8組Cloud TPU v4 Pod運算裝置構成最大規模的機器學習中樞,更強調使用90%無碳排放能源驅動。

Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動
Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動

在先前說明中,Google表示第四代TPU加速器運算效能相比前一代產品提昇一倍,同時藉由4096組第四代TPU加速器構成的POD運算裝置,更可對應1 exaFLOPS以上的運算表現 (即每秒1018次浮點運算)。而此次以8組Cloud TPU v4 Pod運算裝置構成的機器學習中樞,在峰值運算最高可達每秒900萬兆次浮點運算,成為全球規模最大的公開機器學習中樞,並且將透過Google Cloud服務對外開放使用。

包含Cohere、LG人工智慧研發中心 (LG AI Research)、Meta AI,以及Salesforce Research等業界團隊都已經實際體驗Google此機器學習中樞,並且可透過TPU VM架構自行設定互動式開發環境,並且能彈性應用JAX、PyTorch,或是TensorFlow等機器學習框架,另外也藉由快速互聯與最佳化軟體堆棧特性,藉此打造更突出效能與擴充性表現。

而Google此次在Google I/O 2022提及的PaLM (Pathways Language Model)語言模型,便是透過2組TPU v4 Pod訓練而成,藉此對應更迅速的語言翻譯、理解效果。

Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動
Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動

更多Mashdigi.com報導:

Google利用人工智慧快速抓出冗長文件重點,同時讓Google Meet視訊效果變更好

Google開放與哈佛大學教授合作膚色量表,藉此提升AI技術對不同人種膚色包容性

Google翻譯增加24種新語言、採用全新學習方式,未來將成為更直接溝通工具