展覽 市場動態 網路 頭條話題

Google以第四代TPU加速器建構最大規模的機器學習中樞,以90%無碳排放能源驅動
將透過Google Cloud服務對外開放使用

去年宣布推出第四代TPU加速器之後,Google在此次Google I/O 2022宣布以8組Cloud TPU v4 Pod運算裝置構成最大規模的機器學習中樞,更強調使用90%無碳排放能源驅動。

-

在先前說明中,Google表示第四代TPU加速器運算效能相比前一代產品提昇一倍,同時藉由4096組第四代TPU加速器構成的POD運算裝置,更可對應1 exaFLOPS以上的運算表現 (即每秒1018次浮點運算)。而此次以8組Cloud TPU v4 Pod運算裝置構成的機器學習中樞,在峰值運算最高可達每秒900萬兆次浮點運算,成為全球規模最大的公開機器學習中樞,並且將透過Google Cloud服務對外開放使用。

包含Cohere、LG人工智慧研發中心 (LG AI Research)、Meta AI,以及Salesforce Research等業界團隊都已經實際體驗Google此機器學習中樞,並且可透過TPU VM架構自行設定互動式開發環境,並且能彈性應用JAX、PyTorch,或是TensorFlow等機器學習框架,另外也藉由快速互聯與最佳化軟體堆棧特性,藉此打造更突出效能與擴充性表現。

而Google此次在Google I/O 2022提及的PaLM (Pathways Language Model)語言模型,便是透過2組TPU v4 Pod訓練而成,藉此對應更迅速的語言翻譯、理解效果。

-

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響