Tag: H100 GPU

NVIDIA宣佈搭載「Hopper」GPU的伺服器將於10月開始出貨,協助推動大型語言訓練、醫療研究應用

NVIDIA宣佈搭載「Hopper」GPU的伺服器將於10月開始出貨,協助推動大型語言訓練、醫療研究應用

今年上半年於GTC 2022期間正式揭曉代號「Hopper」的新一代加速運算等級H100 GPU,同時也宣佈與眾多OEM業者合作,甚至提出水冷散熱設計方案之後,NVIDIA在下半年度於線上舉辦的GTC技術大會上宣佈,首波採用H100 GPU的伺服器產品將於10月陸續出貨,而搭載H100 GPU的DGX超級電腦則會在2023年第一季出貨,同時開發者從即日起已經可以透過NVIDIA LaunchPad使用H100 GPU運算效能體驗人工智慧、資料科學、3D設計協作等應用。 ▲藉由代號「Hopper」的H100 GPU加速各類運算應用發展 依照NVIDIA說明,首波推出搭載H100 GPU的伺服器,將包含法國源訊科技 (Atos)、Cisco、Dell、富士通、技嘉、HPE、聯想與Supermicro製作產品,同時也標榜可藉由H100 GPU運算效能大幅降低運算設備所需空間、散熱系統等花費,同時也能大幅減少碳排放量。 ▲首波推出搭載H100 GPU的伺服器,將包含法國源訊科技 (Atos)、Cisco、Dell、富士通、技嘉、HPE、聯想與Supermicro製作產品,預計在今年10月開始陸續出貨 以過去320組搭載A100 GPU的HGX高效能伺服器運算平台建構的人工智慧系統為例,換成以H100 GPU建構的HGX高效能伺服器運算平台,僅需64組即可發揮相同運算效能,並且可在碳排放量減少為三分之一,運算節點數量縮減為五分之一,同時電力使用效益更提高3.5倍,對於目前著重節能減碳的企業營運模式,將能產生更大利益,甚至也能大幅降低費用支出。 另一方面,NVIDIA也強調藉由GPU加速運算能力提升,將能大幅推動各類人工智慧運算應用發展,例如可提升大型語言模型訓練精度,相比A100 GPU可帶動高達5倍以上的訓練速度,甚至可以同時對應更多人同時上線互動「溝通」需求。 ▲藉由GPU加速運算能力提升,將能大幅推動各類人工智慧運算應用發展 而在此次公佈消息中,NVIDIA宣佈推出新款NeMo LLM服務,將透過雲端協同運算方式協助企業訓練客製化的大型語言模型,藉此建構各類以人工智慧驅動的語音互動服務。 ▲以新款NeMo LLM服務,透過雲端協同運算方式協助企業訓練客製化的大型語言模型 針對醫學應用方面,NVIDIA更宣佈推出BioNeMo服務,透過GPU加速方式研究、預測分子、蛋白質與DNA生成方式,同時也宣佈與麻省理工學院、哈佛大學所屬,位於美國馬薩諸塞州劍橋市的生物醫學和基因組研究中心—Broad研究所 (Broad Institute)合作,將NVIDIA旗下CLARA醫學人工智慧技術帶到研究生物醫學的Terra平台,讓gatk變異探索工具分析效率能大幅提升,藉此推動醫學應用發展。 ▲藉由BioNeMo服務,透過GPU加速方式研究、預測分子、蛋白質與DNA生成方式 ...

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.