Tag: JenSen Huang

「Blackwell」加速晶片進入量產,NVIDIA說明AI模型訓練方式改變不影響市場的GPU需求量

「Blackwell」加速晶片進入量產,NVIDIA說明AI模型訓練方式改變不影響市場的GPU需求量

在稍早公布截至10月底的2025財年第三季財報,NVIDIA表示上一季內營收達350.82億美元,相比去年同期增加94%,淨利則達193.09億美元,成長幅度達109%,同時也說明包含微軟、甲骨文、OpenAI在內客戶都已經開始取得以「Blackwell」顯示架構打造的加速晶片,目前約有1萬3000組樣品對外提供測試,並且已經全面進入量產階段。 而NVIDIA財務長Colette Kress更說明「Blackwell」供貨量將在2025年增加,預計帶動數十億美元營收。同時,先前已經開始供貨的H200加速晶片目前也開始增加出貨量,但預期接下來會有更多對於「Blackwell」的市場需求。 不過,在目前人工智慧模型訓練方式開始改變,同時科技公司也嘗試以不同方式改進人工智慧運作效率,例如OpenAI在今年9月提出的自然語言模型「o1」便是在基礎模型訓練情況下,持續與人互動學習結果進行成長,與NVIDIA先前提倡藉由GPU加速縮短大量資料預先訓練所需時間,藉此推動人工智慧運算成長的方式有些不同。 甚至也有部分科技業者開始構思以不同方式建構人工智慧模型,甚至傾向以既有人工智慧模型為基礎,透過微調方式打磨運算反應更快、答案更準確的小型人工智慧模型,藉此減少大幅仰賴GPU加速訓練的情況。 對此,NVIDIA執行長黃仁勳則表示樂見市場有這樣的發展,意味人工智慧產業發展開始有了新的發展動力,同時也代表接下來將加速晶片用於人工智慧推論的比重將會增加,而非侷限在基礎模型訓練。 但黃仁勳認為預先訓練對於人工智慧發展依然重要,目前也仍有不少開發者持續加強模型預先訓練方式,藉此擴展人工智慧模型對應功能。黃仁勳表示,在此經驗法則情況下,顯示基礎模型建置依然重要,同時模型規模也持續擴展。 對於NVIDIA而言,目前利用GPU進行運算加速依然是發展重點,同時也認為市場對於GPU的需求依然很高,不僅是前期模型訓練加速,包含後續的模型推論運作也會需要使用GPU進行加速。

Meta展示可獨立運作的擴增實境眼鏡裝置「Orion」,詮釋其對於未來想像

Meta展示可獨立運作的擴增實境眼鏡裝置「Orion」,詮釋其對於未來想像

Meta技術長Andrew Bosworth去年透露將對外展示無須手機、可獨立運作的擴增實境眼鏡裝置,在此次Connect 2024活動正式對外展示,並且確認就是日前傳出內部以「Project Nazare」為稱、代號為「Orion」的產品,同時也展現Meta對於未來智慧眼鏡裝置的想像。 Meta此款裝置已經投入超過10年時間研究,目標以無須額外連接手機等裝置,並且能以全獨立形式運作,同時更能透過全息擴增實境影像讓使用者與眼前世界產生互動。 外觀上來看,「Orion」幾乎與一般眼鏡相仿,雖然實際框架厚度仍很明顯,但是相比市場相同應用產品如Magic Leap、微軟Hololens、蘋果Vision Pro已經輕巧許多,甚至能讓使用者更容易在配戴後感受虛實整合的視覺互動體驗,同時也不會像其他產品有「與世隔絕」的情況。 同時,Meta更標榜此款裝置能在室內或戶外環境使用,眼前全息影像不會因為外部光源造成干擾,另外也因為重量更輕盈,因此能長時間配戴使用,由於外觀貼近一般眼鏡,整體使用上不會顯得突兀,更可讓使用者維持與真實世界互動。 至於操作部分,除了透過語音識別,使用者更可配戴能識別手腕動作的特殊手環進行互動,而主機部分則是透過無線形式與眼鏡維持連接。 目前此款產品尚未計畫推出市售版本,現階段仍僅提供Meta內部員工,或是特定外部合作業者使用 (包含NVIDIA執行長黃仁勳等人均實際體驗此款裝置),因此預期當Meta正式推出市售版本時,將會伴隨提供更豐富的應用服務與使用體驗。 從先前透露消息,Meta可能最快會在2027年推出此款裝置市售版本,但Meta方面並未對此作任何回應。

NVIDIA與眾多OEM、ODM業者合作推動人工智慧工廠及資料中心,迎接下一次工業革命

NVIDIA預計明年開始在全球營運據點均以再生能源運作,與諸多業者合作以GPU加速提高能源效率

NVIDIA表示,從2025年1月開始將在其全球營運據點全面導入再生能源運作,同時也強調合作客戶使用其運算加速平台大幅提高能源使用效率,藉此落實永續成長。 其中,鴻海科技集團利用加速運算與人工智慧方式,為其墨西哥的新廠建立數位孿生平台,並且利用此模型來訓練機器人,並且制定更有效率的生產流程。 鴻海科技集團董事長劉揚偉表示:「我們所開發出的數位孿生將引導鴻海科技集團在自動化和工業效率方面更上一層樓,進而節省時間、成本和能源。」經估算,鴻海科技集團每年使用數位孿生可以省下30%的能源使用量。 西門子總裁暨執行長 Roland Busch 表示:「我們將徹底改變產品及體驗設計、製造並服務的方式。西門子與NVIDIA合作,將在整個Siemens Xcelerator產品組合內整合加速運算、生成式人工智慧和Omniverse等技術。」 而網際網路連接服務業者Equinix更宣布在2030年以前導入100%再生能源,除了以此成為實現氣候中和目標的全球資料中心供應商,更可藉由使用佔比高達96%的再生能源使用NVIDIA DGX系統等技術,透過加速運算方式創造更具永續發展特性的個人化人工智慧服務。 另外,擁有全球最大的基因組定序設施之一的維康桑格研究所 (Wellcome Sanger Institute)則藉由NVIDIA DGX系統將研究作業時間縮減1.6倍率,同時投入成本也能因此降低24倍,能源使用量更可降低42倍,亦即可在每年節省100萬美元成本開銷與1000千瓩時的電力損耗,藉此加速研究癌症效率。 至於每天吸引上億人使用的電商服務,某家業者也導入NVIDIA AI功能,將主要處理工作量交由GPU加速運算,藉此減少大幅延遲時間,並且讓網站服務處理速度增加33倍,並且減少將近12倍的電力損耗。而某款視訊會議服務也因從原本以CPU運算為主的架構改為GPU加速,使得每小時協助數十萬個線上會議自動增加字幕的處理速度提升66倍,並且減少25倍的電力損耗。 除了藉由GPU加速協助提高運算效率,同時也能降低電力損耗量之外,NVIDIA更藉由GPU加速運算,讓人工智慧能更早、更準確預測天氣變化,例如及早預測洪災發生地點與災害發生可能性,而先前更透過Earth-2計畫加快全球氣候變遷與天氣變化預測。 NVIDIA執行長黃仁勳預期生成式人工智慧將將為各行各業帶來明顯改變,不僅加速產業技術應用發展,同時也能讓能源使用最佳化。例如NVIDIA平台過去8年內在處理大型語言模型時的能源效率提高約45000倍,若以相同能源效率放在車輛產品上,意味傳統燃油車僅需1加侖汽油即可行駛28萬英哩距離,藉此大幅降低能源使用量,將能進一步推動環境永續發展。

談當前人工智慧應用,NVIDIA執行長黃仁勳更著眼於未來技術發展

談當前人工智慧應用,NVIDIA執行長黃仁勳更著眼於未來技術發展

在此次Computex 2024受訪期間,被問及是否對蘋果接下來將於WWDC 2024公布的人工智慧應用發展有任何看法時,NVIDIA執行長黃仁勳表示不會與蘋果競爭,更強調雙方投入不同發展理念,本身則是更著眼於未來技術發展,不會等到市場有明確需求才作產品,而是設法開創發展市場。 NVIDIA仍扮演市場開創者身分 這樣的想法,如同NVIDIA最初希望以GPU改變遊戲市場,而後續更藉由GPU虛擬化、加速技術推動加速運算,使當前的人工智慧等技術能以更快速度成長。 例如CUDA (Compute Unified Devices Architectured,統一運算架構)就是NVIDIA過去以來不斷嘗試的技術,在當時不被人看好其後續發展情況下,最終成為NVIDIA目前所有產品發展重要基礎。 而如今NVIDIA推動諸多人工智慧應用技術,最終也能藉由相同技術框架回應到原本開始投入的遊戲應用,例如此次在遊戲中提供的遊戲內助理服務Project G-Assist,或是藉由NVIDIA ACE、NVIDIA NIM微服務設計能持續與玩家互動的數位遊戲角色,甚至可以藉由人工智慧技術實現過往遊戲無法做到目標。 另一個例子,則是將GPU產品帶到雲端,並且藉由雲端虛擬化方式讓GPU加速運算資源可以應用到更多連網環境,同時相關技術都能彼此互通使用,意味開發者、企業只要熟稔CUDA技術,就能以更快效率導入NVIDIA提供人工智慧運算資源。 因此,黃仁勳強調NVIDIA是一間勇於挑戰的公司,不會等到市場有明確需求才開始投入發展,而是設法創造全新發展可能,藉此推動市場技術成長。 以市場需求制定合適產品價格 至於對於近期說明接下來將以每年為週期更新其產品,更預告將在2025年推出代號「Blackwell Ultra」產品,2026年則計畫推出代號「Rubin」產品,黃仁勳表示NVIDIA匯聚許多工程人員、創意人員,以及人工智慧技術人員,同時也擁有完整資源,因此將能以更快腳步推出符合市場需求產品。 同時,黃仁勳也說明會以市場需求制定合適產品價格,藉此讓用戶能以合適價格取得足夠運算資源,未來也會打造ASIC特殊應用積體電路設計產品,藉此呼應市場越來越多需要客製化運算的需求,更說明目前NVIDIA已經建立廣泛產品陣容,將能滿足不同運算需求。 對於此次Computex 2024期間,包含Intel、AMD在內業者均強調藉由UALink (Ultra Accelerator Link)設計,讓人工智慧伺服器更容易串聯的作法,黃仁勳表示市場終於認為其提出的NVLink技術相當重要,但在此技術已經進入第五代發展,很快也要跨入第六代產品之際,認為UALink的設計可能還要幾年時間才會有具體成長,強調NVLink技術依然領先。 另外,針對以GPU加速為主的人工智慧技術發展所伴隨電力損耗問題,黃仁勳更是提出三種可行解決方式,其中包含將更多傳統運算方式改為加速運算,藉此降低原本耗電規模,同時也能藉由加速減少人工智慧訓練及推論時間,進而讓整體耗電問題可以被大幅解決,後續更可配合導入再生能源,或是將資料中心設置於人煙稀少位置,避免佔據更多人的用電需求。

NVIDIA提出可安裝顯示卡的小型系統機殼設計規範,以GeForce RTX 4070相容規格為設計

NVIDIA與眾多OEM、ODM業者合作推動人工智慧工廠及資料中心,迎接下一次工業革命

今年在GTC 2024期間宣布推出Blackwell顯示架構的加速系統後,NVIDIA在Computex 2024展前主題演講說明將與眾多OEM、ODM業者合作打造採用此加速系統的運算設備,並且推動人工智慧工廠及資料中心,藉此迎接下一次工業革命。 ▲NVIDIA與眾多OEM、ODM業者合作打造採用此加速系統的運算設備,並且推動人工智慧工廠及資料中心,藉此迎接下一次工業革命 NVIDIA表示,這些採用Blackwell顯示架構加速系統的運算設備將對應雲端、本地端或嵌入系統,甚至也能用於加速邊緣運算效率,同時也能涵蓋多GPU系統設計,並且對應既有x86架構運算系統,或是配合NVIDIA以Arm架構打造的Grace CPU運作,更能以氣冷或水冷方式維持運作穩定性。 ▲採用Blackwell顯示架構加速系統的運算設備,將對應雲端、本地端或嵌入系統,甚至也能用於加速邊緣運算效率,同時也能涵蓋多GPU系統設計,並且對應既有x86架構運算系統,或是配合NVIDIA以Arm架構打造的Grace CPU運作,更能以氣冷或水冷方式維持運作穩定性 此外,為了擴大運算規模,NVIDIA也藉由Spectrum-X系列乙太網路平台串連擴大伺服器運算規模,以此加速推動自動生成式人工智慧技術成長,同時也能提升雲端服務業者、GPU虛擬化效能提供業者,或是提升企業取用雲端運算效能。 ▲藉由Spectrum-X系列乙太網路平台串連擴大伺服器運算規模,以此加速推動自動生成式人工智慧技術成長 而NVIDIA目前推動的醫療應用技術更由台灣國家衛生研究院與長庚紀念醫院導入,藉由加速運算及自動生成式人工智慧技術,藉此創造全新醫療應用技術,並且簡化臨床工作流程到藥物探索研究。 至於今年宣布推出的NVIDIA NIM微服務,更讓開發者能更快、更容易導入自動生成式人工智慧,更讓企業可在短短幾分鐘內建置、導入人工智慧應用程式,藉此大幅縮減原本需要花費數周準備的時間。 針對工業數位化發展,NVIDIA此次也宣布以其NVIDIA AI與Omniverse技術資源,協助推動機器人工廠與工業數位化,並且與台達電、鴻海、和碩、緯創以數位化方式建置、模擬,並且運行工廠數位孿生模型,甚至鴻海更以此訓練機器人、簡化組裝流程,藉此協助生產NVIDIA旗下產品。 ▲以其NVIDIA AI與Omniverse技術資源,協助推動機器人工廠與工業數位化 包含鴻海、和碩、緯創在內的大型業者更以NVIDIA Metropolis與NVIDIA NIM微服務推動工業自動化,藉此加速工業製造與邊緣物聯網應用發展,而比亞迪、西門子、Teradyne Robotics,以及Google母公司Alphabet旗下的機器人新創Intrinsic均導入NVIDIA Isaac機器人平台,藉此開發自主運作機械手臂、人形機器人與移動機器人。 ▲以NVIDIA Metropolis與NVIDIA NIM微服務推動工業自動化 在邊緣運算應用方面,包含美敦力、SETI 研究中心等業者更以NVIDIA IGX系統建構工業邊緣運算人工智慧系統,藉此加速醫療、工業及科學領與人工智慧應用佈署於邊緣運作。 ▲黃仁勳表示台灣產業鏈在推動人工智慧運算加速扮演重要角色 此外,NVIDIA執行長黃仁勳再次重申,接下來將以一年節奏 ...

黃仁勳認為半導體產品將不再只是仰賴單一合作單位,而是建立更龐大的製造生態系統

黃仁勳認為半導體產品將不再只是仰賴單一合作單位,而是建立更龐大的製造生態系統

針對此次GTC 2024主題演講內容,以及近期產業發展動態,NVIDIA執行長黃仁勳在接受全球媒體訪談時,表示未來的資料中心應該以「人工智慧工廠」 (AI Factory)為稱,藉此輸出各類人工智慧運算應用資源,同時也強調未來半導體產品將不再只是仰賴單一合作單位,而是建立更龐大的製造生態系統。 ▲黃仁勳強調未來半導體產品將不再只是仰賴單一合作單位,而是建立更龐大的製造生態系統 未來資料中心應該以「人工智慧工廠」為稱 黃仁勳表示,相較過往資料中心僅只是作資料吞吐運作,未來的資料中心將透過人工智慧技術產生更多資料,一如當前許多消費級使用者已經可以透過GPU加速運算的人工智慧服務服務生成文字、圖像、影片內容,未來透過資料中心生成內容將會更加豐富、多元,並且為市場及產業帶動全新發展機會。 ▲未來的資料中心將透過人工智慧技術產生更多資料 作為驅動新一代資料中心的根本,黃仁勳強調還是在於GPU加速元件。 而此次公布的「Blackwell」顯示架構設計,黃仁勳表示是在挑戰物理極限,並且在運算性能與成本效益之間取得平衡。 ▲黃仁勳表示「Blackwell」顯示架構設計挑戰物理極限,並且在運算性能與成本效益之間取得平衡 此外,黃仁勳認為目前評估「Blackwell」顯示架構設計背後反應價格,不應該聚焦在GPU本身,而是其實其應用設計。 例如將「Blackwell」顯示架構設計加速元件提供給OEM廠商,再由OEM廠商推出不同設計訴求的伺服器產品,進而提供給不同市場用戶佈署應用,因此會對應不同市場價格,因此黃仁勳更傾向以實際應用產品所產生效益,藉此評估其反應價值。 ▲目前評估「Blackwell」顯示架構設計背後反應價格,不應該聚焦在GPU本身,而是其實其應用設計 政令造成影響不大 至於被問及在當前中美貿易戰與美國技術出口禁令,NVIDIA是否仍會持續與中國業者合作,黃仁勳的看法則認為確實在當前政令限制下,在中國市場發展佈局會有一定程度改變,但並不認為會構成太大問題,原因在於NVIDIA主要與OEM廠商合作,本身並非直接將半導體產品出口至特定市場,因此實際構成影響其實不大。 而針對目前與台積電合作模式,黃仁勳表示實際上也與其他半導體相關業者合作,例如除了與SK海力士、美光合作HBM3e高密度記憶體,實際上也會與三星合作,甚至在COWoS封裝也必須透過多方業者共同合作,因此不會只與單一業者合作。 雖然當前「Blackwell」顯示架構設計產品是以台積電客製化4nm製程生產,但在接下來進入COWoS封裝設計半導體產品之後,將不會再維持透過單一晶圓代工廠生產製造模式,而是會透過多個代工廠、封裝廠等建構的龐大製造生態系統支撐,藉此發揮最大生產效益,同時也能避開製造風險。 ▲接下來進入COWoS封裝設計半導體產品之後,將不會再維持透過單一晶圓代工廠生產製造模式,而是會透過多個代工廠、封裝廠等建構的龐大製造生態系統支撐 學習知識依然相當重要 針對日前受訪時,曾被媒體特別放大「無須再學習編寫程式」的發言,黃仁勳在此次訪談澄清,實際上想表達的是學習編寫程式還是相當重要,甚至持續學習不同知識、技能仍是每個人應該維持心態,但是在人工智慧技術持續普及應用情況下,並不需要花費太多時間精進特定技能。 例如當能藉由人工智慧協助產生程式編碼內容時,可能就不需要花費時間成為程式語言專家,而是可以透過自然語言使用自動生成式人工智慧進行創作,甚至在藝術、表演、半導體設計、研究也能藉由人工智慧深入、加快發展。 ▲持續學習不同知識、技能仍是每個人應該維持心態,但是在人工智慧技術持續普及應用情況下,並不需要花費太多時間精進特定技能 一如NVIDIA此次在GTC 2024提出的NIM微服務,便是由NVIDIA統整自有及第三方業者的人工智慧框架、訓練模型資源,讓企業、開發者能透過API形式快速串接數據、操作介面,即可在短時間內完成建置應用服務,並且能快速佈署於雲端或自有伺服器環境,無須像過往必須花費時間、人力從頭打造,就能快速建置人工智慧服務。 黃仁勳認為,學習知識依然相當重要,但接下來發展趨勢,將是讓善用人工智慧技術變得更重要。 ▲善用人工智慧技術變得更重要

NVIDIA執行長:即便競爭對手以免費形式提供晶片,人工智慧技術總持有成本仍不算「便宜」

NVIDIA執行長:即便競爭對手以免費形式提供晶片,人工智慧技術總持有成本仍不算「便宜」

在近期參與史丹佛大學經濟政策研究院 (Stanford Institute for Economic Policy Research,SIEPR)所舉辦論壇活動上,NVIDIA執行長黃仁勳表示即便競爭對手將其人工智慧晶片以免費形式提供,依然無法影響NVIDIA提出解決方案。此外,黃仁勳也透露下一款DGX超級電腦將會導入液態冷卻設計,藉此確保超算系統能更穩定運作。 依照黃仁勳的說法,認為人工智慧整體運作應該是看重效能背後的總持有成本,因此如果從整體運算效能所帶動效益來看,NVIDIA所打造的人工智慧晶片價格定不算昂貴。 黃仁勳此論調,主要回覆美國著名投資人Charles R. Schwab、美國國家經濟局研究員John Shoven等人提問,認為NVIDIA雖然打造先進的人工智慧晶片,但在面臨諸多造價相對便宜,同時也有足夠效能表現的人工智慧晶片於市場競爭時,可能會有不少挑戰。 黃仁勳表示,目前NVIDIA採完全開放心態對外合作,因此合作客戶實際上也包含市場上的競爭對手,強調NVIDIA相當樂於與所有市場業者攜手合作。 而從購買人工智慧晶片的客戶立場來看,自然會考量人工智慧晶片價格,但經營數據中心的客戶則會著眼於整體營運開銷,因此更重視的是總持有成本,這部份就會成為NVIDIA產品優勢,包含佈署應用時間、效能表現、利用率與使用彈性都會明顯高於競爭對手產品,因此即便競爭對手以免費形式提供其人工智慧晶片,從總持有成本角度來看,其實也不算「便宜」。 至於針對下一款DGX超級電腦設計,將會導入液態冷卻設計,藉此對應更大規模人工智慧運算,似乎暗示接下來在GTC 2024期間即將揭曉的代號「Blackwell」GPU,將會預設透過冷卻系統設計,藉此確保其運作穩定性。 在此之前,NVIDIA推出包含「Hopper」在內GPU設計均能在空冷情況下正常運作,僅在特定情況會透過液冷方式穩定運作輸出效能表現,但有可能因為接下來的代號「Blackwell」GPU運作功耗介於1000W至1400W之間,因此需要透過液冷方式確保運作穩定性。 透過液冷方式確保伺服器、超級電腦運作穩定,實際上並非特例,包含Intel、微軟、Google在內業者先前都曾提出液冷方式設計的伺服器應用方案,藉此確保伺服器、數據中心穩定運作。

因大型雲端業者涉及市場壟斷,NVIDIA遭法國競爭管理局突擊搜查

NVIDIA承諾將於日本建立人工智慧技術相關生態、盡力優先向日本提供GPU產品

在與日本經濟大臣西村康稔會面時,NVIDIA執行長黃仁勳表示將與日本研究機構、企業與新創公司合作,預計在日本建立人工智慧技術相關生態,藉此滿足市場對於人工智慧技術的需求。 依照說明,NVIDIA將在日本建立人工智慧研究實驗室,並且計畫投資日本境內新創公司,同時協助日本公眾如何使用人工智慧技術。 此外,因應日本境內對於人工智慧技術應用發展趨勢,黃仁勳在與日本首相岸田文雄會面之後,承諾未來將盡力優先向日本提供GPU產品。 而在日本建立人工智慧技術生態,黃仁勳預期能推動日本社會、產業藉由人工智慧加速創新腳步。

鴻海攜手NVIDIA加速電動車發展,電動物流車Model N首度亮相、Model C即將在台交車

鴻海攜手NVIDIA加速電動車發展,電動物流車Model N首度亮相、Model C即將在台交車

NVIDIA執行長黃仁勳此次來台為鴻海科技日活動站台,更宣布與鴻海合作建立工廠及系統,透過其人工智慧技術、DRIVE車載電腦、Isaac機器人平台,以及Omniverse平台,協助鴻海推動人工智慧及機器人應用發展,加速工業進行數位化革命。 NVIDIA攜手鴻海建構數位化工廠、加速電動車發展 黃仁勳與鴻海執行長劉揚偉在台北舉辦的鴻海科技日對談中宣布,雙方合作將從建立以NVIDIA加速運算平台為基礎的人工智慧工廠開始。 透過NVIDIA GH200 Grace Hopper超級晶片,搭配NVIDIA AI Enterprise軟體,專門用於處理、精煉、將大量資料轉化為有價值的人工智慧模型,而鴻海目前也正在開發基於NVIDIA技術的智慧解決方案平台,其中包含將以NVIDIA DRIVE Hyperion 9平台、NVIDIA DRIVE Thor車用電腦打造的鴻海智慧電動車,以及結合NVIDIA Metropolis智慧影像分析平台的鴻海智慧城市解決方案,另外也將透過NVIDIA Isaac AMR自主移動機器人平台建構鴻海智慧製造系統。 黃仁勳表示:「製造智慧這種全新的製造業已經崛起,而生產這些智慧的資料中心就是人工智慧工廠。作為全球最大的製造商,鴻海具有在全球建立AI工廠的專業知識和規模。我們很高興擴展與鴻海的長達十年的合作,以加速人工智慧工業革命。」 電動物流車Model N、Model B量產版正式亮相,Model C市售版將於11月開始交車 而在今年的鴻海科技日中,鴻海也宣布推出電動物流車Model N,藉由子彈式車頭設計外型,並且搭載自動翻轉貨艙登車踏板,更在兩側及後方配置安全警示投射燈,具備一鍵開啟電動後捲門功能,讓駕駛在運送貨物時,能夠更安全、更舒適、更有效率。 另外,去年同樣在鴻海科技日登場的Model B也在今年活動上展示量產版設計,其中保留科技簡約感與空力造形設計,並且採用新一代中央集中式EEA架構,將支援更多功能的智慧座艙-智控駕駛模式,同時搭載15.6吋IVI車用資訊娛樂、電子數位後照鏡、Matrix LED智慧頭燈,以及UWB (超寬頻通訊技術)數位鑰匙等,讓客戶可因應市場需求選擇搭配。 至於在2021年亮相的Model C則已經完成多項測試驗證,其中包含耐久測試、泡水測試、爬坡/高速性能測試,並且已於美國完成冬/夏季實驗,目前在台灣已經正式取得上路車牌,意味已經符合台灣地區安全、污染、噪音及耗能四大類檢測,將能正式上路與對外銷售,預計會在11月起陸續交車,消費者最快將能在2024年第一季實際開車上路。 ...

NVIDIA執行長黃仁勳:未來人工智慧將無所不在,並且成為眾人「導師」

NVIDIA執行長黃仁勳:未來人工智慧將無所不在,並且成為眾人「導師」

在此次Computex 2023期間接受媒體訪談時,NVIDIA執行長黃仁勳認為未來人工智慧將無所不在,甚至未來許多人都要向人工智慧學習知識,而加速運算結構也可能因為需求目的不同而異。 ▲NVIDIA執行長黃仁勳 人工智慧將無所不在,但主要還是取決如何使用 黃仁勳表示,未來人工智慧應用發展,將會建立在穩定、可被理解,同時也更安全的基礎上,並且應用在各類領域。 因此,相比現行多半透過單一處理器產品所對應運算模式,將會逐漸分散到不同運算需求,其中可能透過小規模人工智慧運算模型、加速設備完成特定領域的運算需求,而更大規模運算需求則會透過更龐大運算效能裝置或雲端等型態完成 對於人工智慧的看法,黃仁勳將其視為自動化服務、產品,或是工具,認為不需要因此對此類技術感到畏懼,但也強調人工智慧發展過程一定會帶來許多改變,同時也會影響人們互動體驗,甚至也將使現有運算模式重新洗牌。 而重點還是在於人們怎麼利用此類資源改變生活。 例如現在的手機已經整合許多人工智慧技術,讓使用者無須具備專業知識,僅需按下快門就能捕捉比單眼相機拍攝更精緻的影像,同時也能更快在眾多照片理透過影像識別方式找到特定人物留影,甚至未來自動生成式人工智慧技術更加成熟時,使用者也能與手機中的數位助理服務盡情聊天。 使用者不一定需要知道人工智慧如何運作,但未來一定會需要知道如何使用人工智慧,甚至向人工智慧學習知識,黃仁勳認為人工智慧在日後將會無所不在,同時也預期會推動更多改變,其中也包含人們互動模式,以及當前的運算架構。 不認為NVIDIA主宰人工智慧發展,強調軟體仍是重要核心 同時,黃仁勳也預期人工智慧將帶動更多產業發展,例如藉由人工智慧打造能與玩家有更多互動的遊戲角色,或是大幅縮減程式編寫門檻,讓更多創新應用服務可以直接透過描述想法,即可由人工智慧代勞產生程式原始碼,甚至更多跨語言的溝通互動都能藉由人工智慧消除隔閡,進而激發更多市場發展機會,進而改善當前數位落差問題。 另一方面,黃仁勳也認為雖然當前人工智慧運作背後都是透過CPU、GPU等運算元件加速,但演算法、模型框架等軟體設計依然十分重要,否則光有硬體仍無法推動人工智慧,因此強調即便台灣市場普遍看重硬體發展的情況,未來也會同樣重視軟體技術發展,並且帶動更多產業轉型。 至於針對目前以加速為基礎的人工智慧發展市場,其背後多半是以NVIDIA推動的GPU加速方式為主,黃仁勳則說明實際在市場仍有Google Cloud的TPU,以及AWS的Graviton在內硬體加速器參與競爭,加上GPU加速部分主要用於縮短訓練時間、提高執行效率,並不涉及影響軟體端的模型訓練等結果,藉此再次強調軟體發展的重要性,同時也說明不會因此主宰市場人工智慧發展方向。

第 2 至 4 頁 1 2 3 4

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.