同時支援6GHz以下頻段與毫米波 Sony揭曉開發中旗艦手機Xperia PRO
2020-02-24
訪談/Sony定調全新旗艦手機的Xperia 5,究竟是否歸類「Compact」定位?
2019-09-07
今年4月在美國拉斯維加斯舉辦Google NEXT’25,並且公布諸多Vertex AI平台上的人工智慧應用功能之後,Google今日 (6/12)也在台北舉辦Google Cloud Summit Taipei 2025活動,並且邀請台灣健保署、鴻海、玉山銀行、統一資訊、橘子集團等業者分享如何藉由Google Cloud技術資源推動人工智慧應用與數位化轉型。 ▲Google Cloud Summit Taipei 2025活動在台北登場 Google Cloud台灣總經理陳愷新說明過去一年內針對其產品做了超過3000項升級,同時重述Google已在全球建置42個區域服務,甚至有些地區更涵蓋2座以上數據中心,或是持續以最新技術升級,並且形成124個可用區塊、可將服務佈署至187個邊緣位置,使得在Google Cloud佈署服務能遍佈超過200個國家地區,另外也說明Google目前在陸地上或海底建置骨幹網路長度累積超200萬英里,確保其服務及在其平台運作應用程式能穩定運作。 ▲Google Cloud台灣總經理陳愷新 同時,陳愷新也表示Google Cloud持續為企業打造堅實可靠的人工智慧運算基礎架構,並且提供開放且具互通性的人工智慧技術堆疊與多種代理人工智慧服務,目前其雲端服務已經對應製造、零售、金融、醫療、媒體娛樂、電信等產業,並且協助企業加速創新、提升運作效率與更高用戶體驗。 ▲Google目標打造能協助眾人的人工智慧技術 此次活動上,台灣健保署也說明持續與Google Cloud合作,透過人工智慧技術驅動個人化及價值導向的醫療創新。 其中,健保署與Google Cloud以「AI-on-DM」專案合作,針對第二型糖尿病患者,運用人工智慧分析健保申請及生理檢測數據,成功打造智慧風險評估模型。目前的合作成果已能實現個人化的風險分級與共病預測,例如系統能產出個人風險報告,精準預測視網膜、腎臟等併發症的發生機率。 ▲健保運用人工智慧分析健保申請及生理檢測數據,成功打造智慧風險評估模型。目前的合作成果已能實現個人化的風險分級與共病預測 健保署也表示未來將與Google Cloud深化合作,預計開發一款基於Gemini模型的糖尿病人工智慧代理服務,自動生成數位衛教內容,輔助醫病進行更有效的個人化照護, 並且與「全民健保行動快易通 ...
在Google NEXT'25活動中,Google進一步說明其打造TPU加速元件背後想法,最主要是為了實現更純粹的運算加速,並且在諸多運算模式提供性價比更高的加速效果。 ▲Google進一步說明其打造TPU加速元件背後想法 TPU始終鎖定更純粹的加速表現 除了TPU,其實Google過去以來就投入諸多客製化處理器設計,例如用於YouTube等服務的影片轉換編碼元件,以及用於Pixel手機等硬體的VPU影像運算元件,另外也包含用於量子運算的Willow,或是針對以客製化微控制器與分層橫向擴展卸載,藉此分散網路封包卸載及安全架構打造的Titanium,以及去年提出基於Arm Neoverse V2架構架構設計的「Axion」處理器,藉此對應不同運算加速需求。 而從2015年率先針對其服務打造首款純粹以加速為目的的TPU (Tensor Processing Unit,張量處理元件),便是藉由ASIC (特殊架構晶片)形式製作,鎖定高效能、更低成本與電力損耗,並且能無縫擴充使用特性,藉此對應更大規模人工智慧模型及資料庫運算加速,同時能在性能輸出與成本損耗取得最佳平衡。 Google最早在2015年對外宣布使用TPU,當時主要用於Google Search等自有服務加速運算,並且在2018年推出v2版本加入能疊加組成Pod運算架構,以及分散式共享記憶體架構,而在2020年推出的v3版本讓疊加規模加倍,同時也開始加入水冷設計,2022年推出的v4版本則是透過增加光纖互連設計,使其在Pod組合數量規模可大幅疊加,另外也開始逐年更新TPU設計。 在2023年推出的v5e與v5p版本,則是目前唯一在同一年內推出兩種衍生設計的TPU產品,分別對應不同運算加速需求。而在2024年推出的「Trillium」,更是鎖定新世代的人工智慧模型運算,並且標榜達v2版本算力的100倍。 「Ironwood」的意義在於提升人工智慧模型推論加速表現 今年宣布推出的「Ironwood」則是標榜藉由整合192GB高頻寬記憶體,藉此能處理規模更大的人工智慧模型與資料集 (可直接將模型資料全數讀入HBM記憶體內),同時降低頻繁傳輸資料且能進一步提高執行效率,峰值效能更達4614 TFLOPS,每瓦輸出效能更是第一代TPU的近30倍。 另一方面,Google也宣布以「Ironwood」構成的超級電腦,將能支撐幾乎所有的人工智慧工作負載,並且提供更高的執行成本效益,例如在每1美元價格下的執行效率成本,Gemini Flash 2.0能比OpenAI的GPT-4o高約24倍,更比DeepSeek-R1高出5倍左右。 投入TPU高度客製化晶片設計,Google表示藉此對應每瓦輸出性能更高的運算表現,同時更標榜硬體架構建立在更符合Google的軟體運算模式,藉此對應更高的運算加速輸出效益。 ▲Google DeepMind人工智慧部門首席科學家Jeff Dean說明TPU背後設計的運算想法 Google預計會在今年底之前正式佈署應用「Ironwood」,藉此對應更密集運算需求,以及市場需求量持續增加的人工智慧運算發展。同時,Google也證實日前宣布推出的Gemini 2.5人工智慧模型,以及新版AlphaFold蛋白質結構預測程式都會在「Ironwood」加速架構上運作。 同時,應用在雲端基礎架構運算需求,Google也說明讓用戶能在Intel、AMD、NVIDIA運算晶片有更多選擇,並且能對應更純粹加速表現,例如將TPU加速運算用於內容排序推薦、電商平台內容搜尋等,更可進一步節省運算加速成本。 ▲「Axion」是Google第一款針對雲端運算運作打造的客製化處理器,相比TPU僅提供純粹加速效能特性,更額外多了執行數據輸入、輸出運算能力,同樣標榜能在每瓦輸出效益發揮更高表現 ...
在去年的Google Next'24活動中,OPPO便說明將在其手機引入包含Gemini 1.0、Gemini 1.5人工智慧模型,而後續推出的手機產品如Find X8 Pro也確實搭載Google人工智慧技術。而在此次Google Next'25活動中,OPPO研究院院長廖勁松表示將持續與Google深度合作,並且將新技術進一步應用在日後推出的OPPO手機。 未來更多Google技術將用於OPPO日後產品 廖勁松說明,相比中國市場境內使用環境主要是與阿里巴巴、字節跳動,甚至與DeepSeek合作大型自然語言模型,另外加上自行研發的人工智慧技術,在國際市場則是與Google、亞馬遜等業者合作雲端平台的人工智慧技術,手機端則是進一步與Google提供技術,加上自行研發人工智慧。 除了因網路環境等因素選擇與不同業者合作,廖勁松更說明會針對不同國家地區的用戶使用需求、文化差異導入不同的人工智慧技術,但在手機端的人工智慧技術會以Google Gemini為主,雲端服務背後串接人工智慧技術則會因多雲架構而有使用地區上的差異,但整體差異性不會太大。 而目前OPPO也在評估是否將當前採用模型版本升級為2.0,或是採用更新的2.5版本,另外也會研究如何將此次Google公布的Imagen 3、Veo 2等新功能應用在手機產品,藉此提升用戶手機端的使用體驗。 廖勁松預期人工智慧對於手機產品的影響,如同過往從功能手機進展到智慧型手機在使用體驗帶來巨大改變,目前的手機使用體驗也將因人工智慧大幅升級。從現在藉由人工智慧進行文字內容重點摘要、變更影像細節,或是移除路人、玻璃反光等情況,未來手機甚至能進一步成為使用者的隨身助理,並且串連更多第三方App,讓使用者能更輕易透過手機完成各類事項,甚至能讓手機變成可主動協助使用者各類事宜的「智慧體」。 即使與Google合作,依然會經過調整才會使用其技術資源 對於當前人工智慧應用發展,廖勁松認為人工智慧模型的訓練成本還是需要一定成本投入,但在完成訓練後的推論運作確實可以透過蒸餾、最佳化等方式讓執行成本大幅降低。 同時,廖勁松也認為目前距離通用人工智慧 (AGI,Artificial General Intelligence)依然很遙遠,因此最常見作法還是針對不同應用需求佈署個別專門的人工智慧模型,這也是OPPO當前著重不同人工智慧模型應用發展的原因,因為對於不同使用場景通常需要專門的人工智慧模型對應最佳處理。 而對於蒸餾、微調等處理方式,雖然確實會讓整體性能、正確率有所下降,但是換得的是更快執行反應速度,因此廖勁松認為在配合資料校正、配合OPPO自有人工智慧技術調整之下,依然能讓執行結果維持正確。 至於避免人工智慧產生幻覺的作法,廖勁松說明會透過數據最佳化、微調,搭配產品設計,避免人工智慧運作產生幻覺,即便Google在其人工智慧模型設計已經提出改善幻覺的作法,OPPO也不會因為合作關係直接取用,依然會透過相關解決方案與微調設計確保模型運作正確。 將與realme共享更多技術資源、以人工智慧維持OnePlus的「Never Settle」精神 相較vivo同樣自行投入自有人工智慧技術的作法,OPPO雖然過去與其有一定關係,但目前雙方已經成為各自獨立體系,因此在人工智慧技術應用不會交叉整合,反而有更多人工智慧技術會與realme互通有無。 另一方面,目前同樣整合進OPPO體系的OnePlus (一加)品牌接下來也會以人工智慧技術加強使用體驗,而廖勁松預期配合人工智慧提供更極致的使用體驗,預期將能使OnePlus品牌能在人工智慧時代繼續維持「Never Settle」 (永不妥協)的品牌精神。 ...
今年在Google NEXT'25活動中,Google強調接下來將持續在雲端服務持續投資,更強調將持續以開放、互通,以及更多選擇形式與更多合作夥伴、企業用戶共同推動業務成長。 ▲Google強調從基礎建設、模型、Vertex AI平台與軟體層面推動雲端服務成長 在近年發展中,Google不僅在美國境內持續擴建數據中心,同時也在全球各個區域建設海底電纜,藉此加快各地網路服務連接響應速度,並且確保有足夠頻寬支撐Google在全球推行服務,更能維持Google Cloud服務穩定運作。 目前Google已經在全球建置42個區域服務,甚至有些地區更涵蓋2座以上數據中心,或是持續以最新技術升級,並且形成124個可用區塊、可將服務佈署至187個邊緣位置,使得在Google Cloud佈署服務能遍佈超過200個國家地區。 ▲目前已經在全球建置超過42個區域服務,使得在Google Cloud佈署服務能遍佈超過200個國家地區 ▲Google目前包含在陸地上或海底建置骨幹網路長度累積超200萬英里 Google執行長Sundar Pichai更表示今年將投入超過750億美元資金擴展數據中心等基礎建設,近年內更在馬來西亞、泰國擴建數據中心,讓更多東南亞國家地區企業能藉由Google Cloud服務發展業務,同時在台灣地區的數據中心也已經落成超過10年,期間更持續加入更多服務功能,讓台灣企業也能透過Google Cloud服務加快與全球市場接軌。 ▲近年推動的Gemini人工智慧技術已經與全球多個用戶合作導入,並且推動其服務成長 在後續訪談中,Google Cloud執行長Thomas Kurian表示當前人工智慧帶動更大機會,而Google Cloud有信心能在此趨勢協助更多企業轉型、帶動更多成長,更強調Google Cloud業務在過去5年持續成長,同時也說明將秉持開放、互通心態讓用戶能有更多選擇彈性。 ▲Google Cloud執行長Thomas Kurian 例如從基礎建構部分,Google Cloud不僅與Intel、AMD及NVIDIA在內供應商合作不同運算方案,本身也提供性價比更高的TPU、「Axion」客製化處理器,並且以Vertex AI平台提供更多人工智慧模型、生成工具等資源,同時也透過Kubernetes容器化技術、軟體框架等資源,讓用戶能以最大彈性選擇合適雲端環境建置服務。 甚至從先前針對不同雲端環境需求、因應不同地方法規或地緣政治等變因,Google Cloud也持續擁抱跨雲,此次更提出A2A (Agent ...
在此次Google NEXT'25期間,筆者除了與幾位Google Cloud主管聊到關於人工智慧驅動市場下的雲端環境架構建置想法,以及人工智慧代理服務帶動市場競爭與人工智慧模型劃分走向等議題,同時也與台灣的17Live、KKday討論其如何應用Google Cloud資源推動其服務,而Google又是如何協助這些合作夥伴推動業務成長。 ▲Google針對雲端平台持續提供諸多應用技術與工具資源,協助用戶推動其業務成長 17Live藉由Gemini技術讓直播互動體驗變得更好 2015年由藝人黃立成創立,後續雖然經歷不少發展,並且由新加坡約會應用程式Paktor併購,進而成為目前的17LIVE,目前主要聚焦台灣及日本市場、另外也擴展美國及東南亞市場,更計畫佈局更多海外市場。 對於此次在Google NEXT'25期間公布內容,17LIVE認為最感興趣的還是Gemini人工智慧技術後續應用。 ▲直播背後會面臨諸多複雜問題,但也能從中挖掘發展機會,只是透過傳統人力較難順利分析,必須仰賴人工智慧更有效率地處理大量資訊 17LIVE集團技術副總經理徐永吉表示,17LIVE採用Google Cloud服務已經有一段時間,目前也開始將Gemini人工智慧技術用於內容分析,藉此協助過往必須透過人力審核直播不當內容情況。 另一方面,藉由Gemini技術推動的人工智慧代理服務應用模式,徐永吉表示會藉由Gemini分析當前直播平台的內容趨勢、互動情形,並且從中挖掘可能發展機會,並且能透過數位助理等方式,讓近期直播狀況不佳的直播主能有參考及改善依據。 • 創造更好體驗 徐永吉說明,直播產業本質上就是「have fun」為導向,進而從中產生粉絲支持與回饋的互動關係,但如果互動關係只是一昧地透過單方面表演與支持贊助維持,其實通常在短時間內就會移轉到其他關注對象。 因此在17LIVE的規劃中,接下來會藉由Google Cloud的Vertex AI平台技術資源創造更多互動玩法,其中也會應用諸多結合Gemini的技術,例如透過Gemini人功位模型配合17LIVE擁有大量直播活動數據進行訓練,並且配合Veo等人工智慧生成工具創造更貼近自然互動的虛擬主播,藉此創造與真人主播不同的互動樂趣,甚至也能以此創造更多直播應用可能性。 ▲目前虛擬主播是17Live重點發展項目之一,同時也預期能增加更多真人直播以外的樂趣 同時,徐永吉也表示在直播內容往往會有許多難以透過人力審核過濾的問題,例如直播主設法爭取更多觀看流量,進而遊走規範邊緣的情況,其實會需要花費許多人力與時間成本判斷,但透過人工智慧進行分析,往往能發現更多人力審核難以察覺問題,因此也讓17LIVE更積極擁抱人工智慧技術應用。 ▲17LIVE集團技術副總經理徐永吉 KKday:數據正確分類是應用人工智慧技術的重要關鍵 2014年4月創立、2015年1月正式上線的KKday,主要提供豐富的旅遊行程與體驗項目,業務遍及全球超過92個國家、550個城市,範圍涵蓋台灣、香港、新加坡、韓國、日本、馬來西亞、泰國、菲律賓、越南、上海、澳洲等地。 KKday技術長陳閔煌說明,KKday當前收錄行程與體驗項目產品包羅萬象,最常面臨問題其實還是客服,原因在於消費者一旦在所購買產品有問題時,往往會需要即時協助處理,同時也可能面臨語言隔閡等情況,導致客服系統經常會有工作滿載情形,即便擴充更多客服團隊人力可能也難以解決此類問題。 ▲KKday此類服務最大難題之一便是客服 因此過去KKday曾經以聊天機器人方式建立線上數位客服,但是傳統以資料比對為主的數位客服多半只能解決部分問題,面臨各種複雜的問題時,還是必須透過真人客服協助處理,而Google Cloud目前提供能以Gemini人工智慧技術與生成工具建立擬真客服系統的技術,不僅能讓消費者相信自己是與真人客服對話,進而可消除在外遇到問題時的大部分焦慮感,同時也能透過分析理解消費者實際問題,進而生成能實際解決問題的回應,顯然就能改善多數客服問題,甚至也能減緩真人客服系統面臨壓力,並且能將人力用於處理更為複雜問題。 其他導入Gemini人工智慧技術應用部分,則是用於旅遊行程與體驗項目內容的商品描述,畢竟此類商品會持續更新,如果要以人力處理所有內容勢必會產生更大成本負擔,因此目前KKday許多商品描述會是以人工智慧生成,並且能透過翻譯轉換更多語言版本,再以人力方式進行後續內容校正。 ...
針對此次公布鎖定人工智慧「思考」加速打造、迄今為止性能最高的第7代TPU「Ironwood」,Google Cloud副總裁暨人工智慧及運算基礎架構業務總經歷Mark Lohmeyer在受訪時表示當前的雲端基礎架構雖然會因應人工智慧技術應用需求作調整,但整體上仍會依照市場不同需求提供合適的基礎架構。 ▲Google在此次Next’25大會活動上公布代號「Ironwood」、標榜性能最高,同時更針對人工智慧「思考」加速打造的第7代TPU 不會因為人工智慧需求全面改變雲端基礎建設 Mark Lohmeyer指出,雖然此次確實因應人工智慧運算需求加入第7代TPU「Ironwood」設計,標榜可對應42.5 Exaflops算力表現,約為目前全球最大規模超級電腦El Capitan對應算力的24倍,同時資料傳輸頻寬高達7.2 Tbps,相比前一代「Trillium」高出4.5倍,但針對更多雲端應用需求仍保留先前推出的TPU硬體架構,同時也與Intel、AMD與NVIDIA合作運算晶片,甚至此次更預告將取得NVIDIA接下來將推出的代號「Vera」CPU,以及代號「Rubin」的下一代GPU。 ▲Google與NVIDIA合作,分別在其A4、A4X VM虛擬機器環境增加NVIDIA B200及 GB200 NVL72 GPU的選擇 而雖然目前當前不少基礎架構都是為了人工智慧運算作準備,但Mark Lohmeyer強調Google Cloud依然保留應用多元性,並且讓使用者能有更多選擇,包含從硬體基礎架構便提供自身TPU加速運算設備,甚至也能選擇以Arm架構打造的「Axion」CPU,或是依照需求選擇其他合作供應商提供運算晶片,而Vertex AI平台也彙整諸多開源人工智慧模型資源,以及Google提供的Gemini人工智慧模型與應用工具。 意味使用者能在Google Cloud雲端平台以更大彈性建構應用服務,同時也有更大選擇佈署應用彈性,甚至Google本身更秉持開放態度,讓使用者能更輕易地使其服務與建構在其他雲端平台的服務連動,讓使用者能更安心地在Google Cloud服務環境建構各類應用服務。 因此相較過往基礎建構設計模式,Mark Lohmeyer認為實際上沒有太大差異,主要是針對人工智慧運算應用發展增加更多選擇,例如增加TPU在內加速硬體、針對人工智慧訓練所需資料儲存提供相應解決方案等,但即使使用者建構服務並非使用人工智慧,同樣能在Google Cloud環境穩定運作。 雲端基礎建設與服務預期不受關稅政策影響 至於針對近期川普政府提出新關稅政策 (註),是否可能會造成一定影響,甚至促使調整雲端基礎架構設計,Mark Lohmeyer的看法則認為目前暫時還看不出來會造成衝擊,因此在雲端基礎架構設計上並不會作改變,另外也表示雲端服務的基礎建設佈署與一般整機引進銷售情形還是有些不同,因此預期實際受到影響程度不會太大。 ...
Google Cloud Vertex AI平台產品總監Nenshad Bardollwalla受訪時,預期人工智慧代理服務將成為接下來各家相繼競爭市場,而Google將秉持開放態度以此次公布的A2A (Agent 2 Agent)協議,搭配其收錄諸多人工智慧模型、技術應用工具資源的Vertex AI平台,協助更多開發者、企業打造合適的人工智慧代理服務。 ▲藉由A2A開源協議,將使更多人工智慧代理服務能彼此互動,甚跨雲連動 Nenshad Bardollwalla表示,Google在此次Google NEXT'25公布的A2A協議以開源形式提供使用,意味可讓所有人用於任何一款人工智慧代理服務,即便服務本身建構在不同雲端平台,例如Azure或AWS,或是服務背後使用不同人工智慧模型,只要透過相同協議串接即可讓不同平台上的人工智慧代理服務互通有無。 不過,A2A協議實際能對應連動項目還是有限,但最基礎的人工智慧代理資料互通、執行簡單互動依然可以實現,或許隨著此協議被廣泛使用情況下,Google也會持續增加更多可透過協議互動功能。 而Nenshad Bardollwalla認為,一旦人工智慧代理服務更為普及應用,隨之帶動的是背後的人工智慧推論能力成長,因此預期人工智慧代理服務將成為今後更重要業務,同時也會是更多開發者、企業接下來競爭市場。 同時,從Google過往在跨雲整合發展持開放態度,並且提供諸多可在不同雲端整合應用服務,例如先前便讓BigQuery能橫跨Azure、AWS雲端平台彙整資料,甚至後續推出可跨雲分析數據的BigQuery Omni功能,加上本身在Vertex AI平台持續擴充多元的第三方開源模型,就連Meta日前對外揭曉的Llama 4也將登上Vertex AI平台,而本身更提供諸多以Gemini人工智慧模型驅動的工具資源,使得Google Cloud在開發各類雲原生服務有更大優勢。 以過去以來持續在市場推行的Kubernetes容器化應用程式、TensorFlow機器學習開源框架,目前除了在Google Cloud雲端服務平台廣泛使用,同時也在Azure、AWS等第三方雲端平台被密集使用,因此Nenshad Bardollwalla預期接下來藉由提供開源使用的A2A框架,將使人工智慧代理服務成為市場主要發展項目。 ▲Google Cloud Vertex AI平台產品總監Nenshad Bardollwalla
針對目前人工智慧技術快速成長,同時也有越來越多人工智慧模型進入市場普及應用,而許多生成式人工智慧服務更讓原本不具備開發者技術背景的人也能成為「開發者」,筆者在此次Google NEXT'25期間也從Google方面對此趨勢分享看法。 ▲越來越多人工智慧模型進入市場普及應用,人工智慧技術不再遙不可及 其中,Google Cloud負責協助程式編寫與產品開發的產品管理資深總監Ryan Salva表示,其實程式編寫工作很多時候是在維護、更新編碼內容,並且使其能更符合使用需求調整,僅在特定時候才會投入編寫全新編碼內容。 而將生成式人工智慧技術用於編碼,主要則是用於輔助檢查錯誤,並且將編碼內容最佳化,並且讓工作人員能有更多時間檢查是否有潛在未能以人工智慧發現錯誤,同時也能將更多心力放在確認編碼內容能否在不同服務之間相容運作。 即便能以人工智慧方式簡化工作流程,程式編寫工作實質上還是需要一定識別能力,藉此判斷程式編碼是否真的正確、無誤,並且達成最佳化調整。因此,在當前的人工智慧技術趨勢發展下,程式編寫等開發工作暫時還不會全面被人工智慧取代。 Google DeepMind負責人工智慧開發者平台項目的產品副總裁Mat Velloso指出,接下來的人工智慧模型將會朝向更大參數量規模、更多功能應用方向發展,雖然數量不一定會大量衍生,但起碼會依照不同使用需求區分不同版本,如同在各類情況使用需求會以不同「專家」能力應對。 因此從現實層面來看,目前要實現能完全模擬人類大腦的通用人工智慧 (artificial general intelligence,AGI)顯然仍有難度,因此短時間內仍會維持以不同人工智慧模型個別完成其擅長任務,或是處理特定類型問題應用模式為主,但未來分布版本數量應該會隨著各個模型性能提升而遞減。 ▲目前市場上的人工智慧模型數量繁多,未來也會朝向更大規模參數量、更多功能應用,但也會有鎖定輕量運作的使用設計 對於DeepSeek等業者著重以蒸餾等方式,在不會大幅影響模型執行效能情況下,讓人工智慧模型運作成本降低的作法,Mat Velloso則認為此為接下來的市場趨勢,更透露目前Google在Gemini模型的設計中也採用類似作法。 例如,簡化為270億組參數規模的Gemma 3模型,在Chatbot Arena Elo測試項目效能表現僅次於參數規模為6710億組的DeepSeek R1,甚至僅需單張NVIDIA H100 GPU即可加速運作,意味能在發揮相近效能情況下以更快速度運作,同時能以更低成本使用。 ▲簡化為270億組參數規模的Gemma 3模型,在Chatbot Arena Elo測試項目效能表現僅次於參數規模為6710億組的DeepSeek R1,甚至僅需單張NVIDIA ...
如同亞馬遜推出可深入理解人類對話,更可捕捉語氣、語調的全新Nova Sonic模型,Google也在其結合Google AI技術的客戶互動套件 (Customer Engagement Suite)增加諸多功能,讓開發者或企業能以此打造貼近真人語調、具備電腦視覺分析,並且能與其他應用服務連動的數位客服系統。 在Google NEXT'25大會活動上展示內容,Google以線上購買園藝用品過程與數位客服系統互動模式為例,當消費者提問適合特定植物使用施肥時,數位客服系統除了能以貼近真人語調方式與消費者交談互動,同時也能要求消費者同意授權使用手機相機鏡頭拍攝功能,並且藉此識別消費者手中的植物種類,藉此判斷消費者選購的施肥是否適合。 而當消費者表示自己購買多包施肥,希望能給予一些折扣時,數位客服系統也能在互動中表明試著與主管商量,在系統背面則可看見數位客服系統會以文字方式透過內部溝通平台與主管人員進行溝通。當主管人員回覆同意給予折扣後,數位客服系統即可將相關文字回覆內容轉為口述內容,並且轉達給消費者知曉,同時連帶將消費者購物車中的商品價格作調整。 在溝通過程中,消費者幾乎不會感覺互動對象並非真人,其語調表現幾乎與真人一致,甚至可以與消費者即時溝通互動,並且以極具情感形式回覆消費者提問內容。 以實際應用來看,此解決方案將能協助改善多數品牌客服人員短缺問題,並且能在對外提供服務維持一致品質,甚至也能更有效率協助解決更多消費者疑難雜症。
去年在Google I/O 2024揭曉、代號「Trillium」的第6代TPU之後,Google在此次Next'25大會活動上公布代號「Ironwood」、標榜性能最高,同時更針對人工智慧「思考」加速打造的第7代TPU。 相較過往設計聚焦在推論加速,Google強調「Ironwood」不僅是歷年推出性能最高,同時也更節省電耗設計的TPU,更可針對人工智慧模型進行「思考」、主動提供見解時進行加速,藉此讓更多人工智慧代理服務能更快執行運作。 「Ironwood」以9216組液冷晶片組成,並且透過晶片間互連網路介面 (ICI)串接,可對應42.5 Exaflops算力表現,約為目前全球最大規模超級電腦El Capitan對應算力的24倍,同時也能對應最大規模的人工智慧工作負載平行處理能力,而每組晶片的峰值算力均可達4614 TFLOPS。 除了推出以9216組液冷晶片組成版本,「Ironwood」也額外針對不同運算規模需求提供256組液冷晶片組成版本。 同時,Google強調「Ironwood」的記憶體及網路架構可確保運算資料正確性,並且具備專門用於處理進階排名與推薦工作負載的增強型SparseCore加速核心,可應用於更大規模人工智慧模型運作,或是處理科學、金融相關數據。 而藉由Google DeepMind團隊開發的Pathways人工智慧框架,更可讓開發者更容易運用「Ironwood」算力,甚至能將數十萬組「Ironwood」構成「Ironwood Pod」,透過更龐大算力推動人工智慧執行效能。 相比去年推出代號「Trillium」的第6代TPU,「Ironwood」標榜在每瓦性能提升2倍,代表在相同電力情況下能發揮更高人工智慧算力,配合更進一步調整的晶片設計與液冷方案,更可維持更高人工智慧工作負載表現,同時節能表現更比2018年推出的第1代TPU高出將近30倍。 其他數據,則包含每組「Ironwood」配置192GB高頻寬記憶體 (HBM),比「Trillium」增加6倍,藉此能處理規模更大的人工智慧模型與資料集,同時降低頻繁傳輸資料且能進一步提高執行效率。 隨著增加高頻寬記憶體資料傳輸頻寬,更使得每組「Ironwood」資料傳輸頻寬增加為7.2 Tbps,比「Trillium」高出4.5倍,同時也透過晶片間互連網路介面設計,讓晶片之間通訊傳輸頻寬增加為雙向1.2 Tbps,比「Trillium」高出1.5倍,進而提高大規模高效分散式訓練及推論效率。 Google預計會在今年底之前正式佈署應用「Ironwood」,藉此對應更密集運算需求,以及市場需求量持續增加的人工智慧運算發展。同時,Google也證實日前宣布推出的Gemini 2.5人工智慧模型,以及新版AlphaFold蛋白質結構預測程式都會在「Ironwood」加速架構上運作。 另一方面,Google也宣布以「Ironwood」構成的超級電腦,將能支撐幾乎所有的人工智慧工作負載,並且提供更高的執行成本效益,例如在每1美元價格下的執行效率成本,Gemini Flash 2.0能比OpenAI的GPT-4o高約24倍,更比DeepSeek-R1高出5倍左右。 除了提供以TPU構成的超級電腦運算資源,Google在日前舉辦的GTC 2025活動上也宣布與NVIDIA合作,分別在其A4、A4X VM虛擬機器環境增加NVIDIA B200及 GB200 ...