Tag: Deep Learning

蘋果財報顯示iPhone、服務產品銷售創新高,但Mac、iPad及穿戴裝置銷售均下滑

蘋果提出名為DeepPCR的機器學習演算法,加速神經網路推論與訓練效率

蘋果開發人員近期提出名為DeepPCR的機器學習演算法,將能用於加速神經網路推論與訓練效率。 此機器學習演算法是為了加快神經網路運算處理效率打造,避免神經網路依序排程處理執行任務的過程,可能因為運算資料疊加導致整體訓練及生成反饋時間加長,透過平行循環還原 (PCR)演算方式降低訊連流程複雜性,進此縮短整體演算所需時間。 而在蘋果內部佈署使用DeepPCR演算法之後,使訓練前向傳遞速度可提升最高達30倍,以及向後傳遞速度可提升高達200倍的表現,進而加快神經網路推論及訓練效率。 目前蘋果方面並未大幅對外說明其在人工智慧領域發展狀況,強調在機器學習等應用並未處於落後地位。而先前也有不少消息指稱蘋果已經積極投入人工智慧技術發展,預計強化包含Siri在內應用服務使用體驗。

Google新天氣預測模型直接以大氣觀測數據訓練,提供一天以前、最短2分鐘間隔的高準度天候預報

Google新天氣預測模型直接以大氣觀測數據訓練,提供一天以前、最短2分鐘間隔的高準度天候預報

Google研究院與Google DeepMind團隊合作打造名為MetNet-3的天氣預測模型,標榜能在24小時以前針對天氣多樣變數進行分析,並且做出高準確率的天氣預報。 此天氣預測模型是以先前提出的MetNet、MetNet-2為基礎,並且能分析預測降雨機率、地面溫度、風速、風向,以及露點溫度 (Dew point temperature)。 相比傳統預測分析方式,MetNet-3直接透過大氣觀測數據進行訓練,因此能做出更符合真實、分析精度更高預測結果,甚至也加入氣象站氣溫與風向相關量測數據,藉此對應更準確的天氣預報。依照Google說明,MetNet-3以2分鐘為間隔,並且以1公里至4公里空間範圍進行分析,相比傳統天氣預測模型能有更高準確性。 傳統天氣預測模型是透過資料統整與後續模擬方式進行分析,MetNet-3最大優勢在於可直接取得將近即時的天候數據與更小空間範圍分析。相比目前最先進的天候預測模型ENS僅能產生間隔6小時分析預測結果,同時分析空間範圍約為9公里,預測結果最少是以每小時間隔呈現,MetNet-3顯然能有更高解析結果,最快可做出24小時以前、最短以2分鐘間隔呈現的天氣預測數據。 目前Google已經開始在美國、歐洲等地區透過MetNet-3模型提供12小時內的即時降雨機率預測功能,讓使用者能透過Google搜尋等服務取得天氣預測資訊。 除了公布新版天氣預測模型,Google DeepMind近期也與倫敦藥物研究業者Isomorphic Labs合作推出新版蛋白質預測模型AlphaFold,將使蛋白質分析經度可達原子等級,將能對應研究分析更複雜的蛋白質複合物,其中包含蛋白質與配體 (Ligand)綁定結構,讓研究人員可加速新藥開發速度。

Razer與Lambda合作,打造專為深度學習應用設計的Lambda Tensorbook筆電

Razer與Lambda合作,打造專為深度學習應用設計的Lambda Tensorbook筆電

Razer稍早宣布與深度學習業者Lambda合作,藉由Razer旗下Blade系列遊戲筆電為基礎,打造名為Lambda Tensorbook的深度學習筆電。 Lambda Tensorbook採用Linux作業系統,並且搭載Lambda旗下深度學習軟體,同時也能結合Lambda GPU Cloud進行雲端協同運算,讓工程人員可以在筆電上建立、訓練,以及測試各類深度學習模型。 目前Lambda合作對象,包含美國境內包含麻省理工學院、加州理工學院等97%頂尖研究型大學,以及美國國防部等機構,同時提供GPU運算叢集、伺服器與工作站產品,讓工作人員可以透過不同形式建構深度學習模型項目。 而此次與Razer合作,Lambda期望能藉由Tensorbook滿足更具彈性的深度學習模型建構需求,並且可藉由市場常見的PyTorch、TensorFlow、cuDNN、CUDA等深度學習框架,讓工作人員可以更快投入模型建置與實際執行展示。 至於硬體部分則是以Blade系列遊戲筆電為基礎,搭配NVIDIA GeForce RTX 3080 Max-Q設計的獨立顯示卡,同時在外觀設計也調整為Lambda品牌樣式。 Lambda Tensorbook已經開放透過Lambda官網訂購,建議售價為3499美元,並且額外提供一年的Lambda工程技術協助服務。

透過影片分析學習,NVIDIA提出快速建立可呈現自然肢體動作3D人物模型的方法

透過影片分析學習,NVIDIA提出快速建立可呈現自然肢體動作3D人物模型的方法

相較過往需透過專業設備進行人體動作擷取相關數據,才能順利建立3D人物模型的情況,NVIDIA研究人員提出透過影像識別方式,直接透過影片內容分析進行資料訓練,一樣以此建立可呈現自然動作、姿態的3D人物模型。 雖然建立3D人物模型已經不算困難,但要讓3D人物模型呈現自然肢體動作才是更大挑戰,因此過往作法通常是配合專業設備擷取人體動作數據,讓3D人物模型能透過這些數據呈現自然的肢體動作,同時也能省去大量透過人力調整的麻煩。 不過,利用專業設備擷取人體動作依然需要花費大量成本,因此對於許多內容創作者而言,顯然還是很大挑戰。 而在NVIDIA研究人員提出方法中,則是運用影像識別技術分析影片中的人物動作,並且透過深度學習讓系統「了解」真實人體動作表現,進而讓3D人物模型可以透過學習結果呈現自然肢體動作,尤其在做出行走動作時,即可讓3D人物呈現肢體隨著走動自然協調擺動情況,而不會出現走路動作僵硬、不自然問題。 在分析過程中,系統會判斷影片中的人物動作表現,並且透過關鍵支點逆向建立肢體骨幹,同時配合修正合乎正常肢體動作範圍、角度,讓最終訓練結果更符合自然人體動作表現,之後即可在訓練結果直接套用各類3D人物模型,甚至可以在短時間建立大量3D人物模型動作表現。 對比傳統透過專業設備擷取真實人體動作的方法,雖然在實際精準度仍會有些落差,甚至可能還是會有誤判情況,但已經能符合絕大多數的應用需求,對於遊戲、3D動畫等內容應用都能帶動更快製作效率。

RDNA 2顯示架構、7nm製程加持,AMD Radeon RX6800 XT、RX6800顯示卡直攻RTX 3080

AMD藉深度學習實現的超解像技術,未來也會應用在遊戲主機、手機裝置

AMD在日前提及新版FidelityFX技術更新時,曾提即將提供超解像處理效果,意味日後Radeon系列顯示卡也能像NVIDIA顯示卡藉由DLSS功能,讓影像解析度能藉由深度學習方式提昇。而從AMD近期申請專利顯示,其接下來預計整合在新版FidelityFX技術的超解像處理效果,同樣也會採取深度學習方式達成解析度提昇效果。 從相關專利描述指出,AMD將分別透過線性及非線性放大方式進行採樣,並且透過深度學習及比對等方式,讓最終生成影像能以更高解析度呈現。 此外,AMD也提到此項技術不僅可用於採RDNA2架構的顯示卡使用,未來也將能對應遊戲主機與行動裝置使用,意味接下來包含Xbox Series X|S、PlayStation 5,以及AMD與三星合作打造的行動處理器也將支援超解像技術。 以目前來看,NVIDIA從先前推出的DLSS 1.0,到目前提供使用的DLSS 2.1版本,在反鋸齒處理與高解析度提昇效果有顯著提昇,雖然AMD也提出相似處理技術,但就像本身提出即時光影追跡技術一樣,現階段距離普及應用仍有段時間。 但從目前AMD與多款遊戲業者、遊戲主機合作,同時也與在全球手機市場有龐大出貨量的三星合作,預期將能藉此讓旗下顯示技術廣泛應用在諸多市場領域。

還相信網路美女嗎?YouTuber「Rui」證實姣好面容是以人工智慧技術合成

還相信網路美女嗎?YouTuber「Rui」證實姣好面容是以人工智慧技術合成

韓國著名YouTuber「Rui」 (루이)稍早證實,過去在影片中實際露臉的面貌,其實是由南韓軟體技術公司dob Studio (디오비스튜디)以人工智慧技術打造。 依照"扮演"YouTuber「Rui」的本人接受採訪時表示,實際上是因為希望成為一名歌手,但是在南韓演藝界極度重視外表的情況下,接受與dob Stusio合作,透過深度學習方式,將統計數據中最受歡迎面容組合,以人工智慧方式動態合成在「Rui」本人在影片中的臉譜上。 如同過去Deepfake使用技術,dob Studio將深度學習組合出的面容套用在影片內容中,因此實際上僅有頸部以下身體、頭髮與聲音部分為「Rui」本人。除了YouTube影片內容藉由dob Studio合成面容,包含在Instagram上的靜態照片內容,其實也是藉由人工智慧技術合成。 雖然在原本影片大受歡迎是因為正妹YouTuber形象,以及翻唱歌聲實力表現,但不免還是反應真實世界偏好面容姣好外表的世俗感。 雖然過去也有不少人具備驚人歌唱實力,卻因為其貌不揚而缺乏站上舞台勇氣,不見得像過去在英國星光大道選秀節目上因歌聲走紅的「蘇珊大嬸」Susan Boyle能獲得相同賞識,因此借助人工智慧技術,或許還是能滿足其出道演出夢想。 而借助人工智慧創造的虛擬人物網紅、實況主,在目前相關技術持續精進之下,顯然也有越來越多應用可能性,例如日本Hololive便是提供讓人以虛擬人物形式進行實況直播,而南韓MBN電視台也以當紅主播金柱夏形象,與人工智慧技術公司MoneyBrain合作打造人工智慧主播「AI金柱夏」 (AI김주하),藉此協助新聞內容播報。 另外,除了LG在今年初的CES 2021透過虛擬人物「Reah Keem」介紹新品,三星旗下Star實驗室打造的「Neon」,同樣也是藉由人工智慧技術打造徐徐如生的仿生人物,未來將能廣泛應用在各類數位互動服務場景。 此外,在Deepfake技術持續精進情況下,顯然越來越多靜態影像、數位影片將更難以分辨真假,雖然目前也有相應技術計畫透過人工智慧演算法,分析Deepfake技術生成影像中的人眼目光反射內容,藉此判斷影像中的人像面容是否為合成,只是日後預期也會有相關解決方式,讓合成影像更難以辨識真假。

富士康藉電腦視覺加速代工產線運作效率,未來目標實現全自動化應用

富士康藉電腦視覺加速代工產線運作效率,未來目標實現全自動化應用

在此次GTC 2019期間,富士康 (Foxconn)實際展示旗下將電腦視覺技術應用在產線,讓產品生產檢測更具效率,同時也能提昇產品整體生產速度的解決方案,強調整體檢驗精準度可達98%以上,同時更可讓檢測所需人力從原本400人左右精簡至2-3人即可完成。 富士康目前應用在武漢產線的人工智慧檢測系統 富士康這套檢驗系統目前主要應用在中國境內武漢生產線,主要希望改善傳統必須透過大量人力進行檢驗,同時透過人工檢驗往往在一段時間後,可能因為視覺疲勞等因素造成檢驗精度下降,反而讓產品生產良率下降。而另一方面,則自然包含人力成本、資源最佳化利用,以及提生產線效能等考量,因此希望藉由人工智慧技術導入提昇生產效率。 此次在GTC 2019期間展示的解決方案主要用於產品外觀等細節檢測,富士康表示在其他生產過程其實也會有不同技術應用導入,甚至可以藉由自動化應用串接不同生產流程,讓整體產線可以實現透過少數人力管理即可全自動化運作,並且讓產線系統可依照檢測結果自動校正生產誤差情況。 而在檢測系統設計中,富士康說明依照不同檢測需求,在一般簡單外觀判斷其實使用Jetson系統效能就能實現,但在此次展示的主機殼側板檢測流程因為包含外觀瑕疵、金屬板邊緣凹折弧度是否符合要求等項目,因此採用的是Tesla T4 GPU組成系統,搭配多組鏡頭進行電腦視覺辨識,藉此實現辨識精度可達98%以上,並且超越人眼視覺所及檢視細節,讓整個檢測系統可以完成過往必須花費400人左右進行檢測的工作流程,甚至目標希望能使單次可完成800組物件檢測數量提高至1200組。 在學習訓練方面,富士康會預先透過瑕疵範例圖像讓系統進行前期訓練,爾後套用在新零件的辨識學習所需時間基本上只需花費3天即可完成,同時隨著持續學習累積經驗,理論上也能讓相似零件的辨識學習時間縮減,但為了維持一定辨識精度,基本上還是會以3天學習訓練時間長度為主。 此項辨識系統除了應用在富士康武漢生產線,未來也有可能應用在其他產線,甚至可能應用在零件相對簡單、複雜度比較不高的生產零件檢測。 這樣的情況,其實也說明雖然電腦視覺等人工智慧技術應用,似乎已經可以取代部分傳統人力需求,但諸如手機等相對複雜的零件檢測,現階段可能還是會仰賴人工檢測居多,其中因素可能包含現行檢測系統辨識精度,以及整體建置成本與傳統人力成本比較。 不過,依照富士康未來發展目標希望走向全自動化產線運作模式,顯然接下來也會持續藉由電腦視覺等人工智慧技術導入,讓產線運作成本能更進一步精簡。 除了富士康,其實現在已經有越來越多產線、工廠、農場都已經開始導入電腦視覺應用等人工智慧技術,例如亞馬遜很早之前就已經開始導入機器人協助揀貨、分貨,而不少現代化農場也開始透過電腦視覺技術判斷農作物良率,意味傳統單純僅以人力完成的工作,逐漸可由電腦系統取代,但在需要人腦做進一步判斷,以及更精準操作的工作方面,傳統人力依然會有其不可取代性。 傳統產線檢測需要透過大量人力,以肉眼方式進行檢測,但可能會有疲勞等因素影響檢測精度 精簡地來說,富士康此套檢測系統就是藉由多組鏡頭捕捉影像資訊,並且透過Jetson AGX或Tesla T4進行電腦視覺學習加速,讓系統能針對實際拍攝影像比對生產零件是否符合規定 檢測系統內部結構 預先透過瑕疵範例圖像讓系統進行深度學習 透過多組鏡頭進行拍攝 實際運作流程 通常單一零件會針對外觀塗裝瑕疵、外型凹折弧度等是否符合規範,並且透過前期學習讓系統建立基礎判斷模型 電腦檢測系統會透過鏡頭、GPU元件協助學習加速

Facebook開放深度學習系統PyTorch 1.0 讓更多開發者能取用人工智慧資源

Facebook開放深度學習系統PyTorch 1.0 讓更多開發者能取用人工智慧資源

相比第一天的主題演講著重在Facebook主要服務項目帶來哪些改變,F8開發者大會第二天的主題演講幾乎聚焦在人工智慧技術應用,而為了讓更多開發者可藉由人工智慧技術資源打造應用服務,Facebook宣布整合旗下Caffe2,以及與微軟、亞馬遜等廠商共同推動開放學習框架ONNX的深度學習系統PyTorch 1.0,藉此協助開發者縮減各類人工智慧技術應用所需訓練時間。 Facebook預計在未來幾個月內向開發者釋出PyTorch 1.0測試資源,其中將包含對應Facebook基本服務的應用工具、資料庫,以及預先完成訓練的基礎模型等資源,讓開發者能藉由這些資源更容易打造各類以人工智慧驅動的應用服務。 就Facebook目前服務項目,其實有不少部分均已導入人工智慧技術應用,例如用於過濾不當言論、罷凌內容,甚至進一步分析假帳號、假新聞、恐攻內容與自殺發言,或是用來協助使用者媒合最佳合適閱讀內容、串接更多使用者可能認識的人,以及協助翻譯不同語言內容。 根據Facebook說明,目前已經藉由人工智慧過每天濾成千上萬組假帳號,同時也在今年第一季內移除各類恐攻相關內容。同時,Faceboo也透過Instagram服務中超過35億組照片與17000組標籤內容,讓人工智慧系統進行訓練,目前約可達成85.4%的物件正確識別率。 而基於人工智慧技術背後依然是藉由巨量資訊進行學習,其中也涉及隱私保護與道德原則,Facebook更強調在持續構思更好保護用戶個人隱私資訊之餘,同時也會避免人工智慧技術產生更大負面影響,甚至造成使用不平等相關問題。

Google共同創辦人說明將以人工智慧帶動科技「復興」

Google共同創辦人說明將以人工智慧帶動科技「復興」

雖然並未針對近期Google內部員工要求公司避免將相關技術用於軍事等用途,但針對未來在人工智慧技術應用原則,Google共同創辦人Sergey Brin稍早藉由公開信件說明公司對於人工智慧技術應用的看法。 就Sergey Brin個人看法,認為人工智慧將能為科技產業帶來全新「復興」。 其實人工智慧技術並非近幾年才開始被討論,早在20世紀的40年代就已經有機器學習相關技術產生,同時現今被廣泛使用的類神經網絡系統設計,其實也早在當時便已提出,而現今使用技術多半是以當時的理論為基礎增加類神經網絡層,並且透過運算加速方式提昇學習效率,進而創造目前常見的人工智慧系統。 Sergey Brin認為,目前的人工智慧技術應用熱潮將能為電腦科學帶來更大動能,並且產生更多全新應用,例如自動駕駛、物件識別,語言翻譯,或是用於YouTube內容自動標示說明,甚至應用在眼部疾病分析等,而未來Alphabet將會持續在人工智慧技術領域推動成長。 同時,Sergey Brin也透露未來Google旗下量子運算晶片的處理效能將比現有處理器更快,甚至快到無法想像。依照目前Google藉由客製化處理器TPU與人工智慧優化的伺服器運算表現,相比過往採用Intel Pentium II處理器的伺服器約能發揮100萬倍以上處理效能。 而對於人工智慧技術所產生影響,Sergey Brin也表示確實有可能帶來負面影響,因此Alphabet本身也必須思考此項技術成長背後所產生問題與責任,例如自動駕駛車輛帶來便利之餘,是否也可能產生全新交通問題,而人工智慧技術大量應用之下,是否可能造成更多工作機會減少,而在此情況之下,Alphabet應該做些什麼。 在進一步說明理,Sergey Brin強調將與人工智慧組織Partnership on AI強化合作,並且說明Alphabet未來將使人工智慧相關決策更容易被外界理解,同時也將強化機器學習不被外部惡意影響的相關研究,以及持續秉持本身在技術應用的道德原則。 不過,針對近期Google內部員工連署要求公司避免將技術提供政府機構應用在軍事相關領域,Sergey Brin並未具體說明未來Alphabet將如何處理,而就先前Google雲端事業資深副總Diane Greene表示,目前公司已經著手擬定一系列道德原則,藉此規範公司與政府機構合作過程時的相關技術使用,以及相關人權原則。

Google Cloud新功能 零售業、服務業無需專業技術即可輕易建構深度學習應用

Google Cloud新功能 零售業、服務業無需專業技術即可輕易建構深度學習應用

針對內容管理、消費通路、醫療照護或保險業務等應用需求,Google宣布在旗下雲端服務Google Cloud增加名為AutoML的應用項目,讓使用者即便不具備高超技術背景也能輕易建立學習模型,透過將資料上傳至Google Cloud服務內,即可透過Cloud Compute Engine資源逐一將資料分類,並且自動建立學習模型進行分析,藉此達成深度學習成效。 過去談到深度學習,幾乎就會令人聯想到複雜的電腦運算、難以理解的學習模型架構,而為了讓更多服務也能便利地取得深度學習技術應用資源,Google在旗下雲端服務Google Cloud內加入名為AutoML的應用項目,讓使用者能以更簡單方式建立學習模型,進而可將深度學習套用在旗下服務內容,例如Urban Outfitters、迪士尼、英國皇家學會 (ZSL)等在內零售通路、娛樂事業或研究機構都已與Google合作,並且在相當早期時間內藉由AutoML分析管理旗下資料內容。 根據Google說明,由於目前各類服務內容均以數據為重,如何在眾多資料中找出有用數據,同時如何落實管理旗下分散內容將成為發展重心,但因為培育專業技術人才對於許多內容管理、消費通路、醫療照護或保險業務機構並不容易,而此類資料委託外部單位處理也難免有隱私內容外洩等風險,因此藉由Google Cloud服務運算資源協助,透過AutoML應用項目讓這些單位能自行建構資料學習模型,進而可從眾多管理內容找出有價內容,藉此讓本身服務運作能具體成長。 以AutoML形式來看,使用者僅需將資料上傳至Google Cloud,並且透過AutoML應用項目將資料逐一分類且自動建立學習模型,系統便會透過Cloud Compute Engine、TPU運算等資源,以及Google Cloud Vision API等電腦視覺應用資源與TensorFlow學習框架進行深度學習,藉此達成數據分析或行為學習等目的,使得過往需要在眾多資料中挖掘有用資訊的應用服務變得更具效率。 相比先前基於Google Cloud的深度學習應用採以量計價方式使用,Google為了吸引更多人使用AutoML應用項目,現階段將採免費使用形式提供服務 (先決條件是必須租用Google Cloud服務),但未來是否將比照既有深度學習應用以量計費,目前還無法確定。 至於推出此項服務是否有利於新興國家市場如印度境內產業成長,就Google的看法認為確實有其可能性,但主要還是以不同產業服務內容為重,以Google Cloud本身是面向全球推廣服務項目來看,此次推出的AutoML應用項目其實對缺乏專業技術人才的服務內容均有顯著幫助,並且能提供客製化學習應用。 而對於AutoML項目是否也能應用在複雜運算的環境分析,或是自動駕駛學習,Google雲端人工智慧與機器學習首席科學家李飛飛在受訪時說明確實有其可能,但由於環境分析與自動駕駛等複雜運算項目必須有更高精準度,因此建議還是會使用更專門的學習模式,藉此確保學習成果的精確表現,避免造成意外。

第 1 至 2 頁 1 2

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.