Tag: computer vision

三星針對機器人、混合實境等電腦視覺技術應用推出兩款全感光元件

三星針對機器人、混合實境等電腦視覺技術應用推出兩款全感光元件

三星稍早宣布推出兩款針對機器人、混合實境等電腦視覺技術應用的感光元件,分別是支援ToF測距功能的ISOCELL Vizion 63D,以及對應全局快門功能的ISOCELL Vizion 931,並且已經向合作夥伴提供樣品進行測試。 ISOCELL Vizion 63D標榜在感測元件端整合硬體級別的ToF測距功能,藉此讓相關功能應用時可大幅縮減內部佔用空間,同時也能降低高達40%電力損耗,並且支援解析度達320 x 480、60fps規格的影像訊號,本身佔用面積為1/6.4吋,更透過背面散射技術設計強化感測元件實際對應測距長度,進而可在機器人電腦視覺,或是其他裝置測距應用設計。 而ISOCELL Vizion 931則是對應1:1顯示比例的VGA解析度,主要透過全局快門功能滿足更快、更完整的電腦視覺應用功能設計需求,例如用於機器人電腦視覺判斷,或是監控系統臉部識別、手勢操作判斷,甚至用於虛擬視覺頭戴裝置的眼球追蹤判斷,本身更支援最多可同時串接4組感光元件,藉此增加電腦視覺判斷應用效果。 三星預期持續強化其感光元件業務佈局,並且擴展電腦視覺應用市場發展。

FIA將於F1賽事導入電腦視覺技術,透過人工智慧協助審查車手是否出現違規行為

FIA將於F1賽事導入電腦視覺技術,透過人工智慧協助審查車手是否出現違規行為

國際汽車聯盟 (FIA)宣布,將在接下來的阿布達比F1賽事導入電腦視覺技術,藉由人工智慧技術協助釐清車手在挑戰單圈最快紀錄時,是否有壓線等違規行為出現。 過往作法裡,主辦單位通常必須透過人力審查方式確認車手在賽事過程是否有潛在違規行為,例如判斷是否壓到賽道白線,藉此評估是否需要罰停秒數等。但由於賽道上的情況通常很複雜,有的時候可能是因為對手逼車,而非車手故意違規,因此需要花費不少人力與時間釐清車手是否刻意違規。 而為了避免人力審核造成判斷上的落差,國際汽車聯盟表示將從接下來的阿布達比F1賽事導入人工智慧技術,透過電腦視覺方式協助釐清車手是否有違規情形,同時也能避免過往人力審核可能因為太多細節影響判斷結果,導致最終裁定引發爭議。 不過,國際汽車聯盟強調如同透過電腦視覺方式檢驗患者是否罹患癌症的作法,是透過人工智慧方式過濾多達80%非癌症的情況,剩餘20%才是透過專業醫療人員判斷是否罹癌,預計接下來賽事可從先前單場賽事約有1200個疑似違規行為數量,大幅降低至僅有50個,主要剔除明顯不需要人力審查的違規行為,剩餘情況再由專業人員進行判斷。 至於在未來的發展規劃中,國際汽車聯盟期望能藉由人工智慧技術實現賽事違規行為自動化檢查的目標,藉此讓賽事能以更有效率形式進行,同時也能在審查結果大幅降低爭議。

DJI進軍智慧駕駛系統市場,將無人機技術帶到車輛上使用

DJI進軍智慧駕駛系統市場,將無人機技術帶到車輛上使用

過去持續在無人機與穩定器相關技術佈局的DJI,稍早確認以DJI車載品牌進軍智慧駕駛系統市場,其中包含核心零件研發生產,以及後續銷售服務。 目前DJI並未透露具體產品細節,但預期會與電腦視覺應用在自動駕駛,以及車輛行駛輔助技術有關。在此之前,DJI已經投資LiDAR光達元件供應商Livox,顯然也與本身進軍智慧駕駛系統市場佈局有關。 而首波確定與DJI車載合作業者,將包含福斯中國,同時也預期包含更多中國品牌電動車也將導入DJI車載提供技術。福斯中國預期藉由DJI車載技術導入可對應各種道路行駛的自動駕駛技術,以及輔助駕駛技術,未來也將藉由中國市場成功經驗,將相關合作應用帶到福斯歐洲等市場,並且讓相關技術套用在所有市售車款。 DJI表示相關細節將會在4月19日於上海車展中公布,從本身過去應用在無人機等技術來看,顯然DJI認為將能廣泛應用在車輛自動駕駛功能。

富士康藉電腦視覺加速代工產線運作效率,未來目標實現全自動化應用

富士康藉電腦視覺加速代工產線運作效率,未來目標實現全自動化應用

在此次GTC 2019期間,富士康 (Foxconn)實際展示旗下將電腦視覺技術應用在產線,讓產品生產檢測更具效率,同時也能提昇產品整體生產速度的解決方案,強調整體檢驗精準度可達98%以上,同時更可讓檢測所需人力從原本400人左右精簡至2-3人即可完成。 富士康目前應用在武漢產線的人工智慧檢測系統 富士康這套檢驗系統目前主要應用在中國境內武漢生產線,主要希望改善傳統必須透過大量人力進行檢驗,同時透過人工檢驗往往在一段時間後,可能因為視覺疲勞等因素造成檢驗精度下降,反而讓產品生產良率下降。而另一方面,則自然包含人力成本、資源最佳化利用,以及提生產線效能等考量,因此希望藉由人工智慧技術導入提昇生產效率。 此次在GTC 2019期間展示的解決方案主要用於產品外觀等細節檢測,富士康表示在其他生產過程其實也會有不同技術應用導入,甚至可以藉由自動化應用串接不同生產流程,讓整體產線可以實現透過少數人力管理即可全自動化運作,並且讓產線系統可依照檢測結果自動校正生產誤差情況。 而在檢測系統設計中,富士康說明依照不同檢測需求,在一般簡單外觀判斷其實使用Jetson系統效能就能實現,但在此次展示的主機殼側板檢測流程因為包含外觀瑕疵、金屬板邊緣凹折弧度是否符合要求等項目,因此採用的是Tesla T4 GPU組成系統,搭配多組鏡頭進行電腦視覺辨識,藉此實現辨識精度可達98%以上,並且超越人眼視覺所及檢視細節,讓整個檢測系統可以完成過往必須花費400人左右進行檢測的工作流程,甚至目標希望能使單次可完成800組物件檢測數量提高至1200組。 在學習訓練方面,富士康會預先透過瑕疵範例圖像讓系統進行前期訓練,爾後套用在新零件的辨識學習所需時間基本上只需花費3天即可完成,同時隨著持續學習累積經驗,理論上也能讓相似零件的辨識學習時間縮減,但為了維持一定辨識精度,基本上還是會以3天學習訓練時間長度為主。 此項辨識系統除了應用在富士康武漢生產線,未來也有可能應用在其他產線,甚至可能應用在零件相對簡單、複雜度比較不高的生產零件檢測。 這樣的情況,其實也說明雖然電腦視覺等人工智慧技術應用,似乎已經可以取代部分傳統人力需求,但諸如手機等相對複雜的零件檢測,現階段可能還是會仰賴人工檢測居多,其中因素可能包含現行檢測系統辨識精度,以及整體建置成本與傳統人力成本比較。 不過,依照富士康未來發展目標希望走向全自動化產線運作模式,顯然接下來也會持續藉由電腦視覺等人工智慧技術導入,讓產線運作成本能更進一步精簡。 除了富士康,其實現在已經有越來越多產線、工廠、農場都已經開始導入電腦視覺應用等人工智慧技術,例如亞馬遜很早之前就已經開始導入機器人協助揀貨、分貨,而不少現代化農場也開始透過電腦視覺技術判斷農作物良率,意味傳統單純僅以人力完成的工作,逐漸可由電腦系統取代,但在需要人腦做進一步判斷,以及更精準操作的工作方面,傳統人力依然會有其不可取代性。 傳統產線檢測需要透過大量人力,以肉眼方式進行檢測,但可能會有疲勞等因素影響檢測精度 精簡地來說,富士康此套檢測系統就是藉由多組鏡頭捕捉影像資訊,並且透過Jetson AGX或Tesla T4進行電腦視覺學習加速,讓系統能針對實際拍攝影像比對生產零件是否符合規定 檢測系統內部結構 預先透過瑕疵範例圖像讓系統進行深度學習 透過多組鏡頭進行拍攝 實際運作流程 通常單一零件會針對外觀塗裝瑕疵、外型凹折弧度等是否符合規範,並且透過前期學習讓系統建立基礎判斷模型 電腦檢測系統會透過鏡頭、GPU元件協助學習加速

Intel將Movidius電腦視覺技術用於RealSense鏡頭 強化機器人環境認知能力

Intel將Movidius電腦視覺技術用於RealSense鏡頭 強化機器人環境認知能力

Intel稍早宣布推出新款RealSense鏡頭模組,其中提供可在沒有GPS定位輔助情況下,即可讓機器人具備空間定位功能,讓機器人可以在沒有其他輔助就能確定鄰近可行走區塊,甚至可讓飛行載具透過自主感知避開建築物。 過去讓機器人可在特定區塊內安全行走,多半需要配合GPS定位告知機器人安全行走區塊,或是配合外部定位輔助之下,讓機器人能知曉哪些區塊應該主動避開,而在Intel此次推出的RealSense Tracking Camera T265鏡頭模組中,僅需透過1.5W功率即可驅動,並且透過USB與機器人載具連接運作,藉由Movidius Myriad 2 VPU以電腦視覺形式進行物件識別,讓機器人可能更快自主認知鄰近環境,並且確認哪些區塊可以正常行走,哪些區塊應該自動閃避。 而這樣的設計,預期將能讓更多機器人產品可更「聰明」自動行走,並且能進一步應用在無人機產品,讓無人機在高速飛行過程可以自主閃避可能造成危險的障礙物,藉此在使用者操作過程無法留意情況避免無人機因意外碰撞造成損傷。 目前RealSense Tracking Camera T265鏡頭模組預計在2月28日推出,建議售價為199美元,同樣是針對產品開發設計使用需求打造,藉此推動更多機器人應用想法。

Intel OpenVINO將使物聯網裝置更容易整合電腦視覺運算能力

Intel OpenVINO將使物聯網裝置更容易整合電腦視覺運算能力

針對物聯網發展趨勢帶動的端點運算應用成長,Intel宣布推出名為OpenVINO的開發工具組,讓設計者能使端點運算裝置獲得開放架構的視覺分析能力,並且銜接基於端點軟硬體,或是雲端的深度學習效果,讓物聯網裝置能透過電腦視覺分析判斷結果,進而對應特定處理模式,例如在眾多車流中發現特定超速車輛,系統即可自動追蹤其動態,同時快速從監理資料獲取該車輛具體資訊,進而完成違規超速通報,讓警方等執法單位進行攔撿、開立罰單等處理流程。 如同Qualcomm、亞馬遜及微軟均針對物聯網裝置強化電腦視覺應用與端點運算能力,Intel所推行的OpenVINO開發工具組同樣也是結合其處理器、FPGA架構、視覺處理器VPU等硬體運算模式,搭配開放電腦視覺與影像處理工具OpenCV、電腦視覺API標準OpenVX,以及Intel旗下深度學習編譯器nGraph,或是市場主流學習框架TensorFlow、MXNet、Caffe等,藉此快速將電腦視覺應用套用在物聯網設備。 根據Intel的說法,由於電腦視覺將成為物聯網應用技術重要環節,例如使監控系統與影像識別分析結合,即可讓系統更快發現環境異常情況,進而快速執行後續處理流程,在過程中無需透過人力介入處理,另外也能讓機器人有更完整電腦視覺能力,例如讓送餐機器人能自動分析前進路線,進而順利將餐點送達指定地點。 未來OpenVINO開發工具組將可套用在企業、零售、醫療或能源探勘等領域,目前合作應用夥伴包含Dahua、奇異電器、AgentVi、AWS、Dell與Honeywell等品牌,未來也計畫讓OpenVINO進入更多市場應用。 除了Intel,先前微軟也已經提出Azure IoT Edge端點運算服務,而亞馬遜除了提出Lambda@Edge、AWS Greengrass,以及AWS Snowball Edge等運算服務,更有意藉由客製化人工智慧晶片讓物聯網裝置有更具體的端點運算能力。

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.