人工智慧助力 NVIDIA讓一般影片隨時可轉為480fps慢動作表現

先前藉由人工智慧技術讓電腦系統能針對影像殘缺部位進行完美修補之後,NVIDIA稍早再與麻薩諸塞州州立大學及加州大學合作,藉由深度學習、插入影像補正等方式,讓一般影片內容可以透過運算方式轉換為480fps慢動作影片。

目前越來越多智慧型手機強調240fps以上的慢動作錄影功能之後,顯然有不少生活影片分享內容開始藉由慢動作形式呈現,但並非所有慢動作影片都能恰好在對的時間被捕捉拍攝,因此為了影片詮釋效果,多少還是必須配合軟體運算後製而成。

而針對此類需求,NVIDIA與麻薩諸塞州州立大學及加州大學合作項目,則是運用Tesla V100 GPU與基於cuDNN神經網絡的PyTorch深度學習框架,以及配合卷積式神經網絡運算結構,讓電腦系統分析超過1萬組以上的240fps慢動作影片,藉此學習慢動作影像表現方式,讓電腦系統能自行學會如何將一般24fps-30fps的影片內容轉換成高達480fps的慢動作影片,藉此對應各類影片特效製作。

這樣的技術,搭配先前同樣藉由深度學習運算的影像修補,或是影像物件抹除效果,將使未來影片剪輯變得更加方便,同時整體運算補正效果也幾乎貼近自然,除非原本參考範本就有一定瑕疵,否則幾乎難以辨識是否透過電腦運算處理。

發表迴響

%d 位部落客按了讚: