去年Google宣布將與暴雪娛樂攜手以《星海爭霸II》作為人工智慧系統「AlphaGo」學習內容後,暴雪娛樂稍早釋出相關API內容,讓包含Google在內開發者能將旗下人工智慧系統與《星海爭霸II》遊戲內容銜接,藉此進行遊戲內容遊玩操作訓練,讓人工智慧系統能透過遊戲遊玩模擬學習人腦思考模式。
而另一方面,Google人工智慧團隊DeepMind日前除了讓人工智慧系統能記取先前學習經驗,並且持續從錯誤中學習之後,更希望能透過模擬人腦休息情況,讓人工智慧系統能有更好運算發揮效果。
聽起來似乎點微妙,畢竟傳統印象中的人工智慧系統並不需要「休息」即可進行不中斷運算,但此次DeepMind團隊所提出論點,則是基於先前希望讓人工智慧系統能記取過往學習經驗,進而可在下一次學習或運算過程以更短時間發揮執行成效的基礎,使得人工智慧系統即使處於休眠、離線狀態,依然可藉由現有儲存數據持續進行「學習」。
這樣的作法,其實是模擬人腦在持續學習過程必須有一些時間進行「消耗」、「吸收」,否則可能會在學習過程產生誤差,進而導致更大錯誤產生。因此DeepMind團隊並非實際讓人工智慧系統運算電腦真的進入休息狀態,而是改變演算流程,讓電腦系統可在學習新知之餘,持續進行「複習」,進而累積更多學習經驗。
從另一方面來看,這樣的學習模式也能應用在不同裝置設備,例如今年在Google I/O 2017針對手機等行動裝置提出的TensorFlow Lite,基本上就能透過全新運算模式讓手機持續學習使用者行為,藉此讓手機能以更少電力發揮最大運算效益。
而在稍早宣布消息裡,暴雪娛樂已經正式開放《星海爭霸II》API內容,將可讓Google在內開發者藉此資源持續訓練人工智慧系統,透過複雜、快速的遊戲進行速度,讓人工智慧系統能學習人腦快速思考、快速操作的反應模式,對於整體人工智慧系統運算效率提昇將有一定幫助。