LINE:藉由機器學習方式防堵垃圾訊息之餘,與使用者合作依然重要

由LINE與Intertrust共同舉辦第三屆資安高峰會裡,除了由LINE說明如何藉由深度學習方式揪舉垃圾訊息,同時也由多名講者分享目前常見藉由深度學習等人工智慧技術應用的攻擊破解情況。

根據LINE的說明,傳統防堵垃圾訊息的常見方式,包含設置過濾條件、封鎖特定IP,或是限制特定帳號發言等,但在越來越多自動化運算模式,以及IP可偽造變換等情況下,傳統防堵方式幾乎可說是不敷使用,因此現階段也會藉由機器學習方式進行更有效率防堵。

不過,由於目前的攻擊手法也開始導入深度學習等人工智慧技術,使得包含LINE內網路服務平台對於線上攻防變得更具挑戰。

以LINE的立場,雖然同樣能藉由人工智慧學習方式分析主要攻擊模式,進而達成對抗、防堵效果,但深度學習效果仍取決於實際分析資料「品質」,讓系統能更容易識別實際攻擊行為,而不會產生誤判。但如何取得有用的學習資料,對LINE而言勢必面臨更大挑戰,畢竟取用這些資料可能涉及侵害用戶隱私權益,從LINE的角度不太可能基於為了讓防堵機制分析學習效果更好,進而藉由用戶互動、對話內容讓系統分析學習。

因此除了藉由現有資源讓系統分析學習之外,LINE也會配合各地區用戶揪舉內容強化系統判斷能力,並且與不停成長、變化的攻擊模式維持長期的拉鋸戰。就LINE的立場來看,要維持服務平台穩健成長,除了持續投入技術資源維護之外,更重要的是必須與用戶溝通,並且藉由持續互動達成更好防護效果。

而就現階段的電腦視覺分析應用,除了針對文字內容比對識別之外,包含圖像內容的分析應用也成為重要方法,只是在特定情況依然必須配合大量人力揪舉才能達成防堵造果,例如兩張圖像可能對人眼觀看結果都是「熊貓」,但若在其中一張內容加入雜訊進行干擾,使電腦對於圖像內容的判斷結果截然不同,目前有不少垃圾訊息就是透過此類方式避開檢查機制,即便系統端能透過各類機制進行過濾,但仍會有漏網之魚,因此與使用者之間的揪舉合作便顯得更加重要。

LINE方面表示,由於使用者行為模式相對無形,因此讓行為標示變得更加困難,而許多電腦分析學習結果仍需要透過人為方式「校正」,即使目前能透過長期學習、使用者回報等方式進行最佳化,使得揪舉錯誤率可達0.01%以下,但隨著全新型態的垃圾訊息推送方式,或是假帳號運作行為持續改變,LINE依然需要與眾多使用者合作,透過手動揪舉方式標示全新攻擊行為,藉此提昇垃圾訊息防堵效率。

發表迴響