展覽 市場動態 生活 網路 蘋果

蘋果提出ReALM人工智慧模型,標榜8億組參數即可對應前後文理解、圖像識別能力
並且能加快服務反應效率

蘋果研究人員提出名為ReALM的人工智慧模型,標榜僅需8億組參數即可對應理解前後文關係,藉此讓Siri數位助理服務更容易了解使用者實際需求,並且加快服務反應效率。

人工智慧, 蘋果提出ReALM人工智慧模型,標榜8億組參數即可對應前後文理解、圖像識別能力<br><span style='color:#848482;font-size:16px;'>並且能加快服務反應效率</span>, mashdigi-科技、新品、趣聞、趨勢

在此之前,蘋果執行長Tim Cook已經透露將在今年擴大人工智慧技術應用發展,因此不少人猜測iOS 18作業系統更新將會加入更多人工智慧技術,同時也可能讓Siri數位助理服務變得更「聰明」。

而在Google等業者接連提出大型自然語言模型,甚至可在裝置端執行各類人工智慧推論及自動生成功能,蘋果近期也提出許多自有大型語言模型與人工智慧技術論文,預期將應用在接下來即將推出作業系統或軟硬體產品。

此次由蘋果研究人員提出的ReALM人工智慧模型,將能藉由8億組參數規模理解前後文關係,並且加快反應效率。另外,由於使用參數相對較少,因此適合應用在諸如手機般的終端裝置,並且可在運作時不影響裝置效能。

另外,ReALM人工智慧模型也能用於理解圖像中的文字內容,諸如電話號碼或食譜資訊,因此形式上將能與OpenAI的GPT-4模型抗衡,藉此在當前人工智慧技術競爭與Google、微軟、OpenAI、亞馬遜等業者抗衡。

目前暫時無法確認蘋果是否會將ReALM人工智慧模型實際用於旗下產品,但蘋果先前已經多次暗示將在今年推出產品導入更多人工智慧技術,藉此提升產品使用體驗,因此預期今年WWDC 2024期間將會有更進一步說明。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業學習者。

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料