在此次Google I/O 2024中,人工智慧服務Gemini自然成為Google更新重點,除了說明目前推出的Gemini 1.5 Pro已經可對應100萬組詞元 (tokens),更吸引超過150萬名開發者使用Gemini服務,同時更將Gemini功能整合至Google多款超過20億人使用服務,並且分別進駐Android與iOS平台,藉此吸引更多人使用。
而此次宣布新增的Gemini 1.5 Flash模型,同樣可對應生成、摘要、互動,或是從大型文件、表格分析資料,相較Pro版本能以更輕快形式運作,一樣也能對應多模形式運作,另外也對應100萬組詞元輸入,分別可分析長達1500頁的文件,或是超過3萬行的程式編碼,另外也能分析長達1小時的影片,但功能上基本可視為Gemini 1.5 Pro的簡化版本。
目前Gemini 1.5 Flash模型將透過Google AI Studio或Google Cloud Vertax AI平台提供,主要讓開發者能以反應更快、收費相對更低形式導入Gemini人工智慧技術,而Gemini 1.5 Pro則依然對應更具運算效能、功能更完整的表現,但相對收費也較高。
在此次更新中,Google也宣布將使Gemini 1.5 Pro可對應200萬組詞元輸入,並且能處理超過140萬字的文件、、超過6萬行的程式編碼,以及長達2小時影片內容,預計會在今年底之前升級。
另外,Google也預告將在今年使Gemini以數位助理形式進駐Android手機,並且以Gemini Live為稱,將讓使用者能隨時透過手機呼叫Gemini服務。至於這次公布的Gems功能,則是可自行建立不同人工智慧應用功能,預計會在今年夏季對外提供使用。
同時,Google也宣布將開源使用的Gemma模型做了升級,將推出可識別圖像內容的PaliGemma模型,同時也宣布推出可對應270億組參數的Gemma 2,本身則是針對TPU、GPU加速最佳化,並且能輸出2倍高的模型運行效能。