市場動態 生活 網路 軟體 頭條話題

OpenAI正式推出可混合輸入、增加圖像識別能力的全新GPT-4大型語言模型
預期將應用在微軟即將發表新形態工作應用服務

隨著Google表示在Workspace導入生成式人工智慧技術之後,OpenAI趕在微軟即將展開發表活動前,正式宣布推出全新GPT-4大型語言模型

GPT-4, OpenAI正式推出可混合輸入、增加圖像識別能力的全新GPT-4大型語言模型<br><span style='color:#848482;font-size:16px;'>預期將應用在微軟即將發表新形態工作應用服務</span>, mashdigi-科技、新品、趣聞、趨勢

相較先前推出的GPT-3.5主要針對文本內容進行理解與快速反應,OpenAI表示GPT-4將能針對圖像內容進行識別理解,並且進一步生成互動文本內容。同時,雖然在整體表現仍不比人類大腦,但在特定專業與學術理解已經能趕上人類理解能力。

除了先前的文本內容理解與此次增加圖像內容識別理解功能,新版GPT-4模型更強化多模輸入設計,將能進一步識別使用者輸入的混合內容,例如自然語言陳述內容、編碼內容,或是輸入文件內所包含圖像、截圖內容,都能藉由新版GPT-4模型分析,並且做出相關反應結果。

此外,新版GPT-4模型將能透過調整自訂回應風格,藉此讓自動生成內容更具獨特性,或是符合使用需求。

OpenAI更強調,新版GPT-4模型將更為真實、可靠,同時也能維持完整可控制性,避免造成嚴重影響。相比先前推出的大型語言模型,新版GPT-4模型在「一本正經」描述錯誤事實的情況將減少40%,而對比GPT-3.5更在「不應該回覆內容」 (例如詳細講解犯罪手法)比例大幅降低82%,避免產生更大危害影響。

雖然OpenAI表示已經藉由50名網路安全等專業領域專家,針對新版GPT-4模型進行對抗性測試,藉此協助降低新版模型給出錯誤解答情形,但強調整體來看仍有可能出錯,因此OpenAI強調使用新版GPT-4模型仍需格外小心,尤其透過此模型自動生成涉及敏感、需要高度正確內容時,仍應仔細透過人為審核、比對前後陳述內容是否有誤等情況。

如果沒意外的話,微軟接下來預計發表新形態工作模式,其背後就會導入新版GPT-4大型語言模型技術。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響