在人工智慧技術應用持續擴展之下,OpenAI宣布成立以用戶心理健康與情緒福祉為中心的諮詢委員會,將由8名專精技術與心理健康領域交叉研究的學者專家組成,藉此確保其人工智慧技術發展能更重視用戶心理健康。
此項名為「福祉與人工智慧專家委員會」 (Council on Well-Being and AI)的諮詢機構中,部分成員過去曾協助OpenAI打造家長監護功能,而在近期多起青少年透過人工智慧聊天機器人透露自殺計畫,最終仍發生不幸事件,並且引發訴訟之後,人工智慧業者開始更重視安全與保護年輕用戶議題。
不過,雖然成立諮詢委員會聽起來是明智之舉,但實際成效仍取決於業者是否願意接納委員會提供建議。例如,Meta過去也曾建立類似諮詢委員會,但後續卻未實際採納其意見,因此OpenAI此次成立委員會是否會確實採納意見,目前還無法確認。
而從OpenAI說明中,更指出此委員會並無實際權力指導其業務運作,僅表示將持續向委員會、全球醫師網絡、政策制定者學習,藉此打造支持人們福祉的先進人工智慧系統,但強調本身仍對其決策負責。
因此,若後續OpenAI開始與委員會意見相左時,或許將能更明顯看出OpenAI是否認真看待此項事務,以及是否真正致力於減緩人工智慧所產生風險,或者僅是透過此委員會掩飾其面臨問題。
從OpenAI成立諮詢委員會作法來看,顯示人工智慧業者開始更重視其技術應用背後產生影響,尤其在心理健康與用戶福祉部分,但從委員會並無實際決策權力的情況來看,顯然此委員會僅只是諮詢性質,最終是否採納建議仍取決於OpenAI本身。
而從近期越來越多人工智慧技術應用產生負面影響,例如加劇心理健康問題,或是對年輕用戶產生不良影響,使得人工智慧業者必須設法對外說明其改善決心,但實際作為是否真能解決問題,可能還是要看後續具體措施。
但相比其他業者作法,OpenAI至少願意成立諮詢委員會,並且納入專業學者專家提供意見,或許能在人工智慧技術發展過程避開一些潛在問題,只是最終是否採納建議,依然會是成敗關鍵。