在AI技術快速發展的浪潮中,一股反思的力量正在集結。包括蘋果共同創辦人、有「科技頑童」稱號的Steve Wozniak,以及包含英國哈利王子在內800多位各界名人,近日聯署聲明要求禁止可能導致「超級智慧」的AI研究,直到科學界能證明其發展「安全且可控」。
跨領域的憂慮共識
這份由未來生命研究所 (Future of Life Institute)發起的聲明,獲得來自不同領域和政治光譜的知名人士支持,連署者包括AI研究先驅、諾貝爾獎得主Geoffrey Hinton,以及前川普顧問Steve Bannon、前美軍參謀長聯席會議主席Mike Mullen、音樂人Will.i.am,另外也包含英國哈利王子、蘋果共同創辦人Steve Wozniak等人。
而這種跨界的聯合署名,更凸顯對AI發展的擔憂已超越傳統黨派和專業界限。
AI companies are racing to build superintelligent AI, despite its many risks.
Let's take our future back.
📝 Sign the Superintelligence Statement and join the growing call to ban the reckless development of superintelligence, until it can be made safely.#KeepTheFutureHuman pic.twitter.com/Hx8WBC1byI
— Future of Life Institute (@FLI_org) October 22, 2025
發展速度與監管落差的危機
未來生命研究所執行主任Anthony Aguirre向NBC新聞指出:「在某種程度上,這條道路是由AI公司、創辦人和驅動它們的經濟系統為我們選擇的,但幾乎沒有人問過其他人:『這是我們想要的嗎?』」
該機構警告,AI的發展速度已超出公眾理解能力,監管措施遠遠跟不上技術進步的腳步。
從AGI到超級智慧的爭議
人工通用智慧 (AGI)是指機器能像人類一樣推理和執行任務的能力,而超級智慧則意味著AI甚至能超越人類專家。儘管Meta執行長Mark Zuckberg柏宣稱超級智慧「近在眼前」,「X」執行長Elon Musk表示它「正在實時發生」,但現有AI仍僅能處理有限任務,甚至在自動駕駛等複雜應用場景中屢屢受挫。
業界領袖缺席與不同聲音
值得注意的是,這些大力推動AI發展的科技巨頭領導人,以及他們公司的重要人物,均未參與此次連署。OpenAI執行長Sam Altman曾預測最晚在2030年實現超級智能,但同時也對其潛在風險提出警告。
這並非首次對AI發展速度的警示。上月已有包括10位諾貝爾獎得主在內的200多位研究人員和公職人員發布緊急呼籲,要求為AI風險劃定「紅線」,不過他們關注的是已開始顯現的危機,如大規模失業、氣候變遷和人權侵害等問題。
隨著AI投資持續火熱,例如OpenAI等公司正投入數十億美元建設資料中心,Meta也積極投入發展「超級智慧」,這場關於科技發展與倫理平衡的辯論,將持續塑造人類的未來。