為了讓AI進入擁有數十億用戶的WhatsApp,Meta不惜砸下重本。除了採購數百萬顆NVIDIA GPU,更將透過「機密運算」技術,解決AI助理與端對端加密之間的隱私難題。
Meta稍早宣佈一項與NVIDIA的長期合作協議,計畫採購「數百萬顆」NVIDIA最新的Blackwell與Rubin顯示架構GPU。這筆交易最引人注目的不僅僅是硬體採購規模,而是Meta打算如何運用這些算力——特別是在其通訊軟體WhatsApp上。
根據報導,Meta將在WhatsApp中正式佈署NVIDIA的「機密運算」 (Confidential Computing)技術,將讓WhatsApp具備強大的AI功能 (如AI客服、助理或生成式回應),同時確保用戶數據的機密性與完整性不會因此妥協。
WhatsApp的AI隱私解決方案:運算中也能加密
WhatsApp向來以端對端加密 (End-to-End Encryption, E2EE)為賣點,結果讓導入伺服器端的AI功能變得相當棘手——因為AI通常需要「看到」你的訊息才能進行處理。
NVIDIA的機密運算技術提供相應解決方案,能保護數據在「運算過程中」 (during computation)的安全,而不僅僅是在傳輸或儲存時。意味當WhatsApp的AI處理訊息時,數據將處於一個隔離的硬體環境 (Trusted Execution Environment)中運行,即便是Meta或是雲端供應商也無法窺探其中的內容。
而NVIDIA在官方部落格中指出,這項技術不僅保護用戶隱私,還能保護軟體開發者 (如Meta或第三方AI代理供應商)的智慧財產權 (Intellectual Property),防止其模型參數或邏輯外洩。
首家採用「獨立」Grace CPU進行推論
除了GPU,Meta在基礎設施的架構上也做出了大膽嘗試。
Meta將成為全球首家以「獨立方式」 (Standalone Way)佈署NVIDIA Grace CPU的科技業者。
通常Grace CPU是與Hopper、Blackwell GPU綁定在一起 (如GH200、GB200)運作,但Meta選擇將其單獨使用,專門用於處理推論 (Inference)與代理工作負載 (Agentic Workloads)。
這也凸顯Meta正在針對不同類型的AI任務進行算力分流:GPU負責訓練與重度運算,CPU負責邏輯推論與代理執行。此外,Meta也將採用NVIDIA的Spectrum-X乙太網路交換器,藉此滿足龐大AI叢集的高速傳輸需求。
2026年AI支出上看1350億美元
這項合作案的背景,是Meta驚人的資本支出計畫。Meta今年稍早宣佈,預計在2026年投入高達1350億美元於AI發展。分析師預估,這筆資金中有「數百億美元」將流入NVIDIA的口袋。
為了支撐這些算力,Meta計劃在2028年前建設多達30座的新資料中心,其中26座將位於美國本土。這是一項總投資額高達6000億美元的長期基礎設施承諾。
分析觀點
Meta這步棋,其實是在解決「AI落地」 最大的痛點:信任。
對於像WhatsApp這種以私密通訊為核心的產品,如果要加入類似ChatGPT的功能,勢必會打破「只有你和接收者看得到訊息」的承諾。
透過NVIDIA的機密運算,Meta試圖在「雲端AI的強大能力 與「本地端的隱私安全」之間找到平衡點。如果這套模式成功,將為其他強調隱私的服務 (如醫療、金融 AI)立下標竿。
另一方面,Meta採購大量獨立Grace CPU,暗示未來的AI應用將不再只是單純的「生成文字或圖片」,而是會有更多「AI Agent」 (AI代理人)的應用——它們需要處理複雜的邏輯判斷、流程控制與長期記憶,而這些任務用專門設計的CPU來跑,可能在成本與能效上比GPU更划算。


