微軟近期在 AI 基礎建設上再下一城。執行長薩提亞·納德拉宣布,首批自家研發的 AI 晶片「Maia 200」已正式在資料中心啟用。儘管這款新晶片展現了極強的效能優勢,但納德拉強調,微軟仍會持續維持與 NVIDIA、AMD 的緊密合作,不斷採購其高效能晶片,以應對日益成長的 AI 算力需求。
效能怪獸登場:FP4 算力狠甩 AWS,強壓 Google TPU
這款代號為 Maia 200 的晶片是微軟迄今為止最強大的 AI 加速器,由台積電 3 奈米製程助陣,內部封裝了超過 1,400 億個電晶體。微軟將其定位為「AI 推論動力引擎」,專門針對生成式 AI 與大型模型(如 GPT-5.2)的上線推論情境進行極致最佳化。
根據微軟公布的測試數據,Maia 200 在關鍵的 FP4 運算效能上,足足是亞馬遜 AWS 最新 Trainium 晶片的三倍,同時在 FP8 效能上也超越了 Google 最新一代的張量處理器(TPU)v7。這讓微軟在雲端服務商自研晶片的競賽中,暫時取得領先地位。
不跟 NVIDIA 說掰掰!納德拉:垂直整合不等於鎖國
即便手握高效能自研晶片,納德拉在接受採訪時的語氣依然十分圓融。他表示,微軟與 NVIDIA、AMD 的合作夥伴關係「非常棒」,且雙方都在各自的領域推動創新。
納德拉指出,雖然微軟現在具備垂直整合能力,能從軟體、硬體到模型進行端到端優化,但這不代表公司會完全依賴自家技術。他直言,市場上熱衷於討論「誰領先」是一時的,微軟的戰略是建立多元化的硬體組合,確保在長期的 AI 競賽中始終保持領先優勢。這番話也被解讀為是在向 NVIDIA 執行長黃仁勳遞橄欖枝,安撫供應商對其「去 NVIDIA 化」的疑慮。
「超級智慧」團隊先行:未來或減少對 OpenAI 依賴?
這批 Maia 200 晶片的首要任務,是支援微軟內部的「超級智慧」(Superintelligence)團隊。該團隊由前 Google DeepMind 共同創辦人穆斯塔法·蘇萊曼領軍,負責開發微軟下一代的頂尖模型。蘇萊曼也在社群平台 X 上表示,他的團隊將率先使用 Maia 200 來打造邊界模型。
外界普遍認為,微軟大力投入自研晶片與自有模型研發,除了為了節省採購成本(Maia 200 宣稱性價比提升 30%)外,更深層的戰略意義在於減少對 OpenAI 或 Anthropic 等第三方模型供應商的過度依賴,提升自己在 AI 時代的自主權。
雖然目前 Maia 200 優先供內部使用,但微軟也計畫逐步將其部署至全球更多 Azure 資料中心。未來,雲端客戶在執行 OpenAI 的最新模型或微軟 Copilot 時,將能選擇使用 Maia 200 提供的算力資源,在效能與成本之間取得更好的平衡。
- 延伸閱讀:郭明錤剖析特斯拉為何選擇三星打造2奈米AI晶片:馬斯克要的是一場台積電不可能答應的合作模式
- 延伸閱讀:AI晶片需求旺盛!輝達市值突破4兆美元,黃仁勳成全球十大富豪
- 延伸閱讀:蘋果、Google猛將齊聚!英特爾組AI晶片「復仇者聯盟」力拼NVIDIA

