Meta Platforms計劃Q4推出自研AI ASIC芯片MTIA T-V1
發布時間:2025-6-18 09:11
發布者:eechina
全球科技巨頭Meta Platforms(原Facebook)今日宣布,其與博通(Broadcom)聯合開發的下一代AI專用集成電路(ASIC)芯片MTIA T-V1已進入量產倒計時,預計最早于2025年第四季度正式推出。該芯片采用高規格36層PCB主板與混合冷卻技術,規格被業界認為將超越英偉達下一代AI GPU“Rubin”,標志著Meta在AI硬件自研領域邁出關鍵一步。 技術突破:高密度計算與能效比雙提升 據供應鏈消息,MTIA T-V1基于臺積電先進制程打造,集成多項創新技術: 混合冷卻架構:采用液冷與空冷結合的散熱方案,支持高功率密度運行,滿足數據中心大規模部署需求。 高帶寬內存與互連:內存帶寬較前代提升一倍以上,支持多芯片互連,可擴展至128GB HBM3e內存,峰值帶寬達3.7TB/s(接近英偉達H100水平)。 低延遲推理優化:針對Meta內容推薦、廣告排名等核心AI工作負載進行深度優化,延遲較GPU降低30%-40%。 分析師指出,MTIA T-V1的能效比(每瓦性能)較英偉達Rubin GPU提升約20%,尤其在處理中低復雜度AI模型時優勢顯著。Meta基礎設施副總裁Santosh Janardhan表示:“MTIA T-V1是Meta定制化AI硬件戰略的核心,它將與GPU形成互補,為不同工作負載提供最佳解決方案! 量產計劃:2025年底至2026年出貨百萬級 Meta計劃在2025年底至2026年間分階段推出多款MTIA系列芯片: 2025年Q4:MTIA T-V1量產,由Celestica、Quanta等廠商負責組裝,預計出貨量達30萬至40萬片。 2026年中期:推出MTIA T-V1.5,芯片面積翻倍,計算密度接近英偉達GB200系統,出貨量目標提升至50萬至80萬片。 2027年:發布MTIA T-V2,采用更大規模CoWoS封裝與170KW高功率機架設計,劍指萬億參數模型訓練。 供應鏈調研顯示,Meta已與臺積電簽訂長期產能協議,但受CoWoS封裝產能限制(2025年僅30萬至40萬片),實際出貨量可能低于目標。此外,大尺寸CoWoS封裝技術挑戰與系統調試周期(需6-9個月)亦增加不確定性。 市場影響:ASIC陣營崛起,英偉達護城河受挑戰 隨著Meta、谷歌、亞馬遜等云服務商加速自研ASIC芯片,AI服務器市場格局正發生深刻變化: 出貨量對比:2025年,谷歌TPU出貨量預計達150萬至200萬片,亞馬遜AWS Trainium 2約140萬至150萬片,而英偉達AI GPU供應量為500萬至600萬片。ASIC陣營合計出貨量已達英偉達的40%-60%。 成本優勢:ASIC芯片在特定工作負載下能效比顯著高于GPU,長期來看可降低云服務商的運營成本。以Meta為例,其數據中心AI算力成本有望通過MTIA系列芯片降低25%-30%。 生態挑戰:英偉達憑借CUDA生態系統與NVLink互連技術仍占據主導地位,但Meta已通過PyTorch深度集成與開放硬件設計吸引開發者。 行業展望:AI芯片競爭進入“定制化”時代 Meta的MTIA項目是科技巨頭“去英偉達化”浪潮的縮影。谷歌、亞馬遜、微軟等企業均已推出自研AI芯片,并通過開源軟件與硬件協同設計構建生態壁壘。市場研究機構TrendForce預測,到2026年,ASIC在AI服務器市場的價值占比將從目前的8%-11%提升至20%-25%,出貨量有望超越英偉達GPU。 |
網友評論