玩轉 AI 機器人的新境界 – Now and Future
|

地緣政治推動AI晶片自主浪潮 中美雲端巨頭齊拚自研ASIC

   

根據TrendForce最新研究,AI server需求帶動北美四大CSP加速自研ASIC晶片,平均1~2年就會推出升級版本。而中國市場受美國新晶片出口管制影響與政府政策支持,預期自研AI server晶片比例也將進一步提升。

TrendForce表示,CSP為因應AI工作負載規模逐步擴大,同時計畫降低對NVIDIA、AMD的高度依賴,因此積極投入ASIC開發進程,以便能達到控制成本、性能和供應鏈彈性,進一步改善營運成本支出。觀察美系四大CSP在AI ASIC進展,居領先地位的Google已推出TPU v6 Trillium,主打能效比及針對AI大型模型的最佳化,預計2025年將大幅取代既有TPU v5。針對新一代產品開發,Google從原先與Broadcom的單一夥伴模式,新增與聯發科技(MediaTek)合作,轉為雙供應鏈布局。此舉將提升設計彈性、降低依賴單一供應鏈的風險,也有助增加高階先進製程布局。

AWS目前以與Marvell協同設計的Trainium v2為主力,其主要支援生成式AI與大型語言模型訓練應用,AWS也和世芯(Alchip)合作Trainium v3開發。

Meta成功部署首款自研AI加速器MTIA後,正與Broadcom共同開發下一代MTIA v2。由於Meta對AI推論負載具高度客製化需求,MTIA v2設計特別聚焦能效最佳化與低延遲架構,確保兼顧推論效能與運營效率。

Microsoft目前在AI server建置仍以搭載NVIDIA GPU的解決方案為主,但也加速ASIC開發,其Maia系列晶片主要針對Azure雲端平台上的生成式AI應用與相關服務進行優化,下一代Maia v2的設計也已定案,並由創意電子(GUC)負責後段實體設計及後續量產交付。除了持續與GUC深化合作外,Microsoft也引入Marvell共同參與設計開發Maia v2進階版,藉此強化自研晶片的技術布局,並有效分散開發過程中的技術與供應鏈風險。

中國AI供應鏈自主化加速

2025年中國AI server市場外購NVIDIA、AMD等晶片比例預估會從2024年約63%下降至42%,而中國本土晶片供應商(如華為等)在國有AI晶片政策支持下,預期市佔比例將提升至40%,幾乎與外購晶片比例分庭抗衡。

分析中國自主化AI方案,華為積極發展昇騰晶片系列,主要面向內需市場,應用層面包含LLM訓練、地方型智慧城市基礎建設、大型電信運營商的雲網AI應用等。在國家型專案支持,及互聯網、DeepSeek相關LLM AI應用蓬勃發展下,長期將撼動NVIDIA等在中國AI市場的領先地位。

寒武紀的思元(MLU)AI晶片系列,亦瞄準雲端業者的AI訓練與推理等應用。觀察寒武紀2024年陸續與在地大型CSP進行前期測試驗證可行性後,2025年將逐步推進思元AI方案至雲端AI市場中。

TrendForce表示,隨著美國持續升級高階AI晶片出口中國限制,中系CSP也加速發展自研AI ASIC。阿里巴巴旗下平頭哥(T-head)已推出Hanguang 800 AI推論晶片,百度(Baidu)繼量產Kunlun II後,已著手開發Kunlun III,主打高效能訓練與推論雙支援架構。騰訊除了自家AI推論晶片Zixiao,亦採用策略投資的IC設計公司Enflame解決方案。

在地緣政治與供應鏈重構的背景下,將凸顯中國晶片供應商如華為、寒武紀,以及各CSP投入自研ASIC的必須性與重要性,並帶動AI server市場朝向中國和非中國兩大生態體系發展。

MakerPRO編輯部

訂閱MakerPRO知識充電報

與40000位開發者一同掌握科技創新的技術資訊!

Author: MakerPRO編輯部

MakerPRO.cc為華人圈最專注於Maker創新創業、物聯網及共享經濟報導及共筆發表的專業媒體,不論是趨勢分析與評論,或創新實作文章,在華文創新創業媒體領域都具有重要的影響力。

Share This Post On
468 ad

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *