如何客製化企業 RAG 知識庫?— 從資料庫到知識整合的實戰技術
|

揭示開放式AI產業體系願景 AMD發表全新晶片、軟體與系統

   

AMD在日前舉行的Advancing AI 2025大會中發表全面的端對端整合式AI平台願景,並推出基於業界標準所建構的開放式、可擴展機架級AI基礎設施;該公司攜手合作夥伴共同展示如何運用全新AMD Instinct MI350系列加速器,建構開放式AI產業體系,以及AMD ROCm產業體系的持續蓬勃發展,還有AMD的開放式機架級設計與藍圖,預計將至2027年後持續提供領先業界的機架級AI效能。

AMD宣布推出廣泛的硬體、軟體和解決方案產品陣容,以全面推動AI進程。新發表的Instinct MI350系列GPU,號稱將為生成式AI和高效能運算樹立效能、效率和可擴展性的全新標竿。該系列包含Instinct MI350X和MI355X GPU及平台,相較於上一代產品,提供4倍的AI運算能力提升及35倍的推論能力躍進,助力各產業實現變革性AI解決方案;MI355X在性價比方面亦帶來顯著提升,相較於競爭對手解決方案,每美元可產生多達40%的Token。

Instinct MI350系列超越了AMD將AI訓練和高效能運算節點能源效率提升30倍的5年目標,最終實現了38倍的顯著提升5。AMD更公布了2030年全新目標,以2024年為基準年,將機架級能源效率提升20倍,使目前需要超過275個機架的典型AI模型到2030年能在少於一個全面運用的機架中進行訓練,並減少95%的電力消耗。

此外AMD亦展示端對端、開放標準的機架級AI基礎設施,搭載AMD Instinct MI350系列加速器、第5代AMD EPYC處理器和AMD Pensando Pollara NIC,已部署於Oracle Cloud Infrastructure (OCI)等超大規模雲端供應商(hyperscaler)環境中,並預計於下半年廣泛上市。新一代AI機架“Helios”則將搭載新一代AMD Instinct MI400系列GPU、“Zen 6”架構的AMD EPYC “Venice” CPU和AMD Pensando “Vulcano” NIC。相較於上一代產品,AMD Instinct MI400系列GPU預計在混合專家模型上運行推理的效能將提升高達10倍。

AMD推出的最新版本開源AI軟體堆疊ROCm 7,旨在滿足生成式AI和高效能運算工作負載日益增長的需求,同時全面顯著提升開發人員體驗。ROCm 7具備更完善的業界標準框架支援、擴展的硬體相容性,以及全新的開發工具、驅動程式、API和函式庫,以加速AI開發和部署。該公司同步宣布AMD Developer Cloud將廣泛提供予全球開發人員和開源社群;此平台專為快速、高效能AI開發而設計,使用者將能存取功能齊全的雲端環境,具備所需工具和靈活性以啟動AI專案,並實現無限成長。

透過ROCm 7和AMD Developer Cloud,AMD正持續擴大新一代運算的存取權限並使其更易於實現。與Hugging Face、OpenAI和Grok等領導者的策略合作,證明了共同開發開放式解決方案的強大力量。

廣泛的合作夥伴產業體系

AMD表示,目前全球前10大模型建構商與AI公司中,已有7家在其生產工作負載中採用AMD Instinct加速器。其中,Meta、OpenAI、微軟和xAI等攜手AMD及其他合作夥伴於Advancing AI大會中深入探討其如何與AMD合作推動AI解決方案訓練當今領先的AI模型、大規模推動推論以及加速AI探索與開發,重點包括:

  • Meta詳述如何廣泛部署Instinct MI300X於Llama 3和Llama 4推論。Meta對於MI350及其運算能力、每總體擁有成本(TCO)的效能表現,以及新一代記憶體感到非常振奮。將持續與AMD密切合作,推動AI藍圖,其中包括Instinct MI400系列平台的相關計畫。
  • OpenAI執行長Sam Altman闡述硬體、軟體與演算法全面最佳化的重要性,並強調與AMD在AI基礎設施方面的緊密合作,包括採用MI300X開發Azure研究及GPT模型,以及在MI400系列平台上的深度設計合作。
  • Oracle Cloud Infrastructure (OCI)是首批採用搭載AMD Instinct MI355X GPU之AMD開放式機架級AI基礎設施的業界領導者之一。運用AMD CPU和GPU為AI叢集提供平衡、可擴展的效能,並宣布將推出由最新AMD Instinct處理器加速的Zettascale AI 叢集,搭載高達131,072個MI355X GPU,協助客戶實現大規模的AI建構、訓練和推論。
  • HUMAIN分享其與AMD簽訂的里程碑式協議,旨在運用唯獨AMD才能提供的全方位運算平台,建構開放、可擴展、具彈性且具成本效益的AI基礎設施。
  • 微軟也宣布Instinct MI300X現已為在Azure上專屬和開源模型提供生產力。
  • Cohere指出其高效能、可擴展的Command模型已部署在Instinct MI300X上,以高吞吐量、效率和資料隱私為企業級LLM推論提供動能。
  • Red Hat描述其與AMD擴大的合作如何實現生產就緒的AI環境,透過Red Hat OpenShift AI上的AMD Instinct GPU,在混合雲環境中提供強大、高效率的AI處理。
  • Astera Labs強調開放的UALink產業體系如何加速創新並為客戶帶來更大的價值,並分享了提供全面的產品組合以支援新一代AI基礎設施的計畫。
  • 作為UALink聯盟的成員,Marvell與AMD攜手合作共同開發開放的互連技術,為AI基礎設施帶來極致的靈活性。
MakerPRO編輯部

訂閱MakerPRO知識充電報

與40000位開發者一同掌握科技創新的技術資訊!

Author: MakerPRO編輯部

MakerPRO.cc為華人圈最專注於Maker創新創業、物聯網及共享經濟報導及共筆發表的專業媒體,不論是趨勢分析與評論,或創新實作文章,在華文創新創業媒體領域都具有重要的影響力。

Share This Post On
468 ad

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *