HPE推出HPE AI Grid,以NVIDIA參考架構為基礎打造的端對端解決方案,可安全串聯跨區域及遠端邊緣站點的AI工廠與分散式推論叢集。透過HPE AI Grid,服務供應商可大規模部署並運營數千個分散式推論節點,將原本分散的AI部署整合為單一且智慧化的運作平台。
AI原生應用需要可預測且低延遲的分散式基礎架構。作為NVIDIA AI Computing by HPE產品組合,HPE AI Grid可在大規模環境下提供可預測的超低延遲效能,支援即時AI服務、零接觸部署,透過整合協同調度實現自動化資安防護。
HPE提供端對端AI Grid解決方案,加速部署實現價值
HPE AI Grid符合NVIDIA AI Grid參考架構,為服務供應商提供統一的軟硬體堆疊。HPE AI Grid的差異化優勢在於HPE能夠提供全堆疊的AI伺服器與AI網路,包括:
- HPE Juniper的電信級多雲路由與同調光學技術,提供可預測的長距離與都會區連線、雲端原生與多租戶資安防護、防火牆、WAN自動化,以及協同調度功能,以支援零接觸部署與生命週期管理
- HPE ProLiant Compute邊緣與機架式伺服器,搭載NVIDIA加速運算技術,包括NVIDIA RTX PRO 6000 Blackwell GPU、NVIDIA BlueField DPU、Spectrum-X乙太網路交換器(Ethernet switches)、Connect-X SuperNIC與加速AI推論(AI Inference)的AI藍圖(AI Blueprints)
HPE AI Grid為服務供應商開創全新商機
從零售個人化、預測性維護、邊緣醫療到電信級AI服務,各類服務供應商應用情境皆需要可預測且超低延遲的連線能力。HPE AI Grid使營運商能將具備電力與連線能力的既有據點轉型為RAN適用的AI電網,實現分散式推論與擴展新服務。
在推進AI Grid策略的同時,Comcast宣布在其高度分散的網路架構上展開全新AI實地測試,針對即時邊緣AI推論進行驗證,為下一波AI應用帶來更快速且的使用體驗。初步測試涵蓋多項應用情境,包括利用搭載NVIDIA GPU的HPE ProLiant伺服器,執行Personal AI(HPE Unleash AI合作夥伴計畫成員)的小型語言模型,為中小企業提供AI驅動的「前台服務」解決方案。
HPE Financial Services加速推動支援AI的網路與分散式AI基礎架構
為進一步加速採用AI網路與分散式AI基礎架構,HPE Financial Services亦將其零利率融資方案擴展至網路AIOps軟體(包括HPE Juniper Networking Mist),並針對AI的網路設備租賃方案提供相當於10%現金折扣的融資優惠。
參考資料
HPE推出結合NVIDIA參考架構的AI Factory Grid解決方案,安全擴展邊緣AI規模
- HPE以NVIDIA架構為基礎將分散式AI工廠整合為智慧AI網格 - 2026/04/21
- 更強大的開源運算:Arduino VENTUNO Q技術詳解 - 2026/04/17
- NVIDIA推出首款用於加速實用量子電腦發展的開放式AI模型 - 2026/04/17
訂閱MakerPRO知識充電報
與40000位開發者一同掌握科技創新的技術資訊!


