讓生成式AI應用在Intel架構系統本地端高效率運作的訣竅
各種AI模型正進駐PC,而且它們變得更聰明、快速、強大;然而,仍會有一個問題:如何在不同的硬體加速器──例如英特爾的GPU或NPU──上讓模型發揮最佳效能?
英特爾揭曉AI運算新時代藍圖:首批18A製程AI PC/伺服器處理器就緒
Panther Lake、Clearwater Forest及多代採用Intel 18A的產品,都是在美國亞利桑那州錢德勒市(Chandler)最先進的Fab 52晶圓廠進行生產。英特爾執行長陳立武表示:「我們正邁入一個令人興奮的運算新時代…
因「反思」而強大:TRM微型模型打敗巨型AI!
三星的700 萬個參數小模型 TRM 研究,挑戰了大型語言模型的推理霸權,也讓人重新思考人工智慧的發展方向:也許智慧並非來自堆疊,而是來自結構的設計、推理的循環,以及反思的能力。
PyTorch Lightning:讓深度學習更高效、更乾淨的框架
PyTorch Lightning 的出現,代表著深度學習工程實踐的一次質變。它並未重新發明 PyTorch,而是讓 PyTorch 更乾淨、更高效、更具生產力。
加速英特爾GPU上的LLM:實用的動態量化指南
動態量化是一種強大的最佳化技術,能顯著提升Transformer模型在Intel GPU的性能,包括搭載於Lunar Lake、Arrow Lake處理器,配備XMX引擎的硬體,以及Alchemist、Battlemage等系列獨立顯卡。