讓生成式AI應用在Intel架構系統本地端高效率運作的訣竅
各種AI模型正進駐PC,而且它們變得更聰明、快速、強大;然而,仍會有一個問題:如何在不同的硬體加速器──例如英特爾的GPU或NPU──上讓模型發揮最佳效能?
英特爾揭曉AI運算新時代藍圖:首批18A製程AI PC/伺服器處理器就緒
Panther Lake、Clearwater Forest及多代採用Intel 18A的產品,都是在美國亞利桑那州錢德勒市(Chandler)最先進的Fab 52晶圓廠進行生產。英特爾執行長陳立武表示:「我們正邁入一個令人興奮的運算新時代…
加速英特爾GPU上的LLM:實用的動態量化指南
動態量化是一種強大的最佳化技術,能顯著提升Transformer模型在Intel GPU的性能,包括搭載於Lunar Lake、Arrow Lake處理器,配備XMX引擎的硬體,以及Alchemist、Battlemage等系列獨立顯卡。
【Arm的AI世界】GitHub與Arm為開發者徹底改變在Windows上的開發作業
GitHub與Arm緊密合作,致力於最佳化在Arm平台上開發的體驗,透過強化的工作流程,整合原生Arm runner、內建必要工具與函式庫的映像檔,以及GitHub Copilot Extensions,協助開發者運用AI加速開發。
OpenVINO 2025.3: 更多生成式AI,釋放無限可能
全新 OpenVINO 2025.3 版本帶來更快的上手體驗和更強大的性能。此次升級重點聚焦生成式AI,新增對多種尖端模型的支援,並推出全新GenAI流水線,全面擴展了OpenVINO Model Server的能力。
Windows on Snapdragon部署GenAI策略指南
筆者在前一篇文章介紹了如何使用Qualcomm AI Hub來快速地在Windows on Snapdragon (WoS)完成AI應用的部署,然而身為被認證為Copilot+ PC的成員,要能順暢運作本地端生成式AI模型及開發衍生應用才是其最重要的主戰場!本篇文章將會介紹幾種不同的方法在WoS實現本地端生成式AI模型的運作。