|
OpenVINO 2024.0:為開發者提供更高性能、更強大支援  
3 月19

OpenVINO 2024.0:為開發者提供更高性能、更強大支援  

OpenVINO 2024.0來了!我們很高興在這個版本推出一系列強化功能,目標是在快速發展的AI領域賦予開發者更強大的能力;新版本透過動態量化、改善的GPU最佳化以及對混合專家(MoE)模型架構的支援,增強了大語言模型(LLM)的性能。OpenVINO 2024.0讓開發者能有效利用AI加速,這也要感謝來自社群的持續貢獻。

Read More
英特爾攜手合作夥伴助力AI PC創作新世代
3 月14

英特爾攜手合作夥伴助力AI PC創作新世代

英特爾攜手宏碁、Adobe、華碩、訊連科技、微星科技等合作夥伴,於台北三創生活園區舉辦為期四天的「AI PC創作新世代」活動,現場展示多款最新基於Intel Core Ultra的AI PC系統與影像創作應用,並邀請橫跨不同領域的專業創作團隊分享如何透過AI PC解決創作過程中遇到的瓶頸,以及如何能有效發揮創作軟體各式各樣的功能,提升整體流程效率,進而激發更多創意。

Read More
【Arm的AI世界】能將神經網路提升至更高境界的ML推論諮詢工具
3 月12

【Arm的AI世界】能將神經網路提升至更高境界的ML推論諮詢工具

Arm正在運用以支援AI快速發展為設計目標的解決方案,來打造邁向未來的路徑。其中的一項挑戰,是讓相關社群能夠取用新興的技術。在這篇部落格文章中我們將介紹Arm機器學習推論諮詢工具(Arm ML Inference Advisor,Arm MLIA),並讓大家看到如何運用它來提升Arm IP的模型效能。我們同時也會解釋一些相關的前置作業,以及為何這些作業如此重要。

Read More
如何在Windows平台呼叫NPU部署深度學習模型
3 月04

如何在Windows平台呼叫NPU部署深度學習模型

在最新一代的Intel Core Ultra行動終端處理器中已經整合了簡稱為NPU的神經網路加速處理器,以提供低功耗的AI算力,而OpenVINO工具套件也在第一時間對NPU進行了配接。本文將帶領讀者一起看看如何在Intel Core Ultra處理器上搭建基礎環境,並呼叫NPU進行模型推論任務。

Read More
【白皮書導讀】嵌入式AI落地,ARM NPU工作架構剖析
1 月09

【白皮書導讀】嵌入式AI落地,ARM NPU工作架構剖析

嵌入式系統提供「AI應用」已不是空話,目前的主流架構ARM NPU搭配Cortex-A及Cortex-M的方案,本文探討這方案的軟硬體架構及開發環境。

Read More
【白皮書導讀】Arm Ethos-U NPU的Vela Compiler開發環境及流程
11 月07

【白皮書導讀】Arm Ethos-U NPU的Vela Compiler開發環境及流程

Edge AI的必爭之地已走向嵌入式系統,如何架構低功耗、高效能的嵌入式AI運算架構呢?micro NPU + MCU/MPU看來是不錯的選項,本文將介紹Arm Ethos-U NPU的Vela Compiler開發環境及流程。

Read More