【啟動AI Maker世代 】2024 MAI 開發者社群大會(5/16-17)
|
Arm新一代Ethos-U NPU與IoT參考設計平台亮相
4 月10

Arm新一代Ethos-U NPU與IoT參考設計平台亮相

Arm的嵌入式AI加速器Ethos-U系列NPU再添新成員U85;與上一代產品相比,Ethos-U85的效能號稱提升四倍,並提高了20%功耗效率…

Read More
【Arm的AI世界】利用Arm機器學習嵌入式評估套件快速部署Edge AI應用
1 月15

【Arm的AI世界】利用Arm機器學習嵌入式評估套件快速部署Edge AI應用

Cortex-M55處理器是Arm Cortex-M處理器中人工智慧功能最強大的,也是第一顆基於Arm Helium技術的CPU。儘管Cortex-M55在微小的微處理器上運作機器學習模型速度已經很快了,不過它與Arm Ethos-U55 microNPU完成整合後,在嵌入式系統中最快可讓機器學習推論速度提升480倍。本文將告訴大家如何運用開源的Arm機器學習嵌入式評估套件快速打造並部署嵌入式機器學習應用!

Read More
【白皮書導讀】嵌入式AI落地,ARM NPU工作架構剖析
1 月09

【白皮書導讀】嵌入式AI落地,ARM NPU工作架構剖析

嵌入式系統提供「AI應用」已不是空話,目前的主流架構ARM NPU搭配Cortex-A及Cortex-M的方案,本文探討這方案的軟硬體架構及開發環境。

Read More
如何選擇最適合你的AI推論模型量化方案?
12 月10

如何選擇最適合你的AI推論模型量化方案?

AI推論模型主要透過量化(Quantization)、修剪(Pruning)和聚類(Clustering)三種方式進行最佳化,本文提出一個決策樹,幫助你選擇最適合的量化技術。

Read More
TensorFlow Lite全面支援半精度(FP16)運算,可將設備端推論性能翻倍
12 月07

TensorFlow Lite全面支援半精度(FP16)運算,可將設備端推論性能翻倍

TensorFlow團隊宣佈,TensorFlow Lite 和 XNNPack 全面支援FP16的半精度推論(Half Precision Inference),同時指出,透過在 ARM CPU 上啟用半精度推論,能將TensorFlow Lite 的XNNPack backed的浮點推論性能提高一倍。

Read More
【白皮書導讀】Arm Ethos-U NPU的Vela Compiler開發環境及流程
11 月07

【白皮書導讀】Arm Ethos-U NPU的Vela Compiler開發環境及流程

Edge AI的必爭之地已走向嵌入式系統,如何架構低功耗、高效能的嵌入式AI運算架構呢?micro NPU + MCU/MPU看來是不錯的選項,本文將介紹Arm Ethos-U NPU的Vela Compiler開發環境及流程。

Read More