如何在Google Colab上運行OpenVINO Open Model Zoo範例
本篇文章會以OMZ 影像分類(Classification) Public Pre-Trained Models為例,說明如何在Colab 上直接運行Intel Open Model Zoo。
如何在Windows平台呼叫NPU部署深度學習模型
在最新一代的Intel Core Ultra行動終端處理器中已經整合了簡稱為NPU的神經網路加速處理器,以提供低功耗的AI算力,而OpenVINO工具套件也在第一時間對NPU進行了配接。本文將帶領讀者一起看看如何在Intel Core Ultra處理器上搭建基礎環境,並呼叫NPU進行模型推論任務。
不只是評估套件?BrainChip推出Akida Edge AI Box閘道器
BrainChip與VVDN Technologies合作,推出了Akida Edge AI Box,本篇文章,就會簡單介紹這款AI Box給各位認識。
不怕離線!100%在樹莓派上執行的LLM專案
ChatGPT掀起一波LLM熱潮,但LLM運作需要龐大運算力,因此目前多是在雲端上執行。不少人希望LLM也能在本地端執行,如此就不怕斷線、洩漏隱私、內容審查、誤導等缺點。本篇文章,就會介紹創客如何利用樹莓派執行的LLM專案!
【Arm的AI世界】用Vela編譯器在Ethos-U NPU部署神經網路模型
為了因應這波邊緣與終端AI裝置浪潮,Arm特地設計了microNPU 機器學習(ML)處理器Ethos-U,為面積受限的嵌入式與物聯網裝置加速ML推論。要在Ethos-U上部署神經網路(NN)模型,第一步須使用Vela來編譯你已備妥的模型。Vela是一種開源Python工具,可以將神經網路模型最佳化為能在內含Ethos-U NPU的嵌入式系統上執行之特定版本;這篇文章將展示使用Vela編譯模型的工作流程。
新年首發 OpenVINO 2023.3 LTS版本隆重登場!
是時候在生成式人工智慧(AI)領域大放異彩地開啟2024年了,最新的OpenVINO推論工具2023.3 LTS版本隆重登場,導入了額外的框架改變,最佳化了生成式AI模型的特性,並強化了對現有平台的支援,將使您在新的一年中的程式編寫之旅變得異常精彩!本文將帶您了解新版本OpenVINO的一些重要更新。