關於此課程
講師:許哲豪(Jack)博士
課程主旨
在半導體應用高度競爭的今日,掌握 AI 模型在終端裝置(Edge)的「落地實作」是技術領先的關鍵。本課程由許哲豪博士親自帶領,跳脫純理論架構,帶領學員進入多模態感測實戰。
課程選用業界主流的 Arduino Nano 33 BLE Sense 及 Seeed Vision AI 模組,深度實作聲音喚醒詞、運動手勢辨識及高階影像偵測技術。透過導入 TensorFlow Lite 與 Edge Impulse 工具,學員將親手完成從資料集建置、模型訓練到硬體部署的全流程。無論是工廠巡檢或是穿戴式裝置開發,本實務課將協助半導體工程師掌握從晶片端到感測應用端的關鍵解決能力,實現 AI 技術的真實應用價值。
學習目標
- 多模態感測整合: 掌握聲音、運動感測器(IMU)與影像模組的數據採集與異質整合技術。
- 高效模型部署實戰: 熟練使用 TensorFlow Lite 與 Edge Impulse,將訓練好的 AI 模型優化並部署至微控制器。
- 影像分析進階開發: 具備開發影像分類、物件偵測及 YOLOv8n 姿態估測等高階視覺功能之實作經驗。
- 雲端邊緣協作方案: 理解並實作邊緣運算裝置與雲端主機的通訊鏈路,構建完整的 AIoT 系統架構。
適合對象
- 嵌入式軟體與韌體工程師: 欲掌握各種感測器與 AI 模型硬體整合實務,提升設備端開發能力者。
- 智慧產品開發與系統整合工程師: 需評估邊緣端硬體效能並快速構建 AI 應用原型 (Prototyping) 者。
- 半導體應用與技術支援工程師 (AE/FAE): 欲為客戶展示感測晶片在 AI 場景下的具體解決方案與部署效果者。
- 半導體製造與智慧巡檢研發工程師: 欲將最新影像模型(如 YOLOv8n)導入產線視覺檢測或安防設備者。
課綱規劃
Day 1:感測器數據採集與 AI 模型基礎實作
| 時間 | 單元主題 | 核心內容重點 |
|---|---|---|
| 09:30 – 11:00 | 實驗開發板介紹 | Arduino Nano 33 BLE, Seeed Xiao, Vision AI V2 及 SenseCap Watcher 導覽。 |
| 11:00 – 12:30 | 聲音辨識應用─環境音辨識 | 喚醒詞偵測簡介、聲音資料集建置、TensorFlow Lite 模型訓練。 |
| 13:30 – 15:00 | 運動感測器應用─手勢辨識 | 運動資料集建置、Edge Impulse 環境配置、模型選用與訓練。 |
| 15:00 – 16:30 | 手勢與聲音模型部署實作 | Arduino 平台之模型燒錄、測試與即時反饋調校。 |
Day 2:高階影像 AI 開發與雲邊端系統整合
| 時間 | 單元主題 | 核心內容重點 |
|---|---|---|
| 09:30 – 11:30 | 影像應用─影像分類與偵測 | Seeed SenseCraft AI 建置、影像資料集採集、物件偵測模型選用與訓練。 |
| 13:30 – 15:00 | 影像應用─姿態估測實戰 | YOLOv8n 姿態資料集解析、程式編譯、硬體端模型部署與效能測試。 |
| 15:00 – 16:00 | 雲端與邊緣整合應用 | 邊緣端 AI 數據回傳、雲端監測介面串接、雲邊協同工作流演示。 |
| 16:00 – 16:30 | 實戰總結與成果演示 | 各類感測應用整合調優、實務開發常見問題排解與未來技術路徑。 |
學員評分和評論
還沒有評論