|

【從模型到晶片】打造高效節能的邊緣 AI 系統

追蹤清單 分享

關於此課程

這門課程由逢甲大學陳紀翰助理教授主講,直擊半導體產業在 AI 時代最核心的挑戰:「如何在極限的功耗下發揮最強的算力」。對於從事行動裝置晶片設計、邊緣運算開發、或智慧穿戴裝置的半導體從業人員,這是掌握軟硬體協同優化(Hardware-Software Co-design)的關鍵進階課程。

1. 課程主旨

在半導體邁向 AIoT 與行動運算的浪潮中,單純追求運算速度已不足夠,「節能化與輕量化」才是晶片落地的真戰場。本課程由陳紀翰教授主講,深度剖析裝置端最佳化(On-Device Optimization)的核心技術,涵蓋權重剪枝、量化與知識蒸餾等模型壓縮策略。

課程重點探討「節能化 AI 加速」的硬體架構差異,解構如何透過稀疏性運算與資料流優化,降低記憶體存取帶來的巨大功耗。學員將實踐業界主流推論框架(TFLite/ONNX/CMSIS-NN)的部署,並學習在現實嘈雜環境下評估系統可靠度,平衡「正確率、運算效能(FPS)與功耗(Watt)」的黃金三角,打造具備國際競爭力的低功耗 AI 解決方案。

2. 學習目標

  • 精通模型壓縮技術: 掌握剪枝、量化與知識蒸餾實務,實現神經網路在記憶體受限裝置上的極致輕量化。
  • 掌握低功耗硬體架構: 理解 NPU/TPU 運算邏輯,學習利用稀疏性與資料流優化策略大幅節省運算能源。
  • 熟練推論框架部署: 掌握 TFLite、ONNX Runtime 及 Arm CMSIS-NN 轉換技術,將 AI 模型精準移植至行動端。
  • 具備系統效能評價力: 學習建立多維度的模型評估指標,包含魯棒性分析與「每瓦效能(Performance per Watt)」評估。

3. 適合對象

  • 數位 IC 設計與架構工程師: 欲透過理解模型稀疏性與資料流特性,進而優化 NPU、DSP 或 AI 加速器硬體架構與電路設計者。
  • 韌體與嵌入式系統開發工程師: 需在資源受限的低功耗 MCU 或行動 SoC 上,實現高效率 AI 模型部署與效能調校者。
  • IC 應用工程師 (AE/FAE): 需協助客戶將 AI 演算法移植至特定晶片平台,並針對「每瓦效能」進行優化方案展示與技術支援者。
  • 半導體產品定義與研發主管: 需評估新一代 AI 晶片之市場競爭力,衡量模型壓縮技術對終端產品成本及續航力影響的決策者。

4. 課程規劃

第一日課程:裝置端模型壓縮與架構輕量化

當日學習主軸: 掌握神經網路壓縮策略與輕量化模型設計實務

時間 單元主題 核心內容重點
09:30 – 11:00 1. 裝置端最佳化概念基礎 邊緣運算挑戰、神經網路壓縮流程、網路輕量化趨勢與架構。
11:00 – 12:30 2. 權重剪枝與量化技術實務 移除無效權重、32-bit 轉 INT8/INT4 量化策略、減少記憶體佔用。
13:30 – 15:00 3. 知識蒸餾與輕量化模型設計 Teacher-Student 模型學習架構、MobileNet/ShuffleNet 經典模型解析。
15:00 – 16:30 4. 模型轉換與推論框架 TensorFlow Lite 與 CoreML 轉換實務、跨平台模型優化流程。

第二日課程:節能硬體加速與系統可靠度評估

當日學習主軸: 軟硬體協同設計與節能推論效能優化評鑑

時間 單元主題 核心內容重點
09:30 – 11:30 5. 節能化硬體加速架構深度解析 NPU/TPU/GPU 架構差異、稀疏性運算、優化資料搬運 (Dataflow)。
13:30 – 15:00 6. 嵌入式 AI 部署框架 ONNX Runtime 應用、Arm CMSIS-NN 庫針對微控制器的底層優化。
15:00 – 16:00 7. 系統可靠度與模型魯棒性 噪訊環境下的 AI 正確率評估、邊緣端環境適應性測試。
16:00 – 16:30 8. 效能與功耗綜合評價 正確率、FPS 與 Watt 比例分析、能源效率指標建立與實務 Q&A。
展開更多內容

你將會學習到什麼?

  • 精通模型壓縮技術: 掌握剪枝、量化與知識蒸餾實務,實現神經網路在記憶體受限裝置上的極致輕量化。
  • 掌握低功耗硬體架構: 理解 NPU/TPU 運算邏輯,學習利用稀疏性與資料流優化策略大幅節省運算能源。
  • 熟練推論框架部署: 掌握 TFLite、ONNX Runtime 及 Arm CMSIS-NN 轉換技術,將 AI 模型精準移植至行動端。
  • 具備系統效能評價力: 學習建立多維度的模型評估指標,包含魯棒性分析與「每瓦效能(Performance per Watt)」評估。

學員評分和評論

還沒有評論
還沒有評論