|

【從 ROS2 到 VLA】半導體廠區 AI 機器人智慧巡檢實務

追蹤清單 分享

關於此課程

課程主旨

在半導體高精密製造環境中,人力巡檢面臨無塵室規範、高頻率監測需求與潛在職安風險。本課程專為半導體從業人員設計,由 PlayRobot 研發組長陳邵亨主講,聚焦於自主移動機器人 (AMR) 與四足機器狗在廠區巡檢的應用。

課程從 Ubuntu 與 ROS2 作業系統核心出發,引導學員掌握 SLAM 地圖建構、光達視覺里程計與運動控制技術。更進階結合 AI 視覺行為偵測 (OpenPose) 與最新 VLM 視覺語言導航,學員將學習如何開發具備自主導航與語音互動能力的機器人系統,並探討未來 VLA(視覺-語言-動作)技術如何優化半導體智慧廠務,實現全天候自動化監控。

學習目標

  1. 掌握機器人系統架構: 熟練 Ubuntu 環境與 ROS2 指令,建構穩定的開發平台。
  2. 精通自主導航與地圖建立: 具備 SLAM 建圖、光達感測與避障導航的實戰開發能力。
  3. 整合多模態 AI 巡檢: 學習結合視覺(行為偵測)、語音(MCP 互動)與 VLM 實現高階判讀。
  4. 掌握前瞻技術趨勢: 理解 VLA 技術路徑,評估機器狗在複雜廠區環境的應用價值。

適合對象

  • IC 製造業 IT 與自動化工程師: 負責廠區智慧化、AMR 部署與無塵室自動化者。
  • 設備/廠務工程師: 欲透過機器人技術取代人工進行例行巡檢與故障初步回傳者。
  • 半導體設備整合商 (SI): 開發針對半導體廠專用巡檢平台之研發人員。
  • 對機器人作業系統 (ROS2) 與 AI 互動技術有興趣之科技業技術主管。

課綱規劃

Day 1:工廠視覺技術核心與應用實務

時間 單元主題 教學內容重點
09:30 – 11:00 1. 開發環境與 Python 基礎 Ubuntu 系統操作、機器人開發常用 Python 庫、環境快速架設。
11:00 – 12:30 2. ROS2 架構實務 ROS2 安裝與通訊機制 (Topic/Service/Action)、廠區應用節點配置。
13:30 – 15:00 3. 自主移動平台運動控制 AMR 與四足機器狗運動模型解析、控制指令封裝與硬體介面。
15:00 – 16:30 4. 感測與里程計實作 光達 (Lidar) 數據解析、視覺里程計 (Visual Odometry) 理論與數據融合。

Day 2:SLAM 建圖、AI 巡檢技術與前瞻應用

時間 單元主題 教學內容重點
09:30 – 11:00 5. SLAM 地圖建立與導航 實體/虛擬地圖建構 (Mapping)、路徑規劃與避障演算法實作。
11:00 – 12:30 6. AI 視覺行為偵測巡檢 OpenPose 實戰:偵測廠區人員異常行為或設備指示燈號。
13:30 – 15:00 7. 語音互動與 VLM 導航 基於 MCP 的語音交互系統、VLM (視覺語言模型) 引導之零樣本導航開發。
15:00 – 16:30 8. VLA 發展趨勢與場域實踐 視覺-語言-動作 (VLA) 模型解析、半導體廠實戰部署挑戰、未來進階藍圖。
展開更多內容

你將會學習到什麼?

  • 掌握機器人系統架構: 熟練 Ubuntu 環境與 ROS2 指令,建構穩定的開發平台。
  • 精通自主導航與地圖建立: 具備 SLAM 建圖、光達感測與避障導航的實戰開發能力。
  • 整合多模態 AI 巡檢: 學習結合視覺(行為偵測)、語音(MCP 互動)與 VLM 實現高階判讀。
  • 掌握前瞻技術趨勢: 理解 VLA 技術路徑,評估機器狗在複雜廠區環境的應用價值。

學員評分和評論

還沒有評論
還沒有評論