【10倍速AI運算】WSL YOLOv8轉TensorRT秘技公開
關於此課程
YOLOv8是最新版本的YOLO演算法,效能比傳統darknet框架快之外,安裝與支援也都更加簡化及完整,這次我們要介紹YOLOv8在NVIDIA顯示卡的GPU加速外,更能透過TensorRT的架構下進一步提昇效能,本次實做將採用WSL環境,讓你在Windows下完成Linux的TensorRT所帶來的效能提昇。
【課程單元】
CPU VS GPU
夜市小霸王舉歷代『古墓奇兵』電玩主角蘿拉,說明顯示卡的3D運算功能,隨著顯示卡的改朝換代,遊戲主角的外型越見細緻,GPU為了要強化遊戲效果,就加入了很多核心去加速運算效能。後來因為3D運算需求提高(AI、挖礦),就有人開始測試高階顯示卡與的運算效能。得到令人滿意的效果,後來在處理AI運算時就偏重GPU的使用。
什麼是 CUDA?
NVIDIA推出的Compute Unified Device Architecture
主要作用是連接GPU 和 應用程式,方便使用者通過 CUDA 的 API 調度GPU的core進行計算。
什麼是cuDNN
nVIDIA推出的cuDNN:
cuDA Deep Neural Network library
深度神經網路(DNN)的加速程式庫,將模型訓練的計算優化之後,再通過 CUDA 調度GPU的 core 進行
https://developer.nvidia.com/cuda-gpus
什麼是TensorRT
只負責模型的推理(inference)過程,TensorRT不用於訓練模型的,而是用於部署時加速模型運行速度。比如用在車流/人流辨識運算等需要高速影像處理,就會結合這個框架。
夜市小霸王帶領先安裝WSL與MS系統中安裝VSCode。安裝遠端開發工具、啟動Win端VS Code。另外也提供WSL講義給初次接觸WSL的學員下載閱讀。
YOLOv8使用 PyTorch開發,已支援目標檢測與跟蹤、實例分割、圖像分類和姿態估計等任務。本單元將教您如何在WSL上安裝設定YOLOv8、訓練自己的資料集,並測試訓練出的網路模型。
TensorRT 是NVIDIA 針對自己的產品所做的一個工具,主要目的在於協助使用者的模型,能更快更有效的取用自家GPU 資源,並透過一些優化程序,加速模型的推論。 TensorRT可以將YOLO、TensorFlow、PyTorch和Caffe等AI框架訓練好的模型轉換成高度優化的推論引擎,再部署到NVIDIA的各類平台上進行即時的推論應用。本單元將教您如何用TensorRT來轉換YOLOv8模型。
本單元將以實際個案來說明用TensorRT來轉換YOLOv8模型的運行效益。
課程內容
WSL YOLOv8轉TensorRT秘技公開
-
NVIDIA CUDA、CUDNN、TensorRT介紹
17:22 -
實作1:啟動WSL ubuntu2004 環境、安裝並執行VSCode 1
26:18 -
實作2:安裝pytorch、安裝YOLOv8
18:54 -
實作3:安裝TensorRT、PT模型轉換
12:47