|

DeepStream 5.0 功能解析與效能實測

   
作者:尤濬哲

目前人工智慧領域中目前最受到重視的應該還是影像辨識這塊,利用攝影機取代人類的眼睛來觀察世界是一個非常重要的應用,近幾年來的自駕車的快速發展靠的就是人工智慧在影像辨識上的能力快速提昇,其他應用包括電子圍籬、人臉辨識...等等,都必須仰賴這方面的技術,以筆者曾在某大賣場執行「人流統計」專案來說,就是利用人體辨識加上物件追蹤技術來達成。

人流辨識

一般來說,要達成這類的專案,除了要熟悉人工智慧的演算法、模型訓練建構之外,還必須了解不同的影像源的讀取解碼,例如熟悉Python影像辨識的夥伴應該都會使用OpenCV來開啟視訊單一擷取裝置,那麼如果現在影像來源不只一個,甚至是不同種類來源時,就會導致程式架構越來越複雜,難以撰寫。

舉例來說,一個NVIDIA邊緣運算裝置(例如Jetson Nano)要辨識4個不同影像來源,例如,1.CSI鏡頭、2.USB鏡頭、3.RTSP串流、4.mjpeg串流,除了資料格式不同,不同類型的影像來源沒辦法全部單獨使用OpenCV處理了,這樣就會導致工程師在建構系統最重要的人工智慧運算核心的部份,卻還必須同時處理影像解碼相關細節問題,就太浪費時間了。

不過以上還算是小問題,試想若有四個影像來源時,你的程式要如何在四個鏡頭的擷取出物件資訊呢?一般狀況,大部分的工程師採用的是「輪循」的作法,也就是像大樓管理員這樣輪著看,一隻一隻的監視器的看,不過這樣的作法有什麼問題呢?

本文為會員限定文章

立即加入會員! 全站文章無限看~

                               

已經是會員? 按此登入

只需不到短短一分鐘...

輸入您的信箱與ID註冊即可享有一切福利!

會員福利
1

免費電子報

2

會員搶先看

3

主題訂閱

4

好文收藏

尤濬哲

Author: 尤濬哲

身兼助理教授/專欄作家/知名部落客,以及點點滴滴科技研發總監等身份,專長包括人工智慧、多媒體互動(Unity)、智慧互動裝置(APP、Arduino)、虛擬實境與擴增實境互動、IoT 實做開發。 學歷:中山大學資訊管理研究所 博士

Share This Post On

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *