智慧零售概念組

參賽團隊名稱:SandBox

提案動機

因應疫情影響,人們購物時穿衣碰觸到的服飾都有著感染的隱患,透過虛擬試衣讓我們能夠在不碰觸物體的狀況下達到換衣的效果,除此之外,還能夠解決到試衣間脫衣換衣的麻煩 !

解決方案

開發環境:

由攝像頭拍攝人像圖片,利用OpenVINO Toolkit 中的human pose estimation demo取得人像關鍵點,再由OpenPOSE提取出關鍵點的.JSON檔,接著使用LIP-JPPNET進行語義分割,最後將原圖、關鍵點JSON檔、語義分割結果、要換之衣物圖像皆輸入至ACGPN進行推論,即能得出換衣結果。

成果介紹短片

成果介紹

參考資料:

實時鏡頭抽幀處理

https://github.com/amjltc295/VITON_realtime

人體關鍵點

https://github.com/CMU-Perceptual-Computing-Lab/openpose

人物解析-語義分割

https://github.com/Engineering-Course/LIP_JPPNet

ACGPN模型

https://github.com/switchablenorms/DeepFashion_Try_On

https://github.com/minar09/ACGPN

發佈留言

Your email address will not be published. Required fields are marked *

Post comment