【AI知多少】單模態到多模態:LLM、VLM、Video-LM
從單模態的LLM出發,目前的AI正如火如荼朝向多模態模型發展,特別是處理語言 + 平面視覺或連續視覺的VLM及Video-LM模型,讓AI看圖說故事或說故事生影片的情境成真了。
為邊緣裝置AI化而生:Qualcomm AI Hub
相較於依賴雲端運算,Qualcomm AI Hub 這類Edge AI開發平台有助於 AI 在邊緣裝置上的部署,這使得裝置能夠即時處理數據,降低延遲並提升隱私保護。
AI運算雲平台比較:NVIDIA vs. Intel vs. Qualcomm
本文將針對NVIDIA、Intel及Qualcomm這三家提供的AI雲平台進行定位與應用場景進行比較,有不同需求可選擇適合的平台來部署自己的 AI 應用。
認識Qualcomm AI 模型優化工具:AIMET
AIMET是 Qualcomm 開發的一套 AI 模型優化工具,它透過壓縮和量化技術來縮小模型,同時保持任務的準確性,有助於提高其在資源受限設備(如手機、邊緣裝置、IoT 設備)上的運行效率。
認識超輕量語言模型 TinyLlama – 只有1.1B!
TinyLlama 是一款 1.1 B參數的 小型語言模型(SLM, Small Language Model),由 TinyLlama 團隊 開發,旨在提供高效、輕量級的語言模型,適用於資源受限的環境,如行動裝置、邊緣計算與嵌入式系統。
AI物件辨識技術比一比:ViT vs YOLO
ViT(Vision Transformer)與 YOLO(You Only Look Once)都是知名的物件辨識技術,但它們在架構、應用場景和優勢方面有明顯的不同,本文將針對兩大技術來做一個比較。