以可重構NPU實現邊緣應用 耐能致力推動AI民主化
成立於2015年、擁有台灣血統的AI晶片設計業者耐能智慧(Kneron),於2023年底針對企業應用發表以該公司神經網路處理器(NPU)技術為基礎的KNEO 300系列EDGE GPT邊緣裝置,主打可藉由在裝置本地端(不須連結網際網路)運作GPT大語言模型,為使用者實現低延遲、高效率且具備隱私保護與資料安全性的各種Edge AI推論應用,在市場上掀起一波討論熱潮…
【創業小聚】前蘋果員工打造、入選YC的Intrinsic,要用大型語言模型解決臉書都做不好的事
社群平台發言容易,但仇恨性言論、色情、假新聞等資訊也不斷的出現,儘管平台方透過AI協助審查,但還是有不少漏網之魚。曾在Apple擔任詐欺工程和演算法團隊工程師的Karine Mellata和Michael Lin,創立Intrinsic嘗試透過LLM協助平台方進行言論審查。
如何在Windows平台呼叫NPU部署深度學習模型
在最新一代的Intel Core Ultra行動終端處理器中已經整合了簡稱為NPU的神經網路加速處理器,以提供低功耗的AI算力,而OpenVINO工具套件也在第一時間對NPU進行了配接。本文將帶領讀者一起看看如何在Intel Core Ultra處理器上搭建基礎環境,並呼叫NPU進行模型推論任務。
【Edge AI專欄】從CES 2024 看Edge AI及TinyML最新發展趨勢
今年CES的主軸:人工智慧、數位健康、永續發展、汽車科技、遊戲與電子競技、擴增/虛擬實境、智慧城市、智慧家居等領域最新技術。為了讓大家更了解在邊緣智慧(Edge AI)和微型機器學習(TinyML / MCU AI)的最新趨勢,本篇文章簡單盤點了此次四十多項較具代表性的產品讓大家認識一下。
不怕離線!100%在樹莓派上執行的LLM專案
ChatGPT掀起一波LLM熱潮,但LLM運作需要龐大運算力,因此目前多是在雲端上執行。不少人希望LLM也能在本地端執行,如此就不怕斷線、洩漏隱私、內容審查、誤導等缺點。本篇文章,就會介紹創客如何利用樹莓派執行的LLM專案!
如何避免手術器材殘留在患者體內?創客自製手術清單物件偵測器!
手術後忘在患者體內的手術器械、沾血海綿或其他物體都稱作「術後體內殘留物」,儘管醫院都有嚴謹規範與檢核步驟,還是時有所聞。本文介紹一位開發者打造的可攜型AI辨識裝置,可以評估手術結束時是否器具都已經收齊。