|
致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio
3 月27

致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio

LLM/GenAI倚賴雲端資料中心機房裡龐大的運算力,才能即時完成推論結果並回應,一旦網路斷線就無法使用,同時,雲端執行也有洩漏公司機密或個人隱私等風險,鑑於此,不少人開始期待透過本地端或本機端執行LLM。本篇文章,就會介紹AMD推行的LLM Studio,其可下載於本地端進行簡單的聊天問答。

Read More
推探Google開源、輕量級大型語言模型Gemma
3 月21

推探Google開源、輕量級大型語言模型Gemma

Google基於原有Gemini模型經驗與技術衍生打造Gemma模型,該模型為開放來源程式碼,滿足開源需要的開發者與用戶,有機會進行更多的延伸、衍生或更細深的客製。本篇文章就會對Gemma進行簡單的介紹。

Read More
Arm積極「呼朋引伴」建構堅實AI產業生態系
11 月02

Arm積極「呼朋引伴」建構堅實AI產業生態系

在AI時代,無論是軟/硬體開發者或是產業界上、中、下游廠商,彼此間必須要有更緊密的合作才能實現各種創新應用,讓終端使用者能享受到AI帶來的便利;為此Arm也宣佈多項全新的策略合作。

Read More
【Edge AI專欄】 訓練AI模型資料不足怎麼辦?聊聊資料集擴增手法
10 月30

【Edge AI專欄】 訓練AI模型資料不足怎麼辦?聊聊資料集擴增手法

本篇文章會簡單盤點一些常見的資料擴增手法,包含影像類(二維資料)及時序類(一維資料,如聲音、溫度、振動等各式感測器產生的連續信號),希望能帶給大家一些幫助。

Read More
善用 ONNX Runtime 加速超過 130,000 個Hugging Face模型
10 月27

善用 ONNX Runtime 加速超過 130,000 個Hugging Face模型

在 Hugging Face (HF) 上的32 萬個模型中,超過 130,000 個模型支援 ONNX 格式,它們可以透過 ONNX Runtime (ORT) 進行加速。

Read More
PyTorch為邊緣及行動設備推出ML推論優化工具:ExecuTorch
10 月26

PyTorch為邊緣及行動設備推出ML推論優化工具:ExecuTorch

PyTorch Edge團隊日前(10/17)宣布推出ExecuTorch解決方案,此方案可為行動及邊緣設備提供設備端推論功能(on-device inference),目前已獲得Arm、Apple 和 Qualcomm 創新中心等大廠的支持。

Read More