為什麼Gemma採取Decoder-Only Transformer架構呢?
本篇文章會說明Gemma為何會採取Decoder-Only Transformer架構,並針對Decoder-Only Transformer架構進行介紹。
如何從0訓練企業自用Gemma模型
Gemma模型是Text到Text的大型語言模型,非常適合各種文本生成任務。其有多種使用途徑,包括使用新資料來微調Gemma模型、拿Gemma開源程式碼,而從頭開始訓練它,本文將介紹如何從0訓練企業自用Gemma模型。
致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio
LLM/GenAI倚賴雲端資料中心機房裡龐大的運算力,才能即時完成推論結果並回應,一旦網路斷線就無法使用,同時,雲端執行也有洩漏公司機密或個人隱私等風險,鑑於此,不少人開始期待透過本地端或本機端執行LLM。本篇文章,就會介紹AMD推行的LLM Studio,其可下載於本地端進行簡單的聊天問答。
推探Google開源、輕量級大型語言模型Gemma
Google基於原有Gemini模型經驗與技術衍生打造Gemma模型,該模型為開放來源程式碼,滿足開源需要的開發者與用戶,有機會進行更多的延伸、衍生或更細深的客製。本篇文章就會對Gemma進行簡單的介紹。
Arm積極「呼朋引伴」建構堅實AI產業生態系
在AI時代,無論是軟/硬體開發者或是產業界上、中、下游廠商,彼此間必須要有更緊密的合作才能實現各種創新應用,讓終端使用者能享受到AI帶來的便利;為此Arm也宣佈多項全新的策略合作。
【Edge AI專欄】 訓練AI模型資料不足怎麼辦?聊聊資料集擴增手法
本篇文章會簡單盤點一些常見的資料擴增手法,包含影像類(二維資料)及時序類(一維資料,如聲音、溫度、振動等各式感測器產生的連續信號),希望能帶給大家一些幫助。