如何從0訓練企業自用Gemma模型
Gemma模型是Text到Text的大型語言模型,非常適合各種文本生成任務。其有多種使用途徑,包括使用新資料來微調Gemma模型、拿Gemma開源程式碼,而從頭開始訓練它,本文將介紹如何從0訓練企業自用Gemma模型。
【Arm的AI世界】縮小Edge AI的技能落差
希望運用新型AI和機器學習工作負載的邊緣AI開發團隊,大部分都面對技能落差的問題,導致團隊沒有足夠能力最佳化及加速裝置內的AI。所以有哪些關鍵落差持續存在?讓我們深入探討各個領域的挑戰以及解決方案。
GIF動畫從頭說起-細說翻頁書的歷史(下)
翻頁書(FLIPBOOK)翻書動畫或拇指書,是一種介於書籍和電影之間的藝術形式,主要是利用一組照片或畫面通過翻轉來產生運動的錯覺,讓簡單的畫面產生動畫的效果。
Nvidia GTC 2024 提出的 FP8/FP4 如何加速AI訓練及推論
新一代 GPU Blackwell B200 在硬體端提供了 FP4 計算能力,單片就可達 20 petaFLOPS,二片 B200 組成的 GB200 在訓練性能是前一代 H100 的 4 倍,推論性能更高達 7 倍。若再將 36個 CPU 加上 72 個 GPU 組成「GB200 NVL72」超大型伺服器,則 FP8 訓練能力可高達 720 petaFLOPS, FP4 推論能力更高達1.44 exaFLOPS。而究竟什麼是 FP8 / FP4 呢?本篇文章會簡單幫大家科普一下。
致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio
LLM/GenAI倚賴雲端資料中心機房裡龐大的運算力,才能即時完成推論結果並回應,一旦網路斷線就無法使用,同時,雲端執行也有洩漏公司機密或個人隱私等風險,鑑於此,不少人開始期待透過本地端或本機端執行LLM。本篇文章,就會介紹AMD推行的LLM Studio,其可下載於本地端進行簡單的聊天問答。