|
如何從0訓練企業自用Gemma模型
4 月03

如何從0訓練企業自用Gemma模型

Gemma模型是Text到Text的大型語言模型,非常適合各種文本生成任務。其有多種使用途徑,包括使用新資料來微調Gemma模型、拿Gemma開源程式碼,而從頭開始訓練它,本文將介紹如何從0訓練企業自用Gemma模型。

Read More
【Arm的AI世界】縮小Edge AI的技能落差
3 月29

【Arm的AI世界】縮小Edge AI的技能落差

希望運用新型AI和機器學習工作負載的邊緣AI開發團隊,大部分都面對技能落差的問題,導致團隊沒有足夠能力最佳化及加速裝置內的AI。所以有哪些關鍵落差持續存在?讓我們深入探討各個領域的挑戰以及解決方案。

Read More
GIF動畫從頭說起-細說翻頁書的歷史(下)
3 月29

GIF動畫從頭說起-細說翻頁書的歷史(下)

翻頁書(FLIPBOOK)翻書動畫或拇指書,是一種介於書籍和電影之間的藝術形式,主要是利用一組照片或畫面通過翻轉來產生運動的錯覺,讓簡單的畫面產生動畫的效果。

Read More
【Maker電子學】步進馬達的原理與驅動—PART10
3 月28

【Maker電子學】步進馬達的原理與驅動—PART10

步進馬達系列最終回,介紹步進馬達的控制的技巧:電流回授控制及閉環路控制。

Read More
Nvidia GTC 2024 提出的 FP8/FP4 如何加速AI訓練及推論
3 月27

Nvidia GTC 2024 提出的 FP8/FP4 如何加速AI訓練及推論

新一代 GPU Blackwell B200 在硬體端提供了 FP4 計算能力,單片就可達 20 petaFLOPS,二片 B200 組成的 GB200 在訓練性能是前一代 H100 的 4 倍,推論性能更高達 7 倍。若再將 36個 CPU 加上 72 個 GPU 組成「GB200 NVL72」超大型伺服器,則 FP8 訓練能力可高達 720 petaFLOPS, FP4 推論能力更高達1.44 exaFLOPS。而究竟什麼是 FP8 / FP4 呢?本篇文章會簡單幫大家科普一下。

Read More
致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio
3 月27

致敬?回敬?繼NVIDIA Chat with RTX後AMD亦推行LLM Studio

LLM/GenAI倚賴雲端資料中心機房裡龐大的運算力,才能即時完成推論結果並回應,一旦網路斷線就無法使用,同時,雲端執行也有洩漏公司機密或個人隱私等風險,鑑於此,不少人開始期待透過本地端或本機端執行LLM。本篇文章,就會介紹AMD推行的LLM Studio,其可下載於本地端進行簡單的聊天問答。

Read More