小模型力量大:Gemma 3 270M為專業領域而生
過去對生成式 AI 的討論幾乎被「大模型」壟斷。人們談的是百億、千億參數的能力極限,卻往往忽略了「落地應用」的真正需求。Gemma 3 270M 的推出,正好提醒我們:AI 的未來不僅僅在於更大,而在於更適合。
Phi 4:「小而強」的專注型SLM模型
Phi 4 的出現,不僅是微軟的一次技術突破,更是一種理念的重申:AI 的未來並非一味追求「更大」,而是找到「更聰明、更安全、更普及」的路徑。
LLM如何「落地」?蒸餾、壓縮與微調技術比一比
蒸餾聚焦「智慧遷移」、壓縮專注「資源優化」、微調強調「專業提升」,合力推動語言模型在多樣應用環境的高效落地,本文將剖析它們在技術架構與應用場景中的定位與相互關聯。
支援GenAI邊緣應用 Alif Semiconductor秀新一代Ensemble系列MCU功耗與性能表現
Alif Semiconductor日前公布其第二代Ensemble E4、E6 與 E8系列MCU與融合處理器的完整性能基準測試結果…
認識超輕量語言模型 TinyLlama – 只有1.1B!
TinyLlama 是一款 1.1 B參數的 小型語言模型(SLM, Small Language Model),由 TinyLlama 團隊 開發,旨在提供高效、輕量級的語言模型,適用於資源受限的環境,如行動裝置、邊緣計算與嵌入式系統。
【從科幻到現實】勾勒AI未來情境 (上) – 迎接AI服務時代
本文將勾勒未來AI樣貌 – AI服務時代,包含無所不在的AI生成服務、自動且更自主的工作流程,以及打造專家AI分身模型。