作者: Jack OmniXRI,英特爾軟體創新大使
2023 年底英特爾(Intel) 推出了新一代內建神經網路加速器(NPU)的中央處理器(CPU)--Meteor Lake (Core Ultra),從此開啟AI PC的新世代。由於第一代AI PC算力略低,加上當時的生成式AI相關模型都很巨大(數百億到數千億參數)因此未能獲得市場青睞。2024年底Intel再次推出二代AI PC,使用Lunar Lake (Core Ultra 200V)系列CPU,其中內建的NPU及GPU算力大幅提升至47及67TOPS (@INT8),同時配合較小模型(數億到數十億參數)就能完成自然對話及影像生成,使得生成式AI應用得以普及,實現不用上網就能在本地(筆電/桌機)端執行。
一般在雲端環境執行大語言模型(LLM)或文字生成影像(Image Diffusion)功能時,多半會搭配很簡潔的人機介面,使用者幾乎不用考慮環境如何架設、程式如何撰寫,只要幾個文字框、圖框、按鍵作為輸出入介面,再加上幾個設定值就可馬上得到生成後的結果。但若要在本地端得到類似結果,則通常有很多安裝及設定工作要完成,對於非程式開發者的使用族群就變得不太友善。
因此Intel為滿足這個需求,整合自家NPU/GPU硬體強大算力及OpenVINO開源推論工具套件,開發出一套「AI Playground」[1],讓聊天對話、文字生成影像及影像強化輕輕鬆鬆就能完成。通常使用雲端生成式服務需要付費,用越多則需要付越多錢,少數免費的服務則有使用數量上的限制,而使用AI Playground則不需額外花費半毛錢,可盡情的產生對話及生成圖片。2024年7月已有釋出免費測試版執行檔,2025年4月更開源相關程式碼,方便使用者發揮 AI PC 更多效益及開發出更多個人化版本。
以下就分別就「測試環境」、「安裝步驟」、「可支援模型」、「【創作】影像生成」、「【增強】影像強化」、「【對話】聊天機器人」等內容作進一步說明。
測試環境
目前AI Playground支援Intel獨立顯卡(外顯) Arc A/B系列及Core Ultra 200 H/V系列CPU中的 iGPU(內顯),不管內顯或外顯,至少要有8GB vRAM才能跑的順。
此次測試使用的是Intel 第二代AI PC – Khadas Mind 2 AI Maker Kit作為測試硬體,其主要規格如下所示:
- Intel® Core™ Ultra 7 258V
- CPU: Lunar Lake, 4 P-Cores, 4 E-Cores, 8 Threads
- GPU: Arc™ 140V (16GB)
- NPU: AI Boost (4.0 AI Engine)
- 32GB LPDDR5X 8533 MT/s
- 1TB PCIe 4.0 2230 SSD
- AI Performance: (@ INT8)
- CPU: up to 5 TOPS
- NPU: up to 47 TOPS
- GPU: up to 64 TOPS
- WiFi+ Bluetooth: AX211D2
- Size: 146 × 105 × 20 mm
- Weight: 435 g
軟體環境:
- Microsoft Windows 11 Home (64bit) 24H2 (10.0.26100)
- Intel Arc & Iris Xe Graphics Driver – Windows 32.0.101.6913
- Intel NPU Driver Windows 32.0.100.4184
- Intel AI Playground 2.6.0-beta

圖1:測試 Intel AI Playground 硬體及軟體環境。(OmniXRI整理製作, 2025/09/01)
安裝步驟
目前AI Playground只支援Windows 11環境,建議至少保留82GB以上硬碟空間,其中6GB是要給AI Playground使用,其它的則用於儲存基礎模型,若要實驗更多的模型則需要保留更大的硬碟空間。當然使用固態硬碟(SSD)會更好,存取模型的速度會大幅提升。
為確保AI Playground執行時的相容性,在安裝前要先更新 Intel GPU & NPU 相關驅動程式。首先開啟網頁「Intel 驅動程式與支援助理」[2],更新下列兩個項目到最新版本。
- Intel Arc & Iris Xe Graphics Driver – Widnows
- Intel NPU Driver – Windows
接著下載AI Playground 2.6.0-bata執行檔。若有需要測試其它版本,可連結到Github – AI Playground – Release [3]下載所需版本即可。
安裝時非常簡單,只需雙擊剛下載的執行檔(如 AI.Playground-2.6.0-beta.exe),開始安裝。如 Fig. 2 所示即可。預設安裝完成後會自動執行 AI Playground。

圖2:Intel AI Playground 安裝步驟。(OmniXRI整理製作, 2025/09/01)
如圖3所示,第一次啟動AI Playground還需要安裝相關配套模型推論工具,如OpenVINO、ComfyUI、Llamacpp – GGUF,其中後兩項為選配,預設為不安裝,可縮短安裝時間及節省磁碟空間,等後續有需要時再加裝即可。由於後兩項很常用,建議可勾選,多花一點時間下載即可。完成下載後就能得到如圖三右下角之啟動畫面,主要包含「創作(Create)」、「增強(Enhance)」、「對話(Answer)」三大功能,若需了解更多還可點擊「了解更多(Learn More)」進行學習,如 圖4 所示。

圖3:Intel AI Playground 安裝配套工具步驟。(OmniXRI整理製作, 2025/08/28)
註:如果想要更完整的使用者手冊[4],可點擊後下載。

圖4:Intel AI Playground 三大功能頁面。(OmniXRI整理製作, 2025/09/01)
可支援模型
目前 AI Playground 預設可支援的生成式 AI 模型,主要包含兩大類:
- 影像生成 Image Diffusion (PyTorch 2.8)
- Stable Diffusion 1.5
- SDXL
- Flux.1-Schnell
- Flux.1 Kontext[dev]
- Wan2.1 VACE
- LTX-Video
- 大語言模型 LLM
- GGUF (Llama.cpp Vulknan)
- GPT-OSS (20B)
- DeepSeek R1 Distilled
- Phi3
- Mistral (7B)
- Llama 3.2 (3B)
- Llama 3.1 (8B)
- Smollm2 (1.7B)
- OpenVINO
- TinyLlama
- Mistral (7B)
- Phi3 mini
- Phi3.5 mini
- DeepSeek R1 Distill Qwen (1.5B, 7B)
- IPEX-LLM
- Phi-3 Mini
- Qwen2 (1.5B)
- Mistral (7B)
- DeepSeek R1 Distill Qwen (1.5B, 7B)
- GGUF (Llama.cpp Vulknan)
另外還可從AI Playground的「設定 / 模型」選項下,直接下載HuggingFace及CivitAI託管的相關模型,如圖5右下所示,預設可支援模型如下所示。如果預設的模型仍不夠使用,亦可直接配合HuggingFace API Key進行下載。
- 圖像生成模型
- 標準: dreamshaper-8
- 高解析度: JuggernautXL-v9
- 局部重繪/邊緣擴繪模型
- 標準: dreamshaper-8-inpainting
- 快速圖像模型
- 標準: lcm-lora-sdvl-5
- 高解析度: lcm-lora-sdxl
- 對話模型
- microsoft/Phi-3-mini-4k-instruct
- 檢索增強生成(RAG)嵌入模型
- 標準: bge-large-en-v1.5
- 高解析度: bge-large-en-zh-v1.5
註:以上模型都非常大,從數百MB到數GB不等,下載非常耗時,視網路速度可能從數十分鐘到數小時不等,建議可先挑一、兩種來測試,有空時再下載更多來體驗其差異。
預設下載的模型會存放在路徑
c:\users\使用者名字\AppData\Local\Programs\AI Playground\resources\service\models 下,依不同用途分別會存放在下列路徑。
- Checkpoints: 主要用於存放創建圖像的Stable Diffusion模型,包含一般解析度(512×512像素)及高解析度(1024×1024像素)的模型。
- LoRas: 用於自定義輸出外觀或風格的模型。
- Inpaint: 輔助局部修復和局部擴展的模型。
- LLMs: 用於AI聊天的模型。
- Embedding: 用於上傳文字內容到AI聊天機器人以進行摘要、搜尋和回答的模型。

圖5:Intel AI Playground參數設定,包括圖片、基本設定及模型。(OmniXRI整理製作, 2025/09/01)
【創作】影像生成
如果想要生成一張影像,非常簡單,首先將工作頁面切換到「創作(Create)」,接著在下方輸入提示詞,再按下「+生成」鍵即可自動生成影像,如圖6左側所示。在使用內顯(Arc iGPU)下,搭配 Stable Diffusion 相關模型生成四張標準畫質(512×512像素)影像、20步生成,大約耗時32秒,即一張約8秒。如果想要知道生成的影像更完整影像資訊,可點擊右側「i」符號,如圖6右側所示。預設生成影像存放路徑: c:\users\使用者名字\Documents\AI-Playground\media\生成日期

圖6:Intel AI Playground 影像生成結果及相關資訊。(OmniXRI整理製作, 2025/09/01)
這裡簡單測試一下中文及英文提示詞生成影像的效果,結果如圖7所示,似乎對中文提示詞理解能力不佳,建議可利用「對話」分頁功能將中文提示詞先翻譯成英文再輸入會更好些,或許未來改用更複雜的模型也會有所改善。
- 中文: 一隻貓站在窗戶邊等待主人回來
- 英文: A cat waits by the window for its owner to return.

圖7:Intel AI Playground 使用中英文提示詞進行影像生成結果比較。(OmniXRI整理製作, 2025/09/01)
若想要微調影像生成相關參數,可點擊視窗右上角齒輪圖案進入「設定 / 圖片」即可更進一步設定相關參數,如圖5左側所示。以下就列出主要可調整參數定義。
- 推論裝置: 0: Intel® Arc™ Graphics,若有外接 Intel Arc 獨立顯卡時,則可自由選擇不同的推論裝置。
- 圖像解析度: 標準(512×512), 高解析度(1024×1024)及手動設定。預設是正方形影像輸出,如果需要不同長寬比,可自行調整下方的比例(12/5, 16/9, 3/2, 4/3, 1/1, 3/4, 2/3, 9/16, 5/12)。
- 生成品質: 標準(20步), 高品質(50步)及極速(6步)。亦可手動調整所需步數,當步數越多所生成的細節越多,但同時也需更多的記憶體(vRAM)及生成時間。當選擇極速時,除步數減少外亦會改使用 Latent Consistency Model (LCM),生成速度可提高 5 倍,但細節可能較少。
生成數量: 預設為四張,可自行調整所需數量。 - 亂數種子: -1代表隨機生成,若想產生較接近風格的內容,可參考已生成的圖片資訊中的亂數種子(seed)數值,再手動填入即可或直接在提示詞中指定亦可。
- 負向提示詞: 選擇性輸入,可空白不填。主要用於限制影像不要生成指定的內容,可輸入多組內容,如低品質(low quality)、多手指(extra fingers)、變形(disfigured)、畸形(deformity)等,亦可指定特定物件名稱如人(people)等等。
- 敏感內容檢查: 預設為勾選,可避免產生一些血腥、暴力、裸露等影像內容。
- 提示詞引導強度(CFG): 預設為7,可設定從 0~10,數字越高則提示詞作用越強。
更多影像生成提示詞技巧,網路上有很多範例,這裡就不多作說明,留給大家自行去探索。
【增強】影像強化
創建影像後如果想要放大、風格修正、局部重繪或邊緣擴繪就可切換到第二分頁「增強(Enhance)」進行處理,當然也可以直接上傳圖片。影像強化處理時還可選擇性加入提示詞來調整輸出結果。
影像放大
一般影像放大時,多半採用數學方式處理,如最近鄰、雙線性、雙立方插值等,但這些方式的缺點就是放大後的影像會變得模糊一些。因此如果透過生成式AI方式進行影像放大就能有更清晰的內容,這樣的方式比起直接生成大尺寸影像要來的更快。如圖8所示,在放大時還可指定變化程度,數值越高則內容和原先差異就越大。

圖8:Intel AI Playground 增強頁面之放大功能及變化程度比較。(OmniXRI整理製作, 2025/09/01)
局部重繪
在以往Photoshop都有提供影像補缺(Inpainting)及內容感知填色來修補影像,但遇到影像缺失部份內容過於複雜或面積過大時就常常產生錯亂。而這項問題剛好就是生成式AI最擅長的部份,只要利用一個筆刷標示影像待修改部份,再選擇「修復遮罩區域」(低影響強度)或「生成新內容填充」(高影響強度),按下「+生成」鍵後即可得到新的影像。
如圖9所示,先將影像左側用筆刷塗黑,選擇「生成新內容填充」,按下生成後就會產生四張結果影像,分別自動填上不同背景內容。

圖9:Intel AI Playground 增強頁面之局部重繪功能結果圖。(OmniXRI整理製作, 2025/09/01)
邊緣擴繪
當影像生成後想要將四周圍擴大,又能讓影像連續,如同攝影機鏡頭拉遠(Zoom Out)效果,此時就可使用「邊緣擴繪」功能。如圖10所示,我們可以選擇上下左右四個方向的其中之一進行擴繪(生成),並可指定影響強度,通常數值高一些會讓內容更連續些。

圖10:Intel AI Playground 增強頁面之邊緣擴繪功能結果圖。(OmniXRI整理製作, 2025/09/01)
以上影像強化功能可依需求疊加增強,即做完一項後,保留該影像再進行下一項,如此往復就能得到更多不同效果。
【對話】聊天機器人
利用大語言模型(LLM)來進行對話、查詢資料、生成文案、翻譯文稿及各種文字工作已是很常見的作法。一般雲端平台為了能包山包海,所以使用的模型都非常巨大,少則數百億個參數,多則數千億個參數,這不是一般桌機或筆電能夠應付的。但多半時候在邊緣端只需一個數億到數十億參數的小語言模型(SLM)就很夠用了。
目前「後端推論引擎」可支援OpenVINO、IPEX-LLM和Llama.cpp-GGUF。依不同的推論引擎所支援的「推論裝置」也會有所不同,OpenVINO可支援自動/iGPU(內顯Arc)/NPU,而 IPEX-LLM和Llama.cpp只能支援iGPU。同樣地,不同的推論引擎也要搭配不同的「文本推論模型」,才能順利執行。若文本推論模型名稱前方有綠色的小點表示已下載完成,若沒有顯示綠點的,則第一次使用時會出現下載模型提示視窗,按下確定後等待模型下載完成後就可使用。另外這裡也支援「新增文件」來載入待查詢的內容,即「檢索增強生成」(RAG),以避免生成幻覺回答。

圖11:Intel AI Playground 對話頁面工作參數。(OmniXRI整理製作, 2025/09/01)
目前經測試後,發覺推論引擎加上不同模型後回答不同類型問題的推論速度及正確性皆有不同,且對繁體中文處理能力亦有所不同,有些甚至會出現亂碼輸出,因此要多測試一下找出自己較合適的模型。如圖12 所示,即為一簡單範例。

圖12:Intel AI Playground 對話頁面執行結果圖。(OmniXRI整理製作, 2025/09/01)
另外在使用上,由於系統會記錄最近問過的問題,以利更正確的回答。若有非同一系列問題時,建議再新增一組對話,以得到更好的答案。
小結
雲端大語言模型及生成圖像的功能雖然不錯,但免費版使用限制頗多,尤其在沒有網路連線時更是無法使用。隨著Intel AI PC的普及,算力大幅提升下,加上像Intel AI Playground這類免寫程式就可使用的生成式AI的工具,讓不懂程式撰寫的使用者也能輕鬆上手。
目前由於這些生成式的模型略小,因此還有很多需要靠精準的提示詞才能完美的輸出所需文字及影像,只要大家多練習一下就能快速得到想要的結果,相信不久的將來隨著更多小而美的模型被推出後,大家就可以用更簡潔的文字來生成所需內容了。
參考文獻
- Github – intel / AI-Playground
- Intel 驅動程式與支援助理
- Github – intel / AI-Playground Release
- AI Playground User Guide
- 有了Intel AI Playground 不寫程式也能輕鬆玩生成式AI - 2025/09/02
- 【開發資源】TinyML MCU 等級開源推論引擎 - 2025/06/09
- Arm架構引領行動運算新典範:開發者無痛轉移密技大公開 - 2025/05/29
訂閱MakerPRO知識充電報
與40000位開發者一同掌握科技創新的技術資訊!