Portál AbcLinuxu, 19. srpna 2025 11:19
Tento návod ukazuje, ako rozbehať llama.cpp na Steam Decku (APU Van Gogh, gfx1033) s akceleráciou cez Vulkan na Ubuntu 25.04. Uvádzam len kroky a príkazy, ktoré fungovali end-to-end, plus praktické spôsoby, ako overiť, že prácu naozaj robí GPU.
-DGGML_VULKAN=ON
--gpu-layers
radeontop
, vulkaninfo
a prípadne rocm-smi
rocminfo # malo by ukázať agent "gfx1033" (AMD Custom GPU 0405) rocm-smi --json # teplota/spotreba/VRAM (na APU sú metriky čiastočné, JSON je stabilný)
Ak chceš spúšťať ako bežný používateľ, pridaj skupiny a odhlás sa/prihlás:
sudo usermod -aG render,video $USER
sudo apt update sudo apt install -y \ build-essential cmake git \ mesa-vulkan-drivers libvulkan-dev vulkan-tools \ glslang-tools glslc libshaderc-dev spirv-tools \ libcurl4-openssl-dev ca-certificates
Rýchle kontroly:
vulkaninfo | head -n 20 # "Vulkan Instance Version" glslc --version # verzie shaderc/glslang
(Voliteľné zrýchlenie buildov):
sudo apt install -y ccache
git clone https://github.com/ggml-org/llama.cpp cd llama.cpp rm -rf build cmake -B build -DGGML_VULKAN=ON -DGGML_CCACHE=ON cmake --build build --config Release -j
Ak CMake hlási chýbajúci CURL a nechceš ťahať modely z HF, môžeš vypnúť:
cmake -B build -DGGML_VULKAN=ON -DLLAMA_CURL=OFF cmake --build build --config Release -j
Z Hugging Face (vyžaduje CURL v builde):
./build/bin/llama-cli \ -hf ggml-org/gemma-3-1b-it-GGUF \ --gpu-layers 32 \ -p "Pozdrav zo Steam Deck GPU."
Lokálny model:
./build/bin/llama-cli \ -m /cesta/k/modelu.gguf \ --gpu-layers 32 \ -p "Pozdrav zo Steam Deck GPU."
Poznámky: začni s kvantizáciami (*q4_0.gguf
, *q5_k.gguf
). Zvyšuj --gpu-layers
až po limit VRAM (Deck má typicky ~1 GiB vyhradené + zdieľanú RAM). Väčší kontext (--ctx-size
) = viac pamäte.
Jednoduché: radeontop
sudo apt install -y radeontop radeontop # v druhom termináli spusti llama.cpp; sleduj skok využitia "gpu"
Vulkan headless kontrola:
vulkaninfo | head -n 20 # "DISPLAY not set ..." je pri headless OK
ROCm SMI (užitočné teplota/spotreba/VRAM):
watch -n 1 rocm-smi --showtemp --showpower --showmeminfo vram --json
DPM stavy (zmeny hodín):
watch -n 0.5 "cat /sys/class/drm/card*/device/pp_dpm_sclk; echo; cat /sys/class/drm/card*/device/pp_dpm_mclk"
--gpu-layers
= lepší výkon (kým nedôjde pamäť)libvulkan-dev
, glslc
, glslang-tools
, libshaderc-dev
, spirv-tools
sudo apt install -y libcurl4-openssl-dev
alebo -DLLAMA_CURL=OFF
--ctx-size
, --gpu-layers
, použi menšiu kvantizáciu, zavri iné GPU úlohyrender
a video
Steam Deck je prekvapivo dobrá alternatíva k Raspberry Pi 5 ako nízkospotrebný domáci server, najmä ak chceš lokálnu inferenciu LLM s GPU akceleráciou. Má RDNA2 iGPU, 16 GB LPDDR5 a NVMe SSD, takže zvládne virtualizáciu aj LLM priamo na vstavanom disku s dobrou efektivitou.
Hoci idle spotreba je vyššia (~7 W) než pri Raspberry Pi 5 (~2.5–2.75 W), Deck ponúka rádovo vyšší výkon a GPU možnosti. Pri úlohách typu llama.cpp s presunom vrstiev na GPU dáva zmysel uprednostniť Deck, ak akceptuješ pár wattov naviac za výrazne väčšiu priepustnosť a flexibilitu.
Zariadenie Idle (typicky) Záťaž (približne) Raspberry Pi 5 (16 GB) ~2.5–2.75 W ~5–6 W (CPU; bez GPU akcelerácie) Steam Deck (256 GB) ~7 W do ~25 W (max. systémová špička)
Zhrnutie: ak znesieš o pár wattov vyššiu idle spotrebu, Steam Deck ti za to vráti neporovnateľne viac výkonu a možností pre AI/LLM v domácom prostredí.
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.