Perex: Zhipu (Z.ai) v prosinci 2025 představilo GLM-4.7, nový vlajkový jazykový model zaměřený na agentní vývoj, práci v terminálu a dlouhé workflow. Vedle zlepšení v kódování přidává i režimy „thinking“, kontext až 200K tokenů a výstup až 128K, a současně vychází jako open-source (MIT).
Co je GLM-4.7 a proč se o něm teď mluví
GLM-4.7 je nejnovější flagship LLM od Z.ai (Zhipu AI). Z pohledu trhu je to další výrazný pokus zmenšit náskok amerických lídrů hlavně v oblasti „AI coding agents“: model má cílit na stabilnější více-krokové plnění úkolů (ne jen jednorázové vygenerování kódu) a na lepší výkon ve veřejných benchmarkech pro software engineering.
Co je na GLM-4.7 nové (prakticky, ne marketingově)
1) Agentní kódování a terminal workflow
Model card uvádí zlepšení oproti GLM-4.6 zejména v úlohách typu SWE-bench (řešení reálných issue v repozitářích) a v „terminal“ benchmarcích, tedy scénářích, kde agent musí dělat sérii kroků a držet konzistenci.
2) „Thinking“ režimy a stabilnější více-krokové chování
GLM-4.7 rozvíjí režimy přemýšlení: kromě „thinking mezi akcemi“ zmiňuje i zachování (preservedíž) myšlenkových bloků napříč tahy, což má zlepšit stabilitu v dlouhých agentních sezeních a omezit rozpad plánů v čase.
3) Lepší „tool use“ a webové úlohy
V oficiálních materiálech se objevuje důraz na práci s nástroji (tool calling), benchmarky pro tool-use a také web browsing úlohy. To je důležité, pokud model používáš jako orchestrátora (vyhledat, přečíst, rozhodnout, vykonat krok).
4) „Vibe coding“: lepší HTML/UI výstupy
Zajímavý detail: GLM-4.7 výslovně cílí i na kvalitu UI výstupů (čistší weby, přesnější layouty, lepší generované slidové rozvržení). Pokud děláš prototypy, landing pages nebo rychlé demo aplikace, je to přesně ta část, která šetří čas na ručním „učesávání“
Specifikace: dlouhý kontext a funkce pro integrace
Z.ai developer dokumentace uvádí:
- kontext 200K tokenů
- max výstup 128K tokenů
- streaming
- function calling
- context caching
- structured output (např. JSON)
Tohle dohromady naznačuje, že GLM-4.7 míří na dlouhé „projekty“: čtení většího balíku podkladů, průběžná práce se stavem a generování velkých výstupů (např. celé moduly, dokumentace, testy, případně více souborů).
Benchmarky: slibné, ale čti je jako mapu, ne jako území
Oficiální model card na Hugging Face uvádí konkrétní čísla (např. SWE-bench Verified 73.8 %, zlepšení na Terminal Bench 2.0, HLE s nástroji apod.) a srovnává se s dalšími modely.
Zároveň je fér si všimnout i „poznámky pod čarou“: sami autoři připomínají, že benchmarky jsou jen část příběhu a rozhoduje pocit z reálné práce.
V mediálním pokrytí se objevují i tvrzení o tom, že GLM-4.7 v některých coding metrikách dohání nebo překonává vybrané konkurenty, ale je dobré brát to jako „claim“ a ověřovat na vlastních use-case (repo, stack, styl práce).
Dostupnost: API, chat i open-source
- Open-source vydání + licence MIT je uvedené přímo na stránce modelu na Hugging Face.
- Z.ai zároveň uvádí model v developer dokumentaci a prezentuje ho jako model dostupný v coding nástrojích a agentních workfow.
- Model card popisuje i možnosti nasazení lokálně přes běžné inference frameworky (vLLM/SGLang) a navazující tooling.
Co si pohlídat v praxi (než to nasadíš do produkce)
- Náklady a latence: dlouhý kontext + dlouhý výstup je super, ale umí to „sežrat“ rozpočet i čas.
- Stabilita agentů: „thinking“ režimy jsou fajn, ale reálné chování dělá i orchestrace (prompting, memory, tools, retry logika).
- Bezpečné JSON/structured output: když model generuje JSON, vždy validuj schéma (jinak to v integracích bolí).
Závěr
GLM-4.7 působí jako model postavený na současném trendu: méně „napiš mi funkci“ a víc „udělej úkol od A do Z“ včetně nástrojů, terminálu a dlouhé paměti. Jestli opravdu splní slib stabilnějšího agentního kódování, ukáže až běžná praxe, ale parametry (200K kontext, 128K výstup, tool calling, caching) a otevřená dostupnost z něj dělají jeden z nejzajímavějších releaseů konce roku 2025
0 thoughts on “GLM-4.7: open-source model od Z.ai míří na „agentní“ kódování, dlouhý kontext a stabilnější přemýšlení”