Z
Z-Ai 11. 2. 2026

Z.ai: GLM 5

z-ai/glm-5

GLM-5 je vysoce specializovaný nástroj pro softwarové inženýrství, který obětuje multimodalitu a extrémní kontext ve prospěch bezkonkurenční kapacity generování výstupu a hlubokého uvažování za přijatelnou cenu.

Killer Feature Masivní výstupní okno (202k tokenů) umožňující vygenerovat celou aplikaci na jeden prompt bez nutnosti fragmentace.
Skryté riziko Zaměření na 'agentic planning' může znamenat vyšší latenci při jednoduchých dotazech kvůli komplexnímu vnitřnímu uvažování.
$1 / 1M vstup
$3.2 / 1M výstup
203k kontext
203k max výstup
text text Návrh komplexních systémůAutonomní agentiGenerování kódu

📊 VibeCode skóre

76 / 100
Coding (váha 60 %) 80.2
Reasoning (váha 30 %) 67.5
Kontext (váha 10 %) 76.1

Spolehlivost high. Coding složka je vážený průměr 4 publikovaných coding benchmarků níže. Reasoning složka z 4 benchmarků (GPQA Diamond, MMLU-Pro, HLE). Agents benchmarky (TAU-bench, MMAU) do skóre nezahrnujeme kvůli nízkému pokrytí napříč modely.

🎯 Publikované benchmarky

Benchmark Kategorie Skóre Zdroj
Aider Polyglot coding 72.8% ↗ nezávislý
SWE-bench Verified coding 77.8% ↗ provider
LiveCodeBench coding 81.87% ↗ nezávislý
HumanEval coding 96.95% ↗ nezávislý
GPQA Diamond reasoning 86% ↗ provider
MMLU-Pro reasoning 85.7% ↗ nezávislý
MMLU reasoning 91.72% ↗ nezávislý
Humanity’s Last Exam reasoning 10.37% ↗ nezávislý

Found official provider metrics from Zhipu AI's GLM-5 model card and arXiv paper, as well as independent evaluations from LayerLens, Vals AI (via Maniac AI), BenchLM, and Failing Fast. AIME scores were available for 2025/2026 (scoring ~92.7%) but not specifically AIME 2024, so it was left null. TAU-bench and MMAU lacked specific breakdown scores for this exact model.

⚖️ Porovnání s konkurencí

Model Cenové srovnání Poznámka
Z-Ai GLM 5
← Právě prohlížíte
OpenAI GPT-5.2 Codex
GLM-5 je o 43 % levnější na vstupu a o 77 % levnější na výstupu. GPT-5.2 Codex má dvojnásobný kontext (400k), ale GLM-5 nabízí výrazně levnější generování dlouhého kódu, což je klíčové pro autonomní agenty.
MistralAI Devstral 2512
Mistral je cca 20x levnější na vstupu a 15x levnější na výstupu. Devstral je vhodný pro rychlé doplňování (autocomplete), zatímco GLM-5 cílí na komplexní architekturu a reasoning, kde levnější modely selhávají.
Anthropic Claude Haiku 4.5
Stejná cena vstupu ($1.00), GLM-5 je levnější na výstupu ($3.20 vs $5.00). Haiku je 'lehký' model pro rychlé úlohy. GLM-5 se profiluje jako 'vlajková loď' za cenu lehkého modelu, což z něj činí lepší volbu pro náročné logické operace.

🎯 Rozhodovací pomocník

Použij když...

  • Generování kompletních backendových mikroslužeb
  • Refactoring rozsáhlých legacy systémů
  • Autonomní debugging a samooprava kódu

Nepoužívej když...

  • Analýza screenshotů nebo UI designů (chybí vize)
  • Jednoduché chatboty pro zákaznickou podporu (zbytečně výkonný/drahý)
  • Analýza milionů řádků logů najednou (limit 202k kontextu)
Ideální pro:
Seniorní softwaroví inženýřiVývojáři autonomních AI agentůDevOps architekti

💪 Silné a slabé stránky

+ Silné stránky

Výstupní kapacita

Symetrický limit 202 752 tokenů pro vstup i výstup je unikátní; většina modelů má výstup omezen na 4k-8k tokenů, což GLM-5 činí ideálním pro generování rozsáhlých codebase.

Agentní schopnosti

Specializace na 'long-horizon' plánování umožňuje modelu efektivně řešit vícekrokové úlohy bez ztráty kontextu nebo logické koherence.

Poměr cena/výkon

S cenou $3.20 za 1M výstupních tokenů je výrazně levnější než GPT-5.2 Codex ($14.00) nebo Claude Opus ($25.00) při zaměření na podobně náročné úlohy.

Slabé stránky

Absence multimodality

Model je omezen pouze na text-to-text, což je v prosinci 2025 nevýhoda oproti Gemini 3 nebo GPT-5.2, které umí nativně zpracovávat vizuální vstupy pro analýzu UI/UX.

Velikost kontextu

Kontext 202k tokenů je sice dostatečný pro většinu projektů, ale zaostává za konkurencí jako Gemini 3 (1M) nebo Grok (2M), což limituje analýzu extrémně velkých repozitářů.

📝 Detailní popis

GLM-5 je vlajková loď open-source základového modelu společnosti Z.ai, navržená pro návrh komplexních systémů a pracovní postupy agentů s dlouhým horizontem. Je vytvořena pro zkušené vývojáře a poskytuje výkon na produkční úrovni pro rozsáhlé programovací úlohy, konkurující předním modelům s uzavřeným zdrojovým kódem. Díky pokročilému agentnímu plánování, hlubokému backendovému usuzování a iterativní autokorekci GLM-5 přesahuje generování kódu k úplné konstrukci systému a autonomnímu provádění.

Unikátní charakteristiky

GLM-5 se odlišuje extrémní kapacitou výstupního okna (202k tokenů), což umožňuje generování celých softwarových modulů v jednom průchodu. Model je specificky optimalizován pro iterativní samoopravné procesy a plánování agentů, nikoliv jen pro jednorázové doplnění kódu. Cenově se pohybuje ve střední třídě, ale slibuje výkon srovnatelný s uzavřenými vlajkovými modely.

Silné stránky

Výstupní kapacita

Symetrický limit 202 752 tokenů pro vstup i výstup je unikátní; většina modelů má výstup omezen na 4k-8k tokenů, což GLM-5 činí ideálním pro generování rozsáhlých codebase.

Agentní schopnosti

Specializace na ‘long-horizon’ plánování umožňuje modelu efektivně řešit vícekrokové úlohy bez ztráty kontextu nebo logické koherence.

Poměr cena/výkon

S cenou $3.20 za 1M výstupních tokenů je výrazně levnější než GPT-5.2 Codex ($14.00) nebo Claude Opus ($25.00) při zaměření na podobně náročné úlohy.

Slabé stránky

Absence multimodality

Model je omezen pouze na text-to-text, což je v prosinci 2025 nevýhoda oproti Gemini 3 nebo GPT-5.2, které umí nativně zpracovávat vizuální vstupy pro analýzu UI/UX.

Velikost kontextu

Kontext 202k tokenů je sice dostatečný pro většinu projektů, ale zaostává za konkurencí jako Gemini 3 (1M) nebo Grok (2M), což limituje analýzu extrémně velkých repozitářů.

🔗 Další modely od Z-Ai