G
Google 3. 4. 2026

Google: Gemma 4 26B A4B

google/gemma-4-26b-a4b-it
$0.13 / 1M vstup
$0.4 / 1M výstup
262k kontext
262k max výstup
imagetextvideo text Multimodální zpracováníEfektivní inference

📊 VibeCode skóre

71 / 100
Coding (váha 60 %) 63.9
Reasoning (váha 30 %) 82.4
Kontext (váha 10 %) 79.8

Spolehlivost medium. Coding složka je vážený průměr 2 publikovaných coding benchmarků níže. Reasoning složka z 2 benchmarků (GPQA Diamond, MMLU-Pro, HLE). Agents benchmarky (TAU-bench, MMAU) do skóre nezahrnujeme kvůli nízkému pokrytí napříč modely.

🎯 Publikované benchmarky

Benchmark Kategorie Skóre Zdroj
SWE-bench Verified coding 52% ↗ nezávislý
LiveCodeBench coding 77.1% ↗ provider
GPQA Diamond reasoning 82.3% ↗ provider
MMLU-Pro reasoning 82.6% ↗ provider
TAU-bench Retail agents 85.5% ↗ provider

Found official provider benchmarks on the Hugging Face model card and Google DeepMind website for the Gemma 4 26B A4B IT model. Also found an independent SWE-bench Verified score from a Towards AI comparison article. AIME 2024 was not found (only AIME 2026 is reported), so it was left null.

💪 Silné a slabé stránky

+ Silné stránky

Efektivita inference

Díky MoE architektuře aktivuje pouze 3,8B parametrů na token, což rad

Slabé stránky

📝 Detailní popis

Gemma 4 26B A4B IT je model typu Mixture-of-Experts (MoE) s doladěnými instrukcemi od Google DeepMind. Navzdory celkovému počtu 25,2 miliard parametrů se během inference aktivuje pouze 3,8 miliardy parametrů na token – poskytuje tak kvalitu blížící se 31B při zlomku výpočetních nákladů. Podporuje multimodální vstup včetně textu, obrázků a videa (až 60 sekund při 1 snímku za sekundu). Nabízí kontextové okno o velikosti 256 tisíc tokenů, nativní volání funkcí, konfigurovatelný režim myšlení/usuzování a podporu strukturovaného výstupu. Uvolněno pod licencí Apache 2.0.

Unikátní charakteristiky

Gemma 4 26B A4B je instrukčně laděný MoE model, který díky aktivaci pouze 3,8 miliardy parametrů na token nabízí výkon srovnatelný s 31B modely. Vyniká nativní podporou videa, konfigurovatelným reasoning režimem a štědrou open-source licencí Apache 2.0.

Silné stránky

Efektivita inference

Díky MoE architektuře aktivuje pouze 3,8B parametrů na token, což rad

🔗 Další modely od Google