L
Liquid 20. 1. 2026

LiquidAI: LFM2.5-1.2B-Instruct (free)

liquid/lfm-2.5-1.2b-instruct:free

Vynikající volba pro specifické edge-case scénáře a mobilní integrace, kde je prioritou nulová cena a rychlost, nikoliv hloubka znalostí či komplexní reasoning.

$0 / 1M vstup
$0 / 1M výstup
33k kontext
text text On-device AIEdge inferenceNízká latence

📊 VibeCode skóre

18.6 / 100
Coding (váha 60 %) 9.7
Reasoning (váha 30 %) 25.9
Kontext (váha 10 %) 50

Spolehlivost high. Coding složka je vážený průměr 3 publikovaných coding benchmarků níže. Reasoning složka z 4 benchmarků (GPQA Diamond, MMLU-Pro, HLE). Agents benchmarky (TAU-bench, MMAU) do skóre nezahrnujeme kvůli nízkému pokrytí napříč modely.

🎯 Publikované benchmarky

Benchmark Kategorie Skóre Zdroj
SWE-bench Verified coding 9% ↗ nezávislý
LiveCodeBench coding 8% ↗ nezávislý
HumanEval coding 14% ↗ nezávislý
GPQA Diamond reasoning 32.6% ↗ nezávislý
MMLU-Pro reasoning 44.35% ↗ provider
AIME 2024 reasoning 14% ↗ provider
Humanity’s Last Exam reasoning 6.8% ↗ nezávislý

Found official Liquid AI benchmarks (MMLU-Pro, AIME25) and independent Artificial Analysis / BenchLM evaluations (GPQA Diamond, HLE, HumanEval, SWE-bench Verified, LiveCodeBench). Note that the AIME score is for AIME 2025.

⚖️ Porovnání s konkurencí

Model Cenové srovnání Poznámka
Liquid LFM2.5-1.2B-Instruct (free)
← Právě prohlížíte
Identická cena (zdarma) Devstral nabízí výrazně větší kontext (262k vs 32k), což jej činí univerzálnějším pro RAG aplikace, zatímco Liquid cílí spíše na rychlost a edge nasazení.
Liquid je levnější (zdarma vs $0.10/1M) Oba modely mají stejný kontext (32k), ale Mistral Small pravděpodobně nabídne vyšší kvalitu výstupu za cenu provozních nákladů.
Liquid je levnější (zdarma vs $0.20/1M) Grok Fast dominuje v kontextovém okně (2M tokenů), Liquid je výhodnější pouze pro velmi krátké, atomické interakce vyžadující nulové náklady.

🎯 Rozhodovací pomocník

Použij když...

  • Klasifikace a filtrování textu na zařízení
  • Jednoduché konverzační rozhraní s nízkou latencí
  • Zpracování příkazů pro smart home

Nepoužívej když...

  • Analýza rozsáhlých právních/technických dokumentů
  • Komplexní matematické nebo logické odvozování
  • Generování složitého produkčního kódu
Ideální pro:
Vývojáři mobilních aplikacíIoT inženýřiNadšenci do lokálních LLM

📝 Detailní popis

LFM2.5-1.2B-Instruct je kompaktní, vysoce výkonný model vyladěný pro instrukce, vytvořený pro rychlou AI přímo na zařízení. Poskytuje vysokou kvalitu chatu v 1,2B parametrové stopě, s efektivní inferencí na okraji sítě a širokou podporou běhových prostředí.

Unikátní charakteristiky

Tento model se vyznačuje extrémně kompaktní velikostí 1.2B parametrů a architekturou navrženou pro efektivní běh na koncových zařízeních (edge). Na rozdíl od tradičních masivních transformerů se zaměřuje na maximalizaci výkonu při minimální spotřebě paměti a výpočetních zdrojů.

Silné stránky

Provozní efektivita

Díky velikosti 1.2B je model schopen běžet lokálně na mobilních zařízeních a laptopech s minimální latencí, což je kritické pro real-time aplikace.

Nákladová politika

S cenou $0.00 za vstup i výstup je bezkonkurenční pro vysokoobjemové, jednoduché úlohy, kde by placené API bylo neekonomické.

Slabé stránky

Omezená kapacita uvažování

Malý počet parametrů (1.2B) fyzikálně omezuje schopnost modelu řešit komplexní logické úlohy a hluboké uvažování ve srovnání s většími modely.

Kontextové okno

Limit 32,768 tokenů je v kontextu konkurence (nabízející 200k až 2M tokenů) značně omezující pro analýzu delších dokumentů.

🔗 Další modely od Liquid