V roce 2024 jsme agentům říkali chatboty s nástroji. V roce 2025 jsme se naučili, že nechat LLM volně volat API je recept na katastrofu. Teď, v roce 2026, máme konečně patterny, které fungují v produkci. Ne proto, že by AI byla spolehlivější — ale proto, že jsme se naučili stavět systémy kolem ní.
Před dvěma lety stačilo zavolat ChatCompletion s pár tools a prohlásit výsledek za „AI agenta." Dneska to nedělá nikdo, kdo to myslí vážně. Tři koncepty definují, jak se agentní systémy stavějí v produkci.
Plná autonomie AI se ukázala jako slepá ulička. Ne proto, že by modely neuměly plánovat — umí. Problém je kontrolovatelnost. Pokud agent může udělat cokoliv, nemůžete zaručit, že neudělá něco katastrofálního. Proto se v produkci prosadil koncept bounded autonomy: agent má jasně definovaný prostor akcí, které může provést bez schválení, a vše mimo tento prostor vyžaduje lidské potvrzení.
V praxi to vypadá tak, že agent v helpdesku může odpovídat na dotazy, vytvářet tickety a eskalovat. Ale nemůže měnit zákaznická data, rušit objednávky ani schvalovat refundace nad stanovený limit. Tyto hranice nejsou slabina — jsou to bezpečnostní features.
Druhý zásadní posun: agenti, kteří hlídají jiné agenty. V multi-agent systémech dnes standardně existuje governance layer — agent (nebo deterministická logika), který validuje výstupy ostatních agentů před jejich provedením. Kontroluje dodržení politik, RBAC pravidel, regulatorních požadavků a business logiky.
Není to žádná akademická teorie. Finanční instituce, se kterými pracujeme, nemůžou nasadit agenta, který by mohl provést transakci bez validace compliance pravidel. Governance agent tu funguje jako automatizovaný kontrolor — rychlejší než člověk, konzistentní a auditovatelný.
Kontext window je stále konečný. I s milionovými okny u modelů jako Gemini 2.0 je naivní přístup „nacpi všechno do kontextu" drahý a nespolehlivý. Produkční agenti v roce 2026 pracují s hierarchickou pamětí: working memory (aktuální konverzace), episodická paměť (minulé interakce), sémantická paměť (znalostní báze) a procedurální paměť (naučené postupy).
Koncept není nový — je to analogie lidské paměti. Co je nové, je to, že máme nástroje, které to implementují efektivně. Kombinace vektorových databází, grafových databází a strukturovaného cachování umožňuje agentům pracovat s kontextem, který daleko přesahuje jedno okno.
Ekosystém se za poslední rok výrazně vykrystalizoval. Místo desítek experimentálních knihoven máme čtyři vyspělé frameworky, každý s jasnou specializací.
Stavové grafy s cykly. Ideální pro složité workflow s větvením, retry logikou a human-in-the-loop checkpointy. Dnes de facto standard pro produkční agenty.
Role-based multi-agent orchestrace. Skvělé pro scénáře, kde chcete specializované agenty (researcher, writer, reviewer) s jasně definovanými rolemi.
Konverzační multi-agent patterns od Microsoftu. Silné v code generation, analýze a scénářích, kde agenti diskutují a iterují na řešení.
Knowledge-first přístup. Nejlepší volba, když je jádrem agenta práce s daty — RAG, structured queries, knowledge graphs.
V praxi frameworky kombinujeme. Typická architektura: LangGraph jako orchestrátor hlavního workflow, LlamaIndex pro knowledge retrieval, vlastní governance layer pro validaci akcí. Žádný framework neřeší všechno — a to je v pořádku.
Teorie je hezká, ale co skutečně nasazujeme? Tři patterny, které vidíme v každém druhém projektu.
Nejde o „failsafe pro případ, že agent selže." Human-in-the-loop je architektonický pattern. Agent navrhne akci, systém ji prezentuje člověku ke schválení, člověk potvrdí nebo upraví, agent pokračuje. Klíčové je, že tato smyčka je navržená od začátku — ne přilepená na konec.
LangGraph má pro tohle nativní podporu přes interrupt nodes a persistent checkpointing. Agent se zastaví v definovaném bodě, stav se serializuje, člověk dostane notifikaci, rozhodne se, a agent pokračuje od checkpointu. Celé asynchronně — žádné čekání v paměti.
# LangGraph — interrupt pro schválení akce
@node
def propose_refund(state: AgentState):
amount = state["calculated_refund"]
if amount > 5000:
return Interrupt(
action="approve_refund",
payload={"amount": amount, "reason": state["reason"]}
)
return {"approved": True, "amount": amount}
Každý tool call prochází validační vrstvou. Ne proto, že LLM nedokáže zavolat API správně — většinou dokáže. Ale proto, že chceme audit trail, rate limiting, input sanitization a možnost tool call vetovat. V praxi to znamená, že mezi agentem a skutečným API je middleware, který každý call loguje, validuje parametry a kontroluje oprávnění.
Jeden agent, který dělá všechno, nefunguje. Stejně jako v software engineeringu — monolity nahrazujeme specializovanými službami. V agentním světě to znamená: router agent analyzuje intent, deleguje na specializovaného agenta (support, billing, technical), governance agent validuje výstup.
Důležitý detail: agenti nekomunikují volně. Komunikace jde přes definované kanály s jasným schématem zpráv. Žádný agent nemůže přímo ovládat jiného agenta — může jen poslat request, který druhý agent zpracuje podle svých pravidel. Je to microservices architektura aplikovaná na AI.
Pokud zvažujete nasazení agentního systému, tady jsou věci, které si většina týmů uvědomí příliš pozdě.
V CORE SYSTEMS stavíme agentní systémy pro enterprise klienty — banky, logistiku, retail. Nejsme AI startup, který prodává demo. Jsme systémová firma, která dodává řešení do produkce a pak je provozuje.
Náš přístup je pragmatický: začínáme discovery workshopem, kde identifikujeme use case, definujeme metriky úspěchu a zmapujeme datové zdroje. Pak stavíme MVP s omezeným scope — jeden agent, jeden workflow, měřitelný výsledek. A teprve když MVP prokáže hodnotu, rozšiřujeme.
Každý systém, který dodáváme, má: governance layer, audit trail, eval pipeline, monitoring dashboard a incident playbook. Ne proto, že je to cool — ale proto, že bez toho nemůžete agenta zodpovědně provozovat. A zodpovědnost je to, co odlišuje produkční systém od prototypu.
Používáme kombinaci open-source frameworků (LangGraph, LlamaIndex) a vlastních komponent pro governance, security a integraci s enterprise systémy. Nejsme vendor-locked na jednoho poskytovatele LLM — podporujeme OpenAI, Anthropic, Azure i on-premise modely, protože v regulovaných odvětvích je volba infrastruktury rozhodující.
Největší poučení z posledních dvou let? Agentní AI není primárně ML problém — je to software engineering problém. Modely jsou dostatečně schopné. Co rozhoduje o úspěchu, je architektura kolem nich: jak řídíte tok dat, jak definujete hranice, jak měříte kvalitu a jak reagujete na selhání.
Firmy, které k agentům přistoupí jako k softwarovému systému — s testy, CI/CD, monitoringem a incident procesem — budou úspěšné. Ty, které je budou stavět jako prompt engineering projekt, budou pořád jen prototypovat.