_CORE

V roce 2024 jsme agentům říkali chatboty s nástroji. V roce 2025 jsme se naučili, že nechat LLM volně volat API je recept na katastrofu. Teď, v roce 2026, máme konečně patterny, které fungují v produkci. Ne proto, že by AI byla spolehlivější — ale proto, že jsme se naučili stavět systémy kolem ní.

Co se změnilo v roce 2026

Před dvěma lety stačilo zavolat ChatCompletion s pár tools a prohlásit výsledek za „AI agenta." Dneska to nedělá nikdo, kdo to myslí vážně. Tři koncepty definují, jak se agentní systémy stavějí v produkci.

Bounded autonomy — autonomie s mantinely

Plná autonomie AI se ukázala jako slepá ulička. Ne proto, že by modely neuměly plánovat — umí. Problém je kontrolovatelnost. Pokud agent může udělat cokoliv, nemůžete zaručit, že neudělá něco katastrofálního. Proto se v produkci prosadil koncept bounded autonomy: agent má jasně definovaný prostor akcí, které může provést bez schválení, a vše mimo tento prostor vyžaduje lidské potvrzení.

V praxi to vypadá tak, že agent v helpdesku může odpovídat na dotazy, vytvářet tickety a eskalovat. Ale nemůže měnit zákaznická data, rušit objednávky ani schvalovat refundace nad stanovený limit. Tyto hranice nejsou slabina — jsou to bezpečnostní features.

Governance agenti

Druhý zásadní posun: agenti, kteří hlídají jiné agenty. V multi-agent systémech dnes standardně existuje governance layer — agent (nebo deterministická logika), který validuje výstupy ostatních agentů před jejich provedením. Kontroluje dodržení politik, RBAC pravidel, regulatorních požadavků a business logiky.

Není to žádná akademická teorie. Finanční instituce, se kterými pracujeme, nemůžou nasadit agenta, který by mohl provést transakci bez validace compliance pravidel. Governance agent tu funguje jako automatizovaný kontrolor — rychlejší než člověk, konzistentní a auditovatelný.

Hierarchická paměť

Kontext window je stále konečný. I s milionovými okny u modelů jako Gemini 2.0 je naivní přístup „nacpi všechno do kontextu" drahý a nespolehlivý. Produkční agenti v roce 2026 pracují s hierarchickou pamětí: working memory (aktuální konverzace), episodická paměť (minulé interakce), sémantická paměť (znalostní báze) a procedurální paměť (naučené postupy).

Koncept není nový — je to analogie lidské paměti. Co je nové, je to, že máme nástroje, které to implementují efektivně. Kombinace vektorových databází, grafových databází a strukturovaného cachování umožňuje agentům pracovat s kontextem, který daleko přesahuje jedno okno.

Frameworky: co použít a na co

Ekosystém se za poslední rok výrazně vykrystalizoval. Místo desítek experimentálních knihoven máme čtyři vyspělé frameworky, každý s jasnou specializací.

LangGraph

Stavové grafy s cykly. Ideální pro složité workflow s větvením, retry logikou a human-in-the-loop checkpointy. Dnes de facto standard pro produkční agenty.

CrewAI

Role-based multi-agent orchestrace. Skvělé pro scénáře, kde chcete specializované agenty (researcher, writer, reviewer) s jasně definovanými rolemi.

AutoGen

Konverzační multi-agent patterns od Microsoftu. Silné v code generation, analýze a scénářích, kde agenti diskutují a iterují na řešení.

LlamaIndex

Knowledge-first přístup. Nejlepší volba, když je jádrem agenta práce s daty — RAG, structured queries, knowledge graphs.

V praxi frameworky kombinujeme. Typická architektura: LangGraph jako orchestrátor hlavního workflow, LlamaIndex pro knowledge retrieval, vlastní governance layer pro validaci akcí. Žádný framework neřeší všechno — a to je v pořádku.

Produkční patterny, které fungují

Teorie je hezká, ale co skutečně nasazujeme? Tři patterny, které vidíme v každém druhém projektu.

Human-in-the-loop jako first-class citizen

Nejde o „failsafe pro případ, že agent selže." Human-in-the-loop je architektonický pattern. Agent navrhne akci, systém ji prezentuje člověku ke schválení, člověk potvrdí nebo upraví, agent pokračuje. Klíčové je, že tato smyčka je navržená od začátku — ne přilepená na konec.

LangGraph má pro tohle nativní podporu přes interrupt nodes a persistent checkpointing. Agent se zastaví v definovaném bodě, stav se serializuje, člověk dostane notifikaci, rozhodne se, a agent pokračuje od checkpointu. Celé asynchronně — žádné čekání v paměti.

# LangGraph — interrupt pro schválení akce
@node
def propose_refund(state: AgentState):
    amount = state["calculated_refund"]
    if amount > 5000:
        return Interrupt(
            action="approve_refund",
            payload={"amount": amount, "reason": state["reason"]}
        )
    return {"approved": True, "amount": amount}

Tool use s guardrails

Každý tool call prochází validační vrstvou. Ne proto, že LLM nedokáže zavolat API správně — většinou dokáže. Ale proto, že chceme audit trail, rate limiting, input sanitization a možnost tool call vetovat. V praxi to znamená, že mezi agentem a skutečným API je middleware, který každý call loguje, validuje parametry a kontroluje oprávnění.

  • Input validation: SQL injection, path traversal, nadměrné rozsahy dotazů
  • Rate limiting: agent nemůže zavolat 1000 API requestů za minutu
  • Output filtering: odpovědi z tools se filtrují na PII před vrácením agentovi
  • Cost controls: budget per session, alerting při překročení

Multi-agent orchestrace

Jeden agent, který dělá všechno, nefunguje. Stejně jako v software engineeringu — monolity nahrazujeme specializovanými službami. V agentním světě to znamená: router agent analyzuje intent, deleguje na specializovaného agenta (support, billing, technical), governance agent validuje výstup.

Důležitý detail: agenti nekomunikují volně. Komunikace jde přes definované kanály s jasným schématem zpráv. Žádný agent nemůže přímo ovládat jiného agenta — může jen poslat request, který druhý agent zpracuje podle svých pravidel. Je to microservices architektura aplikovaná na AI.

Co musí CTO vědět před nasazením

Pokud zvažujete nasazení agentního systému, tady jsou věci, které si většina týmů uvědomí příliš pozdě.

  • Náklady nejsou lineární. Agent, který zpracuje 100 requestů denně, stojí X. Agent, který zpracuje 10 000, nestojí 100×X — stojí víc, protože složitější dotazy generují delší reasoning chains, víc tool calls a víc retrieval operací.
  • Evals jsou důležitější než model. Rozdíl mezi GPT-4o a Claude 3.5 Sonnet je v praxi menší než rozdíl mezi dobrým a špatným eval pipeline. Investujte do evaluací, ne do honby za nejnovějším modelem.
  • Provozní overhead je reálný. Agent v produkci potřebuje monitoring, alerting, on-call rotaci a incident response proces — stejně jako každý jiný kritický systém. Budete potřebovat lidi, kteří rozumí jak ML, tak ops.
  • Regulace se zpřísňuje. EU AI Act kategorizuje high-risk systémy. Pokud váš agent rozhoduje o lidech (HR, finance, zdravotnictví), potřebujete conformity assessment, dokumentaci a lidský dohled.
  • Start small. Nasaďte agenta na jeden jasný use case s měřitelným dopadem. Dokažte hodnotu, naučte se provozovat a pak škálujte. „AI transformace" začíná jedním agentem, který funguje.

Jak to stavíme v CORE SYSTEMS

V CORE SYSTEMS stavíme agentní systémy pro enterprise klienty — banky, logistiku, retail. Nejsme AI startup, který prodává demo. Jsme systémová firma, která dodává řešení do produkce a pak je provozuje.

Náš přístup je pragmatický: začínáme discovery workshopem, kde identifikujeme use case, definujeme metriky úspěchu a zmapujeme datové zdroje. Pak stavíme MVP s omezeným scope — jeden agent, jeden workflow, měřitelný výsledek. A teprve když MVP prokáže hodnotu, rozšiřujeme.

Každý systém, který dodáváme, má: governance layer, audit trail, eval pipeline, monitoring dashboard a incident playbook. Ne proto, že je to cool — ale proto, že bez toho nemůžete agenta zodpovědně provozovat. A zodpovědnost je to, co odlišuje produkční systém od prototypu.

Používáme kombinaci open-source frameworků (LangGraph, LlamaIndex) a vlastních komponent pro governance, security a integraci s enterprise systémy. Nejsme vendor-locked na jednoho poskytovatele LLM — podporujeme OpenAI, Anthropic, Azure i on-premise modely, protože v regulovaných odvětvích je volba infrastruktury rozhodující.

Závěr: Agenti jsou software engineering problém

Největší poučení z posledních dvou let? Agentní AI není primárně ML problém — je to software engineering problém. Modely jsou dostatečně schopné. Co rozhoduje o úspěchu, je architektura kolem nich: jak řídíte tok dat, jak definujete hranice, jak měříte kvalitu a jak reagujete na selhání.

Firmy, které k agentům přistoupí jako k softwarovému systému — s testy, CI/CD, monitoringem a incident procesem — budou úspěšné. Ty, které je budou stavět jako prompt engineering projekt, budou pořád jen prototypovat.

CORE SYSTEMS — AI & Agentic Systems tým

Navrhujeme a provozujeme agentní AI systémy pro enterprise klienty. Od discovery workshopu přes MVP až po produkční provoz.

Další články
Další krok

Chcete agentní AI v produkci?

Začněme discovery workshopem. Zmapujeme váš use case, definujeme metriky a navrhneme architekturu, která má šanci přežít kontakt s realitou.

Domluvme si workshop