RAG je nejpraktičtější způsob, jak dostat AI do firemního prostředí bezpečně. Pokud chcete výsledky bez halucinací a s dohledatelností, postavte knowledge layer jako produkt — ne jako vedlejší efekt chatbota.
Než začnete indexovat, musíte vědět, co máte. Kde jsou dokumenty? Kdo je vlastní? Jak poznáte, že dokument je platný — a ne zastaralá verze z roku 2019?
Inventura není technický krok — je to organizační. Mluvte s lidmi, kteří dokumenty tvoří a používají. Zjistěte, kde jsou autoritativní zdroje a kde jsou kopie kopií.
Každý dokument potřebuje metadata. Bez nich je knowledge base jen hromada textu, ze které model čerpá bez kontextu — a to je recept na halucinace a bezpečnostní incidenty.
Metadata umožňují filtrovat retrieval: uživatel z oddělení A nesmí dostat odpověď z dokumentů oddělení B. Citlivost, oddělení, platnost a jazyk jsou minimum.
Špatný chunking je nejčastější příčina špatných odpovědí. Dělit dokument na 500-tokenové kousky bez ohledu na strukturu je jako stříhat knihu nůžkami a doufat, že úryvky budou dávat smysl.
Dobrý chunk je samonosný — dává smysl i bez okolního textu. Současně potřebuje kontext: z jakého dokumentu pochází, jaká je kapitola, co je nad ním a pod ním.
Samotné vektory nestačí. Vektorový search je silný na sémantickou podobnost, ale slabý na přesné termy, čísla a specifické názvy. Proto potřebujete hybridní přístup.
Kombinace vektorového searche a full-text searche s metadatovými filtry je standard. Váhy mezi nimi ladíte podle typu dotazů vašich uživatelů.
Každá odpověď musí mít zdroj. Uživatel musí vidět, z jakého dokumentu AI čerpala — a mít možnost si to ověřit. Odpověď bez citace je tvrzení bez důkazu.
A když retrieval nevrátí relevantní výsledky? Agent musí říct „nevím" nebo „nemám dostatek informací." Halucinace vznikají, když model odpovídá i bez podkladů — a to je přesně to, čemu chcete zabránit.
Máte dva druhy evalů: testy retrievalu a testy odpovědí. Oba potřebujete. Retrieval eval měří, jestli systém vrací správné dokumenty. Answer eval měří, jestli model z nich generuje správnou odpověď.
Golden dataset je základ: sada otázek → očekávané zdrojové dokumenty → očekávané odpovědi. Bez něj nevíte, jestli se systém zlepšuje nebo zhoršuje.
Knowledge layer je produkt. A produkty se provozují: monitoring, údržba, optimalizace. Nasadit RAG a „nechat to běžet" je cesta k postupné degradaci kvality.
Sledujte, na co se uživatelé ptají. Identifikujte top dotazy (abyste je optimalizovali), neúspěšné dotazy (abyste přidali zdroje) a náklady (abyste řídili budget).
RAG bez halucinací není o lepším modelu. Je o lepším systému kolem modelu: čisté zdroje, správná metadata, dobrý chunking, hybridní retrieval, povinné citace a průběžné eval. Postavte knowledge layer jako produkt — s vlastním týmem, metrikami a release procesem.