Interní AI asistent pro firmu bez miliardového rozpočtu¶
Každý druhý ředitel v Česku teď řeší, jak zavést AI do firmy. Výsledek? Většinou nakoupí licence na ChatGPT Teams, pošlou zaměstnancům email „teď máme AI” a čekají, co se stane. Šest měsíců nato se v reportu ukáže, že ho aktivně používají tři lidi — a dva z nich jsou z IT.
Problém není v AI. Problém je v přístupu.
Tento článek je pro firmy, které chtějí AI asistenta, co reálně šetří čas a peníze — ne marketingový experiment. Bez miliardového rozpočtu. Bez armády datových vědců. Se třemi konkrétními use cases, ROI kalkulací a plánem na 30 dní.
Proč firmy selhávají při nasazování AI¶
Majority AI projektů ve firmách selže ne proto, že by byl LLM špatný. Selžou kvůli třem opakujícím se chybám:
1. Nasazují obecný nástroj na specifický problém
ChatGPT nezná vaše procesy, váš interní žargon ani vaši historii. Zaměstnanec se zeptá „Jak se u nás schvaluje dovolená?” — a dostane generickou odpověď o best practices. To k ničemu není. Potřebujete asistenta, který zná vaši firmu.
2. Nevědí, co chtějí zautomatizovat
“Chceme AI” není use case. Je to jako říct “chceme software”. Úspěšné projekty začínají od konkrétního bolestivého místa: kde ztrácíme nejvíc času na repetitivní věci? Kde se dělají chyby protože někdo hledá info na pěti místech najednou?
3. Ignorují bezpečnost dat
Firemní dokumenty, smlouvy, interní procesy — to nesmí skončit v trénovacích datech OpenAI. Přitom polovina firem toto téma při výběru nástroje vůbec neřeší. A pak se diví, proč IT odmítne projekt podpořit.
Řešení je jednoduché: vlastní asistent, napojený na vaše data, s jasně definovanými use cases.
3 use cases, kde interní asistent skutečně funguje¶
1. HR onboarding¶
Nový zaměstnanec nastoupí. Má hromadu otázek: Jak funguje docházka? Kde jsou formuláře pro výdaje? Co je firemní benefit k zdravotnímu pojištění? Jak se přihlásím do systému X? Koho zavolat, když mi nefunguje notebook?
Tyto otázky padají na HR opakovaně, každý měsíc. HR odpovídá na e-maily, Slack zprávy, telefonáty. Odhadněte: průměrná firma s 50 zaměstnanci a 10% fluktuací má ročně 5 nástupů. Každý onboarding = 3–5 hodin práce HR navíc (odpovědi na dotazy, hledání dokumentů, vysvětlování).
AI asistent napojený na onboarding dokumentaci, firemní wiki a FAQ odpoví okamžitě, 24/7, v libovolném jazyce. HR se může věnovat věcem, kde je člověk nenahraditelný.
Co potřebujete: Existující onboarding dokumenty (i v PDF), Confluence nebo Google Docs, case study z prvního měsíce nového zaměstnance.
Co si asistent nesmí vymýšlet: Cokoliv, co není v dokumentech. Proto musí každá odpověď uvádět zdroj — konkrétní dokument, konkrétní stránku. Jinak asistent lže sebejistě.
2. Interní zákaznická podpora (helpdesk)¶
Helpdesk ve střední firmě vyřídí denně desítky ticketů. Velká část z nich jsou opakující se dotazy: reset hesla, přístup do systému, kde je tento formulář, jak nastavit VPN, proč mi nefunguje tiskárna. L1 podpora tráví 60–70 % času na ticketech, které by šlo vyřešit automaticky.
AI asistent jako první vrstva helpdesku: - Odpoví na standardní otázky z knowledge base okamžitě - Pro složitější případy připraví kontext a navrhne řešení agentovi - Eskaluje na člověka tam, kde si není jistý
Klíčové číslo: průměrná cena L1 helpdesk ticketu v ČR je 200–400 Kč (čas agenta). Pokud asistent vyřeší 40 % ticketů automaticky, při 100 ticketech měsíčně ušetříte 8 000–16 000 Kč měsíčně. Jen z jednoho oddělení.
3. Automatizace reportů¶
Každý týden nebo měsíc někdo v každé firmě sestavuje reporty. Tahá data z různých systémů, kopíruje do Excelu, formátuje, komentuje. Trvá to hodiny. Je to stereotypní práce, kterou nikdo nemá rád — a přitom je kritická.
AI asistent zvládne: - Načíst data z firemních systémů (ERP, CRM, Google Sheets) přes API nebo export - Sestavit strukturovaný report v definovaném formátu - Přidat komentáře k anomáliím (“Prodeje v regionu X klesly o 15 % meziměsíčně”) - Rozeslat report ve správný čas správným lidem
Tohle není science fiction — jde to postavit za víkend s existujícími nástroji.
Co potřebujete technicky¶
Interní AI asistent se skládá ze čtyř komponent. Žádná nevyžaduje specializovaný tým nebo velký budget.
1. LLM — mozek asistenta¶
Máte dvě cesty:
API (cloud): OpenAI GPT-4o mini, Anthropic Claude Haiku, nebo Google Gemini Flash. Platíte za tokeny (znaky), ne za server. Pro střední firmu s 50 uživateli vychází měsíční náklady na 500–2 000 Kč. Výhoda: nulový setup, okamžitě k dispozici. Nevýhoda: data odcházejí k třetí straně (viz sekce bezpečnost).
Open-source on-premise: Llama 3.3 (70B), Mistral, nebo Qwen. Běží na vašem serveru nebo v privátním cloudu. Větší initial setup (GPU server nebo cloud VM), ale data nikdy neopustí vaši infrastrukturu. Pro 50 uživatelů stačí jedna A10G nebo A100 karta, náklady ~15 000–25 000 Kč/měsíc při cloudovém provozu nebo jednorázový hardware.
Doporučení pro začátek: Začněte s API pro rychlý PoC. Pokud projekt funguje, zvažte přechod na on-premise pro citlivé use cases.
2. Knowledge base — paměť asistenta¶
Toto je místo, kde většina projektů dělá největší chybu — buď to přeskočí úplně (asistent pak halucinuje), nebo to přehání (stráví měsíce “čištěním dat” a nikdy nespustí).
Praktický přístup:
Krok 1: Inventura dokumentů
- Kde jsou vaše firemní dokumenty? (Confluence, SharePoint, Google Drive, PDF složky)
- Které jsou aktuální a spolehlivé?
- Které jsou zastaralé nebo duplicitní?
Krok 2: Minimální viable knowledge base
- Vyberte 20-50 nejdůležitějších dokumentů pro váš use case
- Nekupy vše — méně, ale kvalitní, je lepší než víc šumu
Krok 3: Ingestion
- Dokumenty → chunky (300-500 tokenů, overlap 50 tokenů)
- Embeddings → vektorová databáze (Qdrant, Chroma, nebo Weaviate — vše open-source)
- Metadata: název dokumentu, datum aktualizace, oddělení
Dobrou zprávou je, že nástroje jako LlamaIndex nebo LangChain zvládnou ingestion pipeline za pár hodin práce.
3. Retrieval — jak asistent hledá informace¶
Když uživatel položí otázku, asistent musí najít relevantní části z knowledge base a předat je LLM jako kontext. To je RAG (Retrieval-Augmented Generation) — základ každého firemního asistenta.
Minimální setup:
# Zjednodušený příklad s LlamaIndex
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from llama_index.llms.openai import OpenAI
# Načti dokumenty
documents = SimpleDirectoryReader("./firemni_dokumenty").load_data()
# Vytvoř index
index = VectorStoreIndex.from_documents(documents)
# Dotaz
query_engine = index.as_query_engine(
llm=OpenAI(model="gpt-4o-mini"),
similarity_top_k=5
)
response = query_engine.query("Jak se schvaluje dovolená?")
print(response)
print("Zdroje:", [node.metadata["file_name"] for node in response.source_nodes])
4. Interface — kde asistent žije¶
Nemá smysl budovat fancy UI, pokud nikdo asistenta nebude používat. Začněte tam, kde vaši lidé už jsou:
- Slack nebo Teams: Bot, kterého zavoláte v DM nebo v kanálu. Nejnižší bariéra adopce.
- Jednoduchý web chat: Streamlit nebo Gradio za den práce. Stačí pro PoC.
- E-mail asistent: Pro reporty — asistent dostane trigger a pošle výsledek emailem.
Fancy portál s histork, uživatelskými účty a dashboardem přidáte, až budete vědět, že to funguje.
Bezpečnost a data: co nesmí opustit firmu¶
Tohle je téma, které se musí řešit od začátku, ne na konci projektu.
Co typicky nesmí jít do cloud API: - Smlouvy s obchodními partnery - Mzdová data a HR záznamy - Strategické plány a M&A dokumenty - Osobní údaje zákazníků (GDPR) - Zdrojový kód proprietárních systémů
Praktická pravidla:
-
Klasifikujte data předem. Rozdělte dokumenty do kategorií: veřejné, interní, důvěrné. Důvěrná data → pouze on-premise model.
-
Smlouva o zpracování dat (DPA). Pokud používáte cloud API, uzavřete DPA s providerem. OpenAI, Anthropic i Google je nabízejí. Ujasněte si, zda provider může data použít k trénování (defaultně ne pro enterprise plány).
-
PII scrubbing. Než dokumenty naindexujete, odstraňte nebo maskujte osobní údaje. Nástroje jako Presidio (Microsoft, open-source) to zvládnou automaticky.
-
Audit log. Každý dotaz a odpověď logujte — kdo se ptal, kdy, co, z jakého zdroje přišla odpověď. Je to nezbytné pro compliance i pro ladění kvality.
-
Access control. Ne každý zaměstnanec má přístup ke všem dokumentům. Knowledge base musí respektovat existující přístupová práva. Pokud dokument smí číst jen manažeři, asistent ho nesmí citovat zaměstnancům.
ROI kalkulace: čas ušetřený × hodinová sazba¶
Pojďme na čísla. Příklad: firma s 80 zaměstnanci, průměrná hodinová sazba interní práce 500 Kč.
| Use case | Ušetřený čas/měsíc | Počet případů | Úspora/měsíc |
|---|---|---|---|
| HR onboarding (5 nástupů/rok) | 4h/nástup → 20h/rok | 5 nástupů | ~835 Kč/měsíc |
| Helpdesk L1 (100 ticketů/měsíc, 40 % auto) | 15 min/ticket → 10h | 40 ticketů | 5 000 Kč/měsíc |
| Měsíční reporty (3 reporty) | 3h/report → 9h | 3 reporty | 4 500 Kč/měsíc |
| Celkem | ~10 335 Kč/měsíc |
Náklady na provoz asistenta (API + server): - Cloud API (GPT-4o mini): ~1 500 Kč/měsíc - Vektorová databáze (Qdrant cloud nebo self-hosted): ~500–1 000 Kč/měsíc - Maintenance (½ dne vývojáře měsíčně): ~4 000 Kč/měsíc
Celkové náklady: ~6 000–6 500 Kč/měsíc ROI: ~60 % čistého zisku, návratnost počáteční investice do 3–4 měsíců
A toto jsou konzervativní čísla — nepočítáme zvýšenou spokojenost zaměstnanců, rychlejší onboarding ani chyby eliminované automatizací reportů.
Jak začít: 3 kroky pro pilotní projekt do 30 dní¶
Nesnažte se udělat vše najednou. Tři týdny, jeden use case, deset uživatelů.
Krok 1 (dny 1–7): Definice a data¶
Vyberte jeden konkrétní problém. Nejsnadnější start: interní knowledge base pro HR onboarding nebo helpdesk FAQ.
Checklist: - [ ] Identifikujte 20–50 relevantních dokumentů - [ ] Zkontrolujte jejich aktuálnost (zastaralý dokument = špatné odpovědi) - [ ] Rozhodněte: cloud API nebo on-premise model? - [ ] Nastavte základní přístupová práva
Krok 2 (dny 8–21): Postavení PoC¶
Technický minimální viable product:
# 1. Setup (1 den)
pip install llama-index openai qdrant-client
# 2. Ingestion pipeline (2 dny)
# Načtení dokumentů → chunking → embeddings → Qdrant
# 3. Query engine (1 den)
# RAG pipeline: dotaz → retrieval → LLM → odpověď se zdroji
# 4. Slack bot nebo web UI (2 dny)
# Slack Bolt SDK nebo Streamlit
Celkem: 6–8 dní práce jednoho vývojáře s Pythonem.
Krok 3 (dny 22–30): Pilotní provoz a měření¶
Nasaďte pro 10 vybraných uživatelů. Měřte: - Počet dotazů denně - Hodnocení odpovědí (thumbs up/down) - Dotazy, kde asistent selhal nebo odpověděl špatně - Čas ušetřený uživateli (ptejte se přímo)
Po 30 dnech máte data. Buď projekt škálujete, nebo upravujete směr. Žádné půlroční projekty s nejistým výsledkem.
Co si odnést¶
Interní AI asistent není sci-fi a není pro velké korporace. Je to praktický nástroj, který dnes zvládne postavit každý vývojář s Pythonem za méně než měsíc práce.
Klíčové body: - Začněte od problému, ne od technologie — kde ztrácíme nejvíc času na repetitivní věci? - Méně dat, ale kvalitních — 50 dobrých dokumentů je lepší než 500 špatných - Bezpečnost od začátku — klasifikujte data, nastavte audit log, ošetřete přístupová práva - Měřte od prvního dne — bez čísel nevíte, zda to funguje
A hlavně: nezačínejte s “AI strategií”. Začněte s jedním use casem, deseti uživateli a třiceti dny.
Stavíte interního AI asistenta a narazili jste na problém? Nebo chcete poradit s architekturou před zahájením? Napište nám — od skici přes PoC až po produkci.
Potřebujete pomoc s implementací?
Naši experti vám pomohou s návrhem, implementací i provozem. Od architektury po produkci.
Kontaktujte nás