Přeskočit na obsah
_CORE
Kvalita jako proces

QA, Testing &
Observability

Kvalita je proces. Ne sprint na konci.

AI testujeme jako systém: přesnost, robustnost, bezpečnost, regresní chování.

Observability ≠ Monitoring

Monitoring říká, ŽE je problém. Observability říká PROČ.

Observability je schopnost vidět, co se v systému děje — a proč. Z logů, metrik a trasování.

🔔 Monitoring „API je pomalé. Response time překročil 5s."
🔍 Observability „DB query na tabulce orders trvá 8s kvůli missing indexu po posledním migration."
Příklad z praxe: Incident v produkci — s monitoringem víte, že API je pomalé a letí alerty. S observability vidíte konkrétní trace, který ukazuje, že query na tabulce X trvá 8 sekund, protože po posledním deployi chybí index. Fix trvá 5 minut místo 5 hodin.
Bolí vás to taky?

Kdy je čas řešit kvalitu

Testy jen manuální

QA tým proklikává před každým releasem. Release trvá dny. Regrese se odhalí v produkci.

Produkce je black box

Když spadne, hledáme hodiny. Logujeme, ale nevíme co hledat. Incident = panika.

AI v produkci bez evals

Model běží, ale nevíme jestli degraduje. Žádné metriky přesnosti, žádný drift detection.

Post-mortem = blame game

Incident → hledání viníka místo příčiny. Stejné chyby se opakují, tým se bojí deployovat.

Co dodáváme

Quality & Observability services

Test Automation

Unit, integration, e2e testy. CI pipeline, která běží při každém commitu. Automatizovaná regrese místo manuálního proklikávání.

Testy, které běží samy. Pyramida testů — hodně unit testů, méně integration, minimum e2e. Každý commit projde CI pipeline s automatizovanou regresí za minuty, ne hodiny.

Frameworky: Jest/Vitest pro frontend, pytest/JUnit pro backend, Playwright/Cypress pro e2e. Contract testing (Pact) pro microservices. Paralelní běh pro rychlost.

Flaky test management: Detekce nestabilních testů, karanténa, automatický retry. Flaky testy jsou bug — ne „to je normální".

Performance Testing

Load testing, stress testing, capacity planning. Víte, kolik systém unese, dřív než to zjistí vaši uživatelé.

Znáte limity svého systému. Load testing (k6, Gatling) simuluje reálný traffic. Stress testing najde breaking point. Capacity planning řekne, kdy potřebujete škálovat.

Realistické scénáře: Ne jen „100 requestů za sekundu na jeden endpoint". Simulace reálného user behavior — mix operací, session management, data variance.

Continuous performance: Performance testy v CI/CD. Automatický alert při regresi — response time P95 vzrostl o 20 %? Pipeline selže a vy víte proč.

Observability Stack

Logs, metrics, traces — propojené. OpenTelemetry, Grafana, ELK. Vidíte, co se děje v systému a proč.

Logs + Metrics + Traces = Observability. Tři pilíře propojené přes correlation ID. Z alertu na metriku se prokliknete na trace a z něj na relevantní log. Žádné hledání v tmě.

OpenTelemetry: Vendor-neutral instrumentace. Jednou instrumentujete, posíláte kamkoliv — Grafana Cloud, Datadog, New Relic. Žádný vendor lock-in.

Dashboardy: Golden signals (latency, traffic, errors, saturation) pro každou službu. Business metriky vedle technických. Alerting s runbook linky.

Incident Response

Runbooky, eskalační matice, blameless post-mortems. Incidenty řešíte rychle a systémově, ne v panice.

Systémový přístup k incidentům. Jasné severity levels, eskalační matice, komunikační šablony. Každý ví, co má dělat — žádná panika, žádný chaos.

Runbooky: Step-by-step postupy pro známé incidenty. „High error rate on payment service" → konkrétní kroky diagnostiky a řešení. Automatizované kde to jde.

Blameless postmortems: Po každém SEV1/SEV2 incidentu. Timeline, root cause, contributing factors, action items. Sdílené s celým týmem — učíme se z chyb, ne hledáme viníky.

AI Evals & Regression

Přesnost, robustnost, bezpečnost, drift detection. Automatizované eval pipeline pro AI systémy v CI/CD.

AI systémy potřebují jiné testy. Přesnost, robustnost, bezpečnost, fairness — metriky, které klasické unit testy neměří. Automatizovaná eval pipeline v CI/CD pro každý model update.

Eval suite: Golden dataset s expected outputs, adversarial testing (prompt injection, edge cases), bias detection. Regrese zachytíte dřív, než se dostane k uživatelům.

Drift monitoring: Distribuce vstupů a výstupů se mění. Detekce data drift a concept drift v produkci. Automatický alert a retrigger evaluace.

Quality Gates

Definition of done, release criteria, automated checks. Žádný deploy neprojde bez splnění kvalitativních podmínek.

Žádný deploy bez splnění podmínek. Definition of done zahrnuje code review, test coverage, security scan, performance baseline. Automatizované quality gates v CI/CD pipeline.

Metriky: Test coverage > 80 %, zero critical/high vulnerabilities, P95 latency pod SLO, no flaky tests. Číselné cíle, ne subjektivní hodnocení.

Release criteria: Smoke testy v staging, canary deployment s automatickou evaluací, rollback trigger. Produkce dostane jen to, co prošlo všemi gates.

Náš přístup

Quality Lifecycle

Kvalitu neřešíme jako jednorázový projekt. Budujeme ji jako kontinuální proces — od auditu přes implementaci po provozní učení.

01

Quality Assessment

Kde jsme dnes? Audit testů, observability, incident procesů. Gap analýza a prioritizace.

02

Strategie & Tooling

Co testovat, jak, čím. Výběr nástrojů, definice quality metrik a SLO/SLI.

03

Implementace

Test automation, observability stack, runbooky. Hands-on delivery, ne jen powerpoint.

04

Integrace do CI/CD

Quality gates v pipeline. Testy a checks běží automaticky — deploy se zastaví, pokud nesplní kritéria.

05

Provozní režim

Continuous testing, incident learning, pravidelné review. Kvalita se zlepšuje s každým sprintem.

Měříme výsledky

Proof metriky

Coverage
Test Coverage

% kódu pod automatickými testy

Confidence
Deploy Confidence

% deployů bez rollbacku

Detection
MTTD

Mean time to detect — minuty, ne hodiny

Recovery
MTTR

Mean time to recovery

AI Quality
AI Eval Score

Precision, recall, safety — trending over time

Nástroje

Tech stack

Jest Cypress Playwright Selenium k6 Gatling JMeter OpenTelemetry Grafana Prometheus Loki Jaeger Zipkin Elasticsearch Kibana Datadog PagerDuty Opsgenie SonarQube pytest LangSmith Ragas
FAQ

Často kladené otázky

Začněte tam, kde to nejvíc bolí. Identifikujte kritické business flows a napište pro ně e2e testy. Pak přidejte integrační testy pro API a postupně rozšiřujte. Nemusíte mít 100% coverage od prvního dne — důležitější je mít testy, kterým důvěřujete.

Počáteční investice do automation je vyšší, ale ROI se typicky vrátí za 3–6 měsíců. Manuální QA tým, který proklikává regresní testy před každým releasem, stojí víc než udržovaná automatizovaná sada — a je pomalejší a méně spolehlivý.

Monitoring říká ŽE je problém (alert: API response time > 5s). Observability říká PROČ (konkrétní DB query na tabulce orders trvá 8s kvůli missing indexu po posledním migration). Observability kombinuje logy, metriky a traces do korelovaného pohledu na celý systém.

AI testujeme jako systém: měříme přesnost (precision/recall), robustnost (jak reaguje na edge cases), bezpečnost (prompt injection, toxický output) a regresní chování (drift detection). Používáme evaluační frameworky jako LangSmith a Ragas s automatizovanými eval pipeline v CI/CD.

Ne nutně dedikovaný tým, ale SRE principy ano. Error budgets, SLI/SLO, blameless post-mortems a incident response procesy by měl mít každý tým, který provozuje software v produkci. Pomůžeme vám tyto principy zavést bez nutnosti budovat celé SRE oddělení.

Blameless post-mortem se zaměřuje na systémové příčiny, ne na lidi. Struktura: timeline incidentu, root cause analysis, contributing factors, action items s vlastníky a deadliny. Cíl je zlepšit systém tak, aby se stejný incident nemohl opakovat — ne najít viníka.

Kombinací metrik: test coverage, deployment confidence (% deployů bez rollbacku), MTTD (mean time to detect), MTTR (mean time to recovery) a pro AI systémy eval score (precision, recall, safety). Důležitý je trend — ne absolutní číslo.

Čísla, která mluví

Měřitelné výsledky

95%+
Pokrytí automatizovanými testy
<30 min
Mean time to detect
<4h
MTTR produkčních incidentů
99.9%
Dostupnost observability stacku
0
Kritických bugů v produkci / Q
FAQ

Často kladené otázky

Kompletní spektrum — unit testy, integrační testy, E2E automatizaci, performance a load testing, security testing, chaos engineering a AI evaluace. Vše přizpůsobujeme riziku a kontextu projektu.

Pracujeme s Grafana stackem (Prometheus, Loki, Tempo), ELK/OpenSearch, Datadog, Azure Monitor a OpenTelemetry. Volbu řídí existující stack a požadavky na retenci a alerting.

Základní monitoring s alertingem nasadíme za 2–4 týdny. Plný observability stack včetně distributed tracing a custom dashboardů typicky za 6–8 týdnů.

AI evaluace systematicky měří kvalitu AI výstupů — přesnost, relevanci, bezpečnost. Pomáhá detekovat regresi při aktualizaci modelů a zajišťuje konzistentní kvalitu v produkci.

Začínáme risk-based analýzou, identifikujeme kritické cesty a budujeme safety net z integračních a E2E testů. Postupně přidáváme unit testy při refaktoringu. Neblokujeme delivery.

Záleží na rozsahu. Pilotní automatizace pro kritický flow začíná od stovek tisíc Kč. Kompletní test strategie a implementace se pohybuje v řádu jednotek milionů. ROI je typicky pod 6 měsíců.

Další krok

Potřebujete kvalitu, která vydrží roky?

Ozvěte se nám. Uděláme quality assessment, navrhneme strategii a pomůžeme vám vybudovat kvalitu jako kontinuální proces.

Kontaktujte nás