_CORE

Rok 2026 není „další rok AI“. Je to rok, kdy se AI konečně potkává s fyzikou: elektrika, chlazení, optika, supply chain a datacentrový real estate. Podle finančních projekcí a komentářů firem plánují čtyři hyperscalers (Amazon, Alphabet/Google, Microsoft a Meta) dohromady utratit cca $650–700 miliard kapitálových výdajů (capex) — z velké části na AI compute, datacentra a networking. Pro enterprise to znamená jediné: compute se stává strategická surovina a vaše architektura i procurement se musí změnit.

Capex race v číslech: proč se najednou bavíme o stovkách miliard

V posledních týdnech se opakují dvě podobná čísla: $650B (konzervativnější součet) a téměř $700B (agregace podle některých analýz). Nejde o marketing — jsou to konkrétní capex výhledy a jejich extrapolace.

  • Amazon oznámil projekci $200B capex pro rok 2026 napříč „AI, chips, robotics, and low earth orbit satellites“. (TechCrunch, 5. 2. 2026)
  • Alphabet (Google) mluví o $175–185B capex pro 2026, výrazně nad rokem 2025. (TechCrunch, 5. 2. 2026)
  • Meta očekává $115–135B capex pro 2026. (CNBC, 6. 2. 2026; TechCrunch, 5. 2. 2026)
  • Microsoft neměl jednotný roční výhled v citovaných materiálech, ale kvartální capex kolem $37.5B implikuje řádově ~$150B/rok při podobném tempu. (TechCrunch, 5. 2. 2026)

Proč by vás to mělo zajímat? Protože hyperscalers tímto tempem mění cenotvorbu cloudu, dostupnost GPU kapacit, priority regionů a v konečném důsledku i to, kdo bude schopný provozovat AI ve velkém.

Compute není jen „GPU“. Je to datacentrový stack — a ten má bottlenecky

Když se řekne „AI infrastruktura“, většina lidí si představí GPU. Realita v roce 2026 je spíš datacentrový supply chain: energopřípojky, trafostanice, transformátory, rozvaděče, UPS, chlazení (liquid), optické transceivery, network fabric a fyzická výstavba. Právě proto capex roste rychleji než výdaje na samotné čipy.

Z pohledu enterprise to má dva důsledky:

  1. Regionální nerovnost kapacit se zvýší. Ne všechny regiony mají stejné možnosti připojení energie a výstavby.
  2. „On-demand“ už nebude default. U některých typů GPU/acceleratorů se prakticky vrací mentalita „capacity reservation“.

Co říkají investoři: růst capex = tlak na free cash flow

Nejde jen o to, kdo postaví víc datacenter. Wall Street sleduje, co to udělá s cash. CNBC shrnuje, že čtyři největší internetové firmy v USA dohromady vytvořily v roce 2025 cca $200B free cash flow, což je pokles oproti $237B v roce 2024 — a dramatičtější propad může teprve přijít kvůli investicím do AI. (CNBC, 6. 2. 2026)

V tom samém textu CNBC uvádí konkrétní odhady:

  • U Amazonu Morgan Stanley podle CNBC očekává v roce 2026 negativní free cash flow ~-$17B, zatímco Bank of America vidí deficit až -$28B.
  • U Alphabetu Pivotal Research podle CNBC projektuje propad free cash flow téměř o 90 % na $8.2B z $73.3B v roce 2025.

Silicon Republic navíc upozorňuje na nervozitu investorů a na to, že predikovaný capex by znamenal růst ~60 % oproti $410B v roce 2025. (Silicon Republic, 6. 2. 2026)

Jaký dopad to bude mít na enterprise: 5 praktických scénářů

1) Cloud pricing: „AI tax“ se nebude jmenovat AI tax

Hyperscalers potřebují návratnost. Jenže „zdražíme GPU“ zní špatně. V praxi čekejte kombinaci: změny discountů, tlak na commitment (Savings Plans/Reserved capacity), bundling (model + runtime + observability) a větší cenový rozdíl mezi regiony.

2) Lead times a rezervace kapacit: vrací se procurement jako engineering problém

Pokud plánujete rollout velké inference platformy (např. customer support, internal copilots, dokumentové workflow), budete řešit kapacity dřív než model. U některých workloadů dává smysl dopředu vyjednat:

  • commitment na GPU nodes / reserved capacity,
  • vícecloud fallback (minimálně 2 providery),
  • alternativní instance types a „acceptable performance tiers“.

3) Model selection bude víc o TCO než o benchmarku

U enterprise use-case často nerozhoduje, jestli model vyhraje o 2 body na benchmarku. Rozhoduje, jestli se dá spolehlivě provozovat s garantovanou latencí a predikovatelnou cenou. To vede k větší adopci patternů jako model routing (levnější model jako default, dražší jen na hard queries).

# Model routing (pseudo) — cost-first fallback # 1) cheap model for 80–90% traffic # 2) escalate to strong model only when needed def route(prompt, risk, sla_ms): if risk == "high" or sla_ms < 800: return "strong-model" if len(prompt) > 6000: return "strong-model" return "cheap-model" # Guardrail: budget per user/session MAX_USD_PER_SESSION = 0.50

4) Inference architektura: batching, quantization, caching jako standard

„Zaplatíme za to“ přestává fungovat, když se škáluje adoption. V roce 2026 vidíme, že enterprise týmy standardizují:

  • prompt caching (stabilní systémové prompty + části konverzace),
  • response caching pro FAQ a opakované dotazy,
  • batching pro non-interactive workloady (summarization, klasifikace),
  • quantization a menší SLM pro „edge“ nebo private workloads.

Pokud chcete jít do hloubky nákladů, doporučujeme i náš interní pohled na AI cost optimization.

5) Bezpečnost a regulace: víc dat, víc logů, víc auditů

Větší AI provoz = víc citlivých dat v promtech, víc integrací, víc identity touchpoints. Pokud budujete agentní workflow, navazuje to přímo na témata z článku Bezpečnost AI agentů v enterprise.

Druhotné efekty: tlak na produktivitu a změna hiringu

Capex race má i sociální dopady. CBS News uvádí, že v roce 2025 firmy přímo odkazovaly na AI při oznámení 55 000 layoffs — více než 12× oproti dvěma letům předtím (data firmy Challenger, Gray & Christmas). Část ekonomů přitom upozorňuje, že firmy mohou AI někdy používat i jako „příběh“ pro layoffs a korekci overhiringu. (CBS News, 3. 2. 2026)

Pro CTO z toho plyne jedna praktická věc: AI se stává součástí operating modelu firmy — nejen projekt v IT. A operating model se mění přes procesy, tooling, security a měření dopadu.

Co dělat v praxi: 90denní plán pro CTO

Krok 1 — Udělejte AI capacity & cost baseline (týden 1–2)

  • Kolik requestů / tokenů / hodin GPU dnes reálně spotřebováváte?
  • Jaké workloady jsou interactive vs batch?
  • Co je „mission-critical“ (SLA) a co může degradovat?

Krok 2 — Zaveďte AI FinOps (týden 2–6)

  • budget per team / per product,
  • cost anomaly detection,
  • standardní patterny: caching, routing, batching.

Krok 3 — Negociujte kapacitu a plánujte vendor risk (týden 4–10)

V prostředí, kde hyperscalers sami řeší kapacitní tlaky, je rozumné mít:

  • alespoň 2 runtime cesty (např. managed API + vlastní inference),
  • exit plán pro kritické use-case (model + data + orchestration),
  • varianty pro sovereign cloud a regulované datové domény.

Krok 4 — Připravte platformu, ne jen POC (týden 6–12)

Pokud chcete „AI ve firmě“, potřebujete platform engineering: identity, secrets, observability, deployment. Není náhoda, že se v enterprise vrací téma Internal Developer Platform. V CORE SYSTEMS to typicky integrujeme do práce týmu Cloud & Platform a AI & Agentic Systems.

Závěr: AI strategie je teď infrastruktura + finance + architektura

$650–700B capex není jen zajímavost z earnings callů. Je to signál, že se AI přesouvá do fáze, kde vítězí ti, kdo umí stavět a provozovat spolehlivou infrastrukturu a zároveň držet TCO pod kontrolou.

Pokud chcete AI škálovat, řešte: capacity planning, AI FinOps, bezpečnost a platform engineering. Rádi s vámi projdeme architekturu, vendor strategii i konkrétní roadmapu.

CORE SYSTEMS — Cloud, AI & Data tým

Pomáháme firmám navrhovat a provozovat AI platformy: od FinOps a security guardrails po produkční inference architekturu a multi-cloud strategy.

Zdroje: TechCrunch (5. 2. 2026), CNBC (6. 2. 2026), Silicon Republic (6. 2. 2026), CBS News (3. 2. 2026). Citované číselné údaje vycházejí z uvedených článků a jejich odkazovaných earnings releases.

Další články
Další krok

Chcete AI platformu s predikovatelnými náklady?

Zmapujeme vaše AI workloady, nastavíme FinOps a navrhneme inference architekturu, která přežije capex race i vendor turbulence.

Domluvme si konzultaci