AI transformuje téměř všechna odvětví, dokonce i to své vlastní. Na začátku roku 2025 čínský velký jazykový model (LLM) DeepSeek R1 na krátkou dobu nahradil ChatGPT ve veřejné diskusi, což vyvolalo spekulace o posunu rovnováhy sil v oblasti AI a přispělo k volatilitě na technologických trzích. Po celém světě země deklarovaly svůj záměr stát se supervelmocemi v oblasti AI, zatímco hyperscalery podle odhadů do roku 2028 utratí 1 bilion dolarů za infrastrukturu optimalizovanou pro AI.
Také podniky investují značné prostředky. V Asii společnost IDC zjistila, že 100 nejvýznamnějších společností v regionu plánuje věnovat 50 % svých rozpočtů na IT na AI. Ne všechny projekty jsou však úspěšné – společnost Gartner uvádí, že téměř třetina iniciativ v oblasti AI nepřináší obchodní hodnotu.
Je zřejmé, že zlatou horečku v oblasti AI nelze ignorovat, ale účast v ní vyžaduje značné investice. Jak tedy mohou organizace maximalizovat šance na úspěch projektů v oblasti AI a co je třeba zvážit, pokud jde o základní infrastrukturu?
Požadavky AI na výpočetní výkon a úložiště
Pracovní zatížení AI lze rozdělit do dvou širokých kategorií: trénování, kdy se model učí z datového souboru, a inference, kdy aplikuje to, co se naučil, na nová data. Kritické kroky se však provádějí ještě před trénováním, včetně sběru, přípravy a kurátorství dat. Povaha těchto podkladů se velmi liší, od archivních dat po strukturované transakční databáze, často s nepředvídatelnou správou dat.
Společným znakem je, že AI je náročná na zdroje. Spotřeba energie a náročnost zpracování GPU během trénování jsou dobře známé. Časté kontrolní body během trénování pouze zvyšují nároky na infrastrukturu. Tyto kontrolní body zajišťují obnovitelnost modelu, možnost vrácení zpět a soulad s předpisy, což dále zvyšuje potřeby kapacity úložiště dat a související spotřebu energie.
Generování rozšířené o vyhledávání (RAG), které integruje interní datové sady do LLM, zavádí další složitost úložiště, protože se spoléhá na vektorizovaná data – datové sady převedené do vysokorozměrných vektorů, aby bylo možné provádět srovnání podobnosti. Tato transformace může výrazně zvětšit velikost datové sady, někdy až desetinásobně.
Po tréninku vyžaduje inference obecně méně výpočetního výkonu, ale stále zahrnuje průběžné ukládání dat – jak pro zaznamenávání výsledků, tak pro samotná analyzovaná data.
Výkon, rozsah a kompromisy
Dalším kritickým faktorem je rostoucí energetická náročnost umělé inteligence. Některé zdroje uvádějí, že zpracování umělé inteligence vyžaduje více než 30krát více energie než tradiční úkolově orientovaný software a že energetické požadavky datových center se do roku 2030 více než zdvojnásobí. Na úrovni racků vzrostla spotřeba energie z méně než 10 kW na 100 kW, v některých klastrech AI dokonce ještě více, a to především kvůli požadavkům na vysoce výkonné GPU.
To s sebou nese kompromis: každý watt spotřebovaný datovým úložištěm je watt, který není k dispozici pro GPU. Efektivní a vysoce výkonné úložiště je nezbytné pro rychlé dodávání dat do GPU při minimalizaci zátěže již tak omezených energetických rozpočtů. Úložiště dat může také přinést další zvýšení výkonu, například prostřednictvím klíčových hodnotových cache, které uchovávají často používaná data, výzvy a konverzace, aby se snížilo opakované zpracování GPU. Informace v cache mohou zlepšit odezvu, a to i u vysokofrekvenčních úloh, jako jsou RAG, obchodování a chatboty. Celkově může cache zrychlit inferenci až 20krát, maximalizovat účinnost GPU, snížit náklady, spotřebu energie a umožnit škálovatelné a responzivní podnikové aplikace AI.
Úložiště musí držet krok
Úlohou datového úložiště v infrastruktuře AI je poskytovat vysoký průchod a přístup k velkým datovým sadám s nízkou latencí. Špatný výkon úložiště může způsobit úzká místa v GPU, což snižuje hodnotu drahého výpočetního hardwaru.
AI úlohy obvykle vyžadují stovky terabajtů, ne-li petabajtů kapacity, a schopnost rychle načítat data – ať už pro trénování nových modelů, provádění inferencí nebo integraci nových datových zdrojů. To se týká nejen potřeb v reálném čase, ale také archivních dat, která mohou být znovu použita nebo zpracována. QLC flash s vysokou hustotou se ukázal jako ideální řešení pro vysoce výkonné úložné potřeby AI díky kombinaci rychlosti, kapacity, spolehlivosti a energetické účinnosti při použití ve správné moderní úložné platformě. Použití QLC znamená, že zákazníci mohou ukládat data na flash úložiště za náklady, které se blíží nákladům na rotující disk, ale mohou k nim přistupovat rychlostí nezbytnou pro AI úlohy.
Integrovaná infrastruktura připravená pro AI
Někteří dodavatelé nyní nabízejí úložné systémy přizpůsobené pro AI pracovní zatížení, včetně řešení certifikovaných pro spolupráci s výpočetními stacky Nvidia. Ty mohou být dodávány v balíčku s optimalizovanými RAG pipeline a integrovány s mikroslužbami Nvidia, což zjednodušuje nasazení a zlepšuje konzistenci výkonu.
Strategická infrastruktura pro úspěch AI
Poskytování AI v měřítku vyžaduje více než jen výkonné GPU. Závisí to na základech robustní, efektivní a responzivní infrastruktury.
Úložiště dat hraje v tomto základu klíčovou roli. Od nejranějších fází přípravy dat, přes trénink až po inferenci orientovanou na zákazníka, jsou AI úlohy závislé na rychlých, škálovatelných a stále energeticky úspornějších úložných řešeních. Bez nich i ty nejlépe financované projekty riskují, že pod tíhou vlastní složitosti selžou.
Autor Patrick Smith je Field CTO EMEA ve společnosti Pure Storage.














