Zavádění agentní AI bez silného datového základu a jasných mantinelů představuje riziko. Co by měly firmy udělat, než začnou nasazovat chytré agenty?
Umělá inteligence se rychle stává běžnou součástí podnikových procesů, ale otázka bezpečnosti zůstává v mnoha firmách otevřená. Zatímco sice 66 % organizací počítá s tím, že AI zásadně promění oblast kyberbezpečnosti, jen 37 % má zavedené postupy pro ověřování bezpečnosti AI nástrojů před jejich nasazením, které by umožnily posoudit bezpečnost AI nástrojů dřív, než je začnou používat.
Téměř polovina (48 %) IT lídrů po celém světě dnes pochybuje, že jejich datové základy jsou dostatečně připravené na plné využití agentní AI. A více než polovina (55 %) si není jistá, zda jejich současná bezpečnostní a compliance opatření obstojí v nové realitě2. Jinými slovy, firmy vnímají potenciál AI, ale stále váhají, zda jí mohou bez obav svěřit klíčové části své infrastruktury.
Tento rozpor dobře ilustruje hlavní problém dnešní vlny implementací. AI se nasazuje rychle, ale bez odpovídajících ochranných opatření. Ve chvíli, kdy začneme do infrastruktury zapojovat autonomní agenty, tedy nástroje, které umí samostatně jednat, už nestačí mít „nějaká data“. Potřebujeme data, kterým lze věřit. A potřebujeme přesně vědět, odkud pocházejí, jak se s nimi zachází a kdo k nim má přístup.
Znepokojivý je i nárůst hrozeb spojených se znehodnocováním dat (tzv. data poisoning), kdy útočníci záměrně manipulují trénovací data. Pokud AI vychází z vadného základu, výsledky nemohou být správné a už vůbec ne bezpečné.
Co znamená dobře řízená data v éře AI agentů
Ve většině organizací jsou dnes data roztříštěná napříč systémy a týmy. Vedle strukturovaných databází se pracuje s obrovským objemem nestrukturovaného obsahu – dokumenty, záznamy hovorů, e-maily nebo videa. Tradiční přístupy ke správě dat, které jsou navázané na konkrétní platformy nebo jednotlivé oddělení, v tomto prostředí selhávají.
Tato roztříštěnost dat brání škálování AI, vede k chybám, komplikuje dodržování předpisů a zvyšuje bezpečnostní rizika. Odhady mluví jasně. Bez silného a promyšleného datového základu nebude úspěšných až 60 % AI projektů3. Kdo chce stavět na AI, musí nejdřív postavit pevnou základovou desku.
Agentní AI vyžaduje jednotný a kontextuální přístup k datům nejen z hlediska technologie, ale i kontextu. Proto musíme přehodnotit způsob, jakým nad daty uvažujeme. Nejde o to všechna data fyzicky konsolidovat, to je často nepraktické. Důležitější vytvořit rámec založený na datové plynulosti (data fluidity), který umožňuje jednotný a konzistentní pohled na data včetně jejich souvisejícího kontextu, a to bez ohledu na jejich fyzické umístění.
Bez této změny nebude možné agentům důvěřovat. A bez důvěry nelze AI bezpečně nasadit do kritických procesů.
Tři pilíře datové připravenosti
Zavedení plynulé správy dat není jednorázový projekt, ale dlouhodobý proces, který stojí na několika vzájemně propojených prvcích. Základem je nastavení jednotných pravidel a sdílených klasifikací napříč celou organizací. Jen tak lze dosáhnout konzistence v přístupu k datům napříč různými odděleními a systémy.
Na to navazuje potřeba automatického značkování a klasifikace dat, která umožňuje tato pravidla ve velkém měřítku skutečně uplatňovat. Zvláštní pozornost je nutné věnovat i přístupovým bodům, především API rozhraním, která agenti využívají ke komunikaci se systémy. Právě zde často vznikají bezpečnostní slabiny, pokud nejsou přísně řízeny.
A v neposlední řadě je důležité zajistit šifrování a ochranu dat nejen při přenosu, ale i uvnitř samotné infrastruktury, včetně interních datových toků, komunikace za firewallem a mezi jednotlivými službami. Právě tyto prvky tvoří pevný rámec, bez kterého se agentní AI nemůže opřít o důvěryhodná a bezpečná data.
Agenti potřebují mantinely i dohled
Agentní AI přináší obrovský potenciál v oblasti kyberbezpečnosti, od rychlejší detekce hrozeb po automatizované zásahy. Ale stejně jako u každého nástroje s vysokou mírou autonomie platí, že bez kontroly není důvěra.
Než AI agenty vypustíme do reálného provozu, měli bychom jim připravit prostředí pro bezpečné testování. Sandboxy umožní vývoj a ověření chování agentů na realistických datech, ale bez dopadu na produkční systémy. Je důležité nastavit jasné instrukce, sledovat jejich dodržování a vyhodnocovat výstupy.
Po nasazení agentů musí následovat nepřetržité monitorování. Měli by být schopni fungovat v rámci předem definovaných limitů, a pokud tyto limity překročí, měl by systém umět zasáhnout, stejně jako by to udělal dispečer, který sleduje provoz na síti.
Hybridní model práce s AI kolegy
Nejde o to AI oddělit od lidí, naopak. Nejúčinnější model je ten, ve kterém agenti spolupracují s lidskými kolegy. AI může přebírat rutinní úkoly, pomáhat s analýzou nebo rozhodováním, ale stále potřebuje vedení, zpětnou vazbu a onboarding stejně jako každý nový zaměstnanec.
Firmy by měly své týmy připravit na práci s AI jako s kolegou. To znamená nejen školení a technickou podporu, ale i nový způsob přemýšlení o pracovních procesech. Kde končí role člověka a začíná role agenta? Kdy má AI zasáhnout a kdy předat úkol dál?
Agentní AI bude v příštích letech klíčovým prvkem digitální transformace. Aby ale mohla přinášet skutečnou hodnotu, potřebuje pevný základ. A tím nejsou jen modely a výpočetní výkon, ale především kvalitní data, jasná pravidla a promyšlené zapojení lidí.
Bez toho zůstane AI jen slibem. S tím vším se může stát skutečným partnerem pro bezpečnější a efektivnější fungování firem.
Autor: Věra Janičinová, New Markets Account Executive pro Českou republiku, ze společnosti Salesforce