Skupina G7 vydala soubor doporučení ohledně rizik spojených s rozvojem AI

Zdroj: Pixabay

Skupina ekonomicky vyspělých zemí G7 se dohodla na souboru doporučení pro firmy vyvíjející nejsofistikovanější formy umělé inteligence (AI), která mají pomoci najít rovnováhu mezi přínosy těchto technologií a jejich úskalími. Dnes publikovaný nezávazný kodex se skládá z 11 bodů, které vývojáře vyzývají k opatřením na ochranu soukromí či demokracie a k větší transparentnosti. Se samostatnou iniciativou s podobnými prvky zároveň přišla vláda Spojených států.

Oznámené požadavky představují další krok ve stále teprve začínajících snahách o regulaci silných softwarových nástrojů označovaných jako AI. Jejich rozvoj zejména v posledním roce vyvolává mezi politiky a experty obavy zahrnující vše od diskusí o ochraně autorských práv přes potenciální rozmach podvodných videí či audiozáznamů až po úvahy o ztrátě kontroly nad algoritmy.

Cílem nově vydaného kodexu je „pomoci chopit se přínosů a vypořádat se s riziky a výzvami“ spojenými s AI, uvádějí vlády USA, Kanady, Británie, Francie, Německa, Itálie a Japonska. „Organizace by neměly vyvíjet či vypouštět pokročilé systémy AI takovými způsoby, které podkopávají demokratické hodnoty, jsou obzvláště škodlivé pro jednotlivce či komunity, usnadňují terorismus… nebo představují významné riziko pro bezpečnost a lidská práva,“ uvádí prohlášení navazující na diskuse na květnovém summitu G7 v Hirošimě.

Následující seznam 11 zásad obsahuje poměrně vágní formulace a vyzývá například k „přiměřeným opatřením napříč vývojem pokročilých systémů AI“ nebo k „identifikaci a nápravě slabých míst“. Další body volají po sdílení informací s vládami, akademiky i širokou veřejností nebo po dojednání „mezinárodních technických standardů“. Poslední bod se týká potřeby kontrolovat „kvalitu dat“ používaných při výcviku umělé inteligence a potřeby respektovat ochranu soukromí a autorských práv.

Americký prezident Joe Biden ve svém dekretu klade požadavky na řadu resortů americké vlády, od spravedlnosti přes obchod až po vnitřní bezpečnost, a to s cílem například zamezit využití AI k vývoji chemických či jaderných zbraní nebo zajistit důslednější dohled nad využitím AI ve školách.

„Vývojáři těch nejsilnějších systémů umělé inteligence musejí sdílet výsledky svých bezpečnostních testů a další klíčové údaje s americkou vládou,“ stojí v prohlášení Bílého domu. Část nařízení o bezpečnosti se vztahuje na společnosti, které trénují modely se schopností ohrozit „národní bezpečnost, národní ekonomickou bezpečnost nebo veřejné zdraví“.

Celý text Bidenova nařízení bude v americkém federálním rejstříku dokumentů patrně dostupný až za několik dní, z prohlášení Bílého domu nicméně vyplývá, že prezident k jednání vyzývá řadu vládních úřadů. Exekutiva má podle prezidenta zamezit snazšímu shromažďování a zneužívání dat Američanů, chránit zaměstnance před podhodnocením jejich práce nebo zamezit zneužití algoritmů AI pro diskriminaci při shánění zaměstnání nebo nájemního bydlení.

Exit mobile version