Systémy umělé inteligence umí stále lépe oklamat člověka

Umělou inteligenci lze školit za různým cílem, ať už jde o tvorbu malwaru, sociální inženýrství nebo k jiné (alespoň potenciálně) škodlivé jednání. Generativní umělá inteligence podle nového výzkumu už dokáže celkem efektivně člověka oklamat.

Tvrdí to alespoň Simon Goldstein a Peter S. Park na The Conversation. Přitom rozlišují „halucinace“, jimž občas systémy založené na neuronových sítích mohou propadat kvůli podstatě svého fungování, a skutečně klamání jako cíl (i když ne nutně cíl „vědomý“, to by ale každopádně byla jiná otázka). Obrana proti tomu je velmi obtížná – obecně lze říci, že ten chytřejší (nebo „chytřejší“) obvykle dokáže obelstít toho méně inteligentního, takže budou-li systémy AI inteligentnější než člověk…
Jako příklad klamavé AI uvádějí autoři příslušné studie model Cicero společnosti Meta, který byl navržen pro hru Diplomacie. Společnost Meta tvrdí, že vytvořila model tak, aby byl „převážně čestný a vstřícný“, že by „nikdy úmyslně nepodrazil nohy“ a nenapadl spojence. Jak ale ukazují konkrétní příklady jeho fungování, není to pravda. Tato AI má být naopak mistrem podvodů.
„V jednom příkladu se CICERO dopustil promyšleného podvodu. Umělá inteligence v roli Francie oslovila Německo (lidského hráče) s plánem oklamat Anglii (dalšího lidského hráče), aby se nechala napadnout. Poté, co se CICERO domluvil s Německem na invazi do Severního moře, řekl Anglii, že bude Anglii bránit, pokud někdo napadne Severní moře. Jakmile byla Anglie přesvědčena, že Francie/CICERO chrání Severní moře, CICERO oznámil Německu, že je čas zaútočit.“ A tak dále.
Samozřejmě jde o hru, kde je klamání prostě součástí. Nicméně znepokojivé má být to, že je v něm AI bez problémů úspěšná. Systémy AI již dnes umí také blufovat v pokeru i klamat při simulovaných ekonomických jednáních.
I nejznámější velké jazykové modely (LLM) již prokázaly značné schopnosti podvádět. V jednom případě se model GPT-4 – nejpokročilejší verze LLM dostupná platícím uživatelům – vydával za člověka se zrakovým postižením a přesvědčil pracovníka firmy TaskRabbit, aby za něj vyplnil test CAPTCHA.
Potenciální rizika tohoto zneužívání umělé inteligence jsou omezena pouze představivostí a technickým know-how zločinců. Systémy mohou klamat i prostě proto, aby lépe prošly nějakými testy ve fázi učení. V jednom experimentu výzkumníci vytvořili simulátor umělého života, v němž byl externí bezpečnostní test navržen tak, aby eliminoval rychle se replikující agenty AI. Místo toho se agenti umělé inteligence naučili hrát mrtvé, aby právě při hodnocení svou rychlou replikaci zamaskovali. Zde tedy AI klame ne proto, že k tomu byla záměrně vytvořena, ale z pudu sebezáchovy.
A ještě jiný příklad: V jiném případě někdo pověřil AutoGPT (autonomní systém umělé inteligence založený na ChatGPT), aby zkoumal daňové poradce, kteří prodávají určitý druh schématu pro vyhýbání se placení daní. AutoGPT úkol splnil, ale následně se sám rozhodl, že se pokusí upozornit daňový úřad Velké Británie.
Zde snad AI byla „tím dobrým“, ale sotva chceme, aby se systémy takto chovaly (opět vychází najevo se, že AI „projevuje cíle“, které programátoři původně rozhodně nezamýšleli), navíc to zase ukazuje, jak moc rozumí tomu, co je podvod.
Dokonce i lidé, kteří mají tyto systémy formálně pod kontrolou, se mohou ocitnout v situaci, kdy jsou systematicky klamáni a přelstěni.

Simon Goldstein, Peter S. Park: AI systems have learned how to deceive humans. What does that mean for our future?
Zdroj The Conversation / Phys.org

Exit mobile version