Experimentovat s umělou inteligencí je pro byznys riziko

Zdroj: Pixabay

Titulek má říct, že na rozdíl od jiných softwarových technologií by firmy měly zvlášť uvážit, zda zpřístupní pro zákazníky a uživatele nehotové verze umělé inteligence.

Když Google zkušebně začlenil do svého vyhledávání AI chatbot Bard, v reakci na jeho neuspokojivé fungování klesla hodnota firmy v jediném dnu o 100 miliard dolarů. Výzkum vědců z Indiana University a University of Minnesota vede k závěru, že bez ohledu na další vývoj cen akcií může být škoda pro Google i dlouhodobější. Jádro sdělení zní: dodavatelé softwaru samozřejmě vydávají nehotové, neodladěné, neúuplné produkty, někdy i přímo deklarované jako zkušební (beta apod.) verze a následně opravují chyby a poskytují další funkce, v případě umělé inteligence to ale nemusí být nejlepší strategie.
Studie uvádí jako speciální termín „averzi /lidí/ k algoritmům“. Určitá část uživatelů má nedůvěru k těmto technologiím ve větší míře, než když se dejme tomu přechází na jiný typ uživatelského rozhraní. Umělá inteligence samozřejmě stejně jako jiná technologie dělá chyby, jenže právě zde to mají mít lidé tendenci méně tolerovat. Ztratí spíš důvěru a budou se příslušné službě v budoucnu spíše vyhýbat (poznámka: zřejmě prostě proto, že s termínem „umělá inteligence“ se spojují speciální očekávání a obavy). Proto by technologie měla být masově nasazována až poté, co dokáže prvotní nedůvěru uživatelů překonat – a jistěže chyby se objeví i poté, ale to už je jednou „navyklí“ uživatelé odpustí. Naopak první špatný dojem je už obtížné zvrátit, i když budou lidé vyhledávání Googlu používat i nadále.
„Jiná situace nastala u chyb, které se objevily poté, co uživatelé již měli za sebou dostatek úspěšných interakcí s algoritmem a vybudovali si důvěru. V takových případech byli k chybě algoritmů shovívavější a považovali ji za jednorázovou náhodu. Výsledkem bylo, že úroveň důvěry ve spolehlivost služby výrazně neutrpěla,“ tvrdí autoři výzkumu.
Jedno z uváděných doporučení pro Google (a jiné firmy s významnou pozicí v určité službě) např. je, aby chatbota s umělou inteligencí poskytovaly volitelně, v případě nejistoty (spolehlivost pod určité skóre) se vše přepínalo do služeb předchozích – které konec konců fungují celkem uspokojivě.

Antino Kim et al, When Algorithms Err : Differential Impact of Early vs. Late Errors on Users‘ Reliance on Algorithms, ACM Transactions on Computer-Human Interaction (2022). DOI: 10.1145/3557889
Zdroj: Indiana University / Phys.org

Poznámka PH: Jak chybové/nedokonalé bylo na počátku třeba grafické uživatelské rozhraní? Z druhé strany, může si třeba Google dovolit podobnou technologii dnes, v době boomu ChatGPT, dovolit nenabídnout?

Exit mobile version