Lidé spolu s chatboty rádi klamou

Pokud lidé nejednají přímo, ale nechají se nějak zastupovat chatbotem, mají mnohem menší problém uchylovat se ke klamání nebo jiným taktikám, které se pokládají za eticky problematické, včetně přímého lhaní. Má to alespoň vyplývat ze studie informatiků z University of Southern California.

Hlavní autor studie Johnathan Mell to přirovnává k tomu, jako když si člověk na špinavou práci najme někoho jiného. Chatboty v tuto chvíli používají spíše firmy pro základní obsluhu zákazníka, nikoliv k vyjednávání konkrétních obchodních podmínek. To se ale změní, navíc se agentem začnou nechávat zastupovat i jednotlivci na druhé straně, tedy např. lidé pokoušející se o reklamaci nebo vyjednání slevy (asistenti ze současných mobilních telefonů ale nejsou navrženi tak, aby byli „asertivní“).

Výzkumníci provedli sérii experimentů, v nichž zkoumali, za jakých podmínek se lidé při vyjednávání o transakci budou uchylovat k eticky problematickému chování. Kromě zjevné lži sem zařadili i agresivní nátlak, předstírání negativních emocí (hněv) a nechávání si důležitých informací pro sebe.

Obecně platilo, že čím větší zkušenost měli lidé s vyjednáváním, tím s větší pravděpodobností se takto chovali – a to dokonce ani když sami těmto technikám vystaveni nebyli (nebo to nevěděli). Na negativní zkušenost však podobným chováním zareagovali prakticky okamžitě. A nakonec – pokud lidé měli „naprogramovat“ agenta, který by jednal za ně, pak mu často rovnou zadávali pokyn, aby nebral ohledy.

Na tomto základě by se dalo moralizovat o tom, jak nové technologie mají negativní dopad na mezilidské vztahy. Nicméně autoři výzkumu právě dodávají, že nejde o samotnou technologii – o to, zda nás zastupuje robot, ale úplně stejně změní chování lidí už to, když se nechají zastupovat normálním právníkem. Sami by se při určitém chování příjemně necítili, ale nemají problém takové jednání delegovat dále.

Výzkum dále analyzoval interakci lidí s různě se chovajícími agenty, přičemž účastníci experimentu se domnívali, že interagují s živými lidmi. Ukázalo se, že ochota lidí podvádět výrazně vzroste, mají-li lidé pocit, že i protistrana podvádí, naopak ale to, zda se chová mile nebo nezdvořile, už ale roli nehrálo (změnu jednání na „takového hulváta podvedu s chutí“ studie nezaznamenala).

Johnathan Mell et al. The Effects of Experience on Deception in Human-Agent Negotiation. Journal of Artificial Intelligence Research (2020)

Zdroj: University of Southern California/TechXplore.com

Co dodat? Nevyplývá z toho, že by se vývoj virtuálních agentů měl nějak brzdit, asi obdobně, jako se nezakazuje poskytování právních služeb. Nicméně to, jak se lidé při používání agentů chovají, by měli např. nějak zahrnout do svého návrhu architekti různých prostředí typu eBay. Tak například, budou-li agenti díky menším skrupulím dosahovat lepších výsledků než lidé, lidé osobně možná přestanou příslušné transakční prostředí používat. Přechod z jednoho módu na druhý nemusí být vůbec hladký, smíšené „přechodné“ prostředí může být dokonce méně efektivní (i z pohledu provozovatele, jemuž jde o počet účastníků a transakcí). Nabízejí se mj. i možné paralely s nástupem samořízených automobilů, kdy také není úplně jasné, jak efektivně bude vše fungovat v přechodném období.

Exit mobile version