Mohou autonomní auta zabíjet své řidiče?

Pavel Houser , 24. červen 2015 08:20 4 komentářů
Rubriky: Science

Samočinně řídící auta se nepotýkají jen s problémy technickými a právními. Zůstává i otázka samotného návrhu – co vlastně požadujeme od strojové inteligence v pozadí. Má třeba systém volit mezi možnostmi s cílem minimalizovat (pravděpodobné) ztráty na lidských životech?

Paradox výhybky

Jinak řečeno: Má třeba automaticky řízené auto chránit svého řidiče i bez ohledu na to, že při tom ohrozí někoho jiného? Na tento jinak celkem pomíjený problém upozornili myslitelé z University of Alabama v Birminghamu. Nazývají to spor utilitarismu a deontologie. Pomiňme žargon profesionálních filozofů i profesionálních etiků, v zásadě se všechny tyhle úvahy odvíjejí od toho, čemu se říká „experiment s drezínou“, „paradox výhybky“ apod. Vlak se řítí proti hromadě lidí, můžete ho výhybkou přesměrovat na kolej, kde si vybere jedinou oběť. Uděláte to? Co pokud můžete vlak zastavit tím, že pod něj hodíte náhodného kolemjdoucího – a opět zachráníte více lidí. Liší se obě situace?

Utilitaristé obecně tvrdí, že správné je snažit se dosáhnout co největšího štěstí pro co nejvíce lidí („maximalizace užitku“). Konkurenční přístupy např. říkají, že někdy než volit mezi více zly, je lepší volbu odmítnout a „dát od toho ruce pryč“, tj. třeba výhybku nepřehodit a nevzít si na triko jedinou oběť, i když důsledkem nečinnosti je obětí víc. Samozřejmě jde o myšlenkové experimenty, s nimiž se v takto čisté podobě sotva kdo z nás setká. Rádi je mimochodem mají i neurologové, protože zjišťují, že podle toho, jaká centra mozku máme zrovna aktivovaná, se liší i naše reakce. Nakonec se ukazuje, že i drobná změna v designu celého experimentu velmi mění naše vnímání situace a rozhodování.

Asimovovy zákony robotiky

Je asi celkem jasné, o co půjde, převede-li se problém do situace autonomních aut, respektive algoritmů, které stojí za jejich fungováním. Představme si, že skutečně chytré auto skutečně dokáže odhadnout, co se kolem bude dít, a nedělá přitom chyby. Ostatně to třeba není až tak absurdní: všechny menší nehody, které zatím měla auta Googlu, prý způsobili lidští řidiči – ať už na protistraně, nebo řidiči vlastní, když autopilota vypnuli. Jak se má ale geniální automatický vůz vlastně naprogramovat? Co bude dělat v situacích, kdy nějaké škody budou nevyhnutelné (neexistuje „win-win“ řešení), dejme tomu při píchnuté pneumatice? Měl by systém v plné rychlosti narazit do zdi, nebo vjet do protisměru? Druhá volba znamená pro řidiče vozu stále nějakou šanci, ale zato s velkou pravděpodobností povede ke smrti více lidí. Berme to tak, že systém to vše dokáže posoudit (třeba i spočítat lidi ve vozidlech kolem, aby zjistil, kdy se jich s největší pravděpodobností nejvíc přijde o život atd.), není to tedy problém technický, ale čistě otázka zabudovaných preferencí. Je jasné, co vyplývá z utilitarismu. Konkurenční přístupy k etice tvrdí, že některé jednání je vždy špatné. Auto tedy nemá aktivně narazit do zdi nebo jinak někoho zabít, i kdyby tím zabránilo větší škodě. Co z toho konkrétně ale vyvodit? Měl by se autopilot v takovém případě prostě vypnout? A teď si můžete otázku různě doplňovat: počítač samozřejmě těžko dokáže posoudit hodnotu jednotlivých lidí, to ostatně nedělá ani zákon. Nicméně co když „konkurenční“ auto třeba překračuje rychlost nebo dokonce jede v protisměru? Neměl by si systém říci: ať pyká ten, kdo porušuje pravidla?

Do extrému vzato by pak automatický automobil možná vůbec nevyjel, nebo jel pouze beznadějně pomalu. Tudy cesta jistě nepovede. V této souvislosti přicházejí na mysl i Asimovovy zákony robotiky. Má robot zabít člověka, pokud tím zachrání více lidí? Jenomže automobil je prostě věcí konkrétního vlastníka (tohle mimochodem v Asimovových povídkách trochu chybí), kupec/zákazník bude chtít primárně auto, které bezpečně dopraví do cíle řidiče a samo se nezničí, neřeší hluboká etická dilemata a nesnaží se spasit svět.

Pravidla bez definic?

Na University of Alabama si prostě hrají. Když někdo v jejich týmu přijde s určitým řešením, vzápětí se jiný určí za „ďáblova advokáta“ a začne vymýšlet, k jakým špatným koncům by navržený přístup mohl vést.

Možná pravidla skutečně autonomního automobilu nepůjdou navrhnout přímo do všech podrobností, respektive prakticky nebudou definována explicitně. Vyjde se z několika jednoznačných požadavků a posléze se budou analyzovat situace, kdy se ocitají ve sporu. Tyto kolize pravidel pak posoudí lidský arbitr a finální podoba ideálního řízení vznikne víceméně „sama“, metodou strojového učení. To už je ale pouze moje (PH) domněnka, nikoliv názor vědců z University of Alabama.

A mimochodem, Ameen Barghi, hlavní autor popsané studie, zkoumá i další otázku. Pokud se ukáže, že automatické řízení je bezpečnější než lidské, mělo by se člověku řízení vozu prostě zakázat? Jeho odpověď zní: Ano.


Komentáře

Pavel Šimerda #0
Pavel Šimerda 24. červen 2015 08:47

To budou zřejmě opravdu jen filosofické otázky, protože ve skutečnosti stroj nemůže nikdy s jistotou vyhodnotit všechny možnosti a v lidské společnosti je mnohem důležitější zodpovědnost než užitek.

Takže například v případě výhybky je potřeba přejet větší množství lidí, jestliže tam nemají, co dělat, a ten jeden je v prostoru, kde se smí legálně pohybovat, například na nástupišti za slepou kolejí. Alespoň pokud člověk soudí podle subjektivních následků strojvůdce.

Jediné, co by na tom mohlo něco změnit by bylo, kdyby se bezpečnostní systém vozů stal nedílnou součástí silniční sítě a celá zodpovědnost by se přesouvala na provozovatele sítě, který by byl zodpovědný za bezpečnostní algoritmy toho systému.

nechte to inzenyrum a ne humanistum. #1
nechte to inzenyrum a ne humanistum. 24. červen 2015 10:49

inzenyr da do auta vystrelovaci sedadlo a zmensi tak problem na provoz pod mostem a v tunelu, pripadne na pobrezi pri padu do vody.

Jiří Váňa #2
Jiří Váňa 24. červen 2015 12:26

:-)

Na chvilku jsem si představil katapultáž ričiče v tunelu... A hned mám lepší náladu na celý den.

PS.: povinná výbava všech = helma na palici !

gilhad #3
gilhad 24. červen 2015 21:13

Jde prostě o rozšíření dávno známých pravidel.

Povinost nosit přilby, jako motorkáři, se měla vztahovat i na řidiče trabantů. Ovšem jen na podzim, to totiž padají kaštany.

RSS 

Komentujeme

V datových centrech už nejde o Windows?

Pavel Houser , 22. březen 2017 12:47
Pavel Houser

Trevor Pott si na The Register pokládá otázku o budoucnosti serverových Windows na platformě ARM. ...

Více






RSS 

Zprávičky

Vloni bylo pravidelně na internetu 77 % Čechů

ITBiz.cz , 28. březen 2017 17:00

V roce 2016 používalo internet 6,7 miliónu obyvatel České republiky starších 16 let, tj. 76,5 %. Ve ...

Více 0 komentářů

Microsoft v Evropě investoval do datových center tři miliardy USD

ČTK , 28. březen 2017 15:30

Americká softwarová firma Microsoft investovala v Evropě do datových center a další infrastruktury, ...

Více 0 komentářů

T-Mobile od dubna nabídne nové neomezené tarify s více daty

ČTK , 28. březen 2017 13:24

Mobilní operátor T-Mobile od 2. dubna nabídne novou řadu neomezených tarifů se zvýšeným objemem dat....

Více 0 komentářů

Starší zprávičky

XS3200: nové úložné systémy SAN pro firmy

Pavel Houser , 28. březen 2017 13:00

Nová řada společnosti QSAN nabízí až 26 hotswap pozic SFF 2,5“ v 2U rack skříni....

Více 0 komentářů

Co Češi objednávají nejčastěji online

ITBiz.cz , 28. březen 2017 11:00

Oblečení, kosmetika a knihy. To jsou tři nejpopulárnější druhy zboží, jak je na internetu nakupují ž...

Více 0 komentářů

Brněnští vývojáři Konica Minolta testují metodiku scrum

Pavel Houser , 28. březen 2017 08:00

Moderní metodiky očekávají vysokou míru automatizace, která začíná už při psaní kódu....

Více 0 komentářů

Do Prahy dnes poprvé přijede šéf Microsoftu Satya Nadella

ČTK , 28. březen 2017 07:00

Nadella do české metropole přijede poprvé v roli výkonného ředitele firmy. ...

Více 0 komentářů