Stanovit globální pravidla pro provoz automobilů bez řidiče by vůbec nebylo jednoduché

  • Budoucnost prý patří samořídícím automobilům ovládaným AI
  • To ale lidstvo staví před složité etické otázky
  • Lidé všude očekávají od inteligentních samořídících aut něco jiného

Jedete povolenou rychlostí po silnici, kterou z jedné strany lemuje z jedné strany hustý les a z druhé hluboká propast. Ve voze sedí celá vaše rodina. Na zadních sedadlech dřímají v sedačkách děti. V tom vám přímo před vůz vyběhne z lesa chodec. Bez varování. Značený přechod není v dohledu.

Máte jen zlomek sekundy na rozřešení morálního dilema. Riskovat srážku s chodcem a s vysokou pravděpodobností ho zabít? Nebo se snažit vyhnout srážce i za cenu, že ohrozíte rodinu v autě?

Kdo z nás může s jistotou říct, jak by se v takové situaci zachoval? Po samořídících autech vybavených umělou inteligencí ale budeme vyžadovat, aby měly i v podobně krizových okamžicích zcela jasno. Jenže jaké rozhodnutí po nich máme chtít? Co je správné a co nikoli? Právě to, jak se budou samořídící auta chovat v kritických situacích, významnou měrou přispěje k tomu, jestli je společnost akceptuje, nebo odmítne.

Odpovědi na tyto etické otázky spojené s provozem samořídídích automobilů hledal projekt Moral Machine, jehož výsledky nyní zveřejnil mezinárodní tým vědců pod vedením Iyada Rahwana z Massachusetts Intitute of Technology v předním vědeckém časopise Nature.

Třináct dilemat

Vědci představili na internetu celkem třináct morálních dilemat, při kterých se řidič ocitá v problematické situaci, kdy jsme někomu o život a přitom se nenabízí takové řešení, které by zajistilo bezpečí všem. Dobrovolníci musí volit menší zlo. Přitom berou v potaz řadu různých faktorů.

Potenciální „oběť“ mohla být třeba mladší nebo starší, chudší nebo bohatší. Jindy volili mezi ohrožením většího nebo menšího počtu lidí. Rahwan tak získali 40 milionů řešení morálních dilemat. Na průzkumu provedeném v deseti různých jazycích se podílelo několik milionů lidí z 233 zemí světa. Výsledky jsou zajímavé.

„Když lidé přemýšlejí o etice robotů, mají dojem, že bychom měli mít pro roboty k dispozici perfektní soubor zásad. Ale ukazuje se, že lidstvo taková univerzální pravidla nemá,“ konstatuje Iyad Rahwan.

Tři „etické oblasti“

Rahwanna donutil k výzkumu paradox, na který narazil už v roce 2016. Při průzkumu zaměřeném na vztah lidí k samořídícím autům dobrovolníci na jedné straně požadovali, aby auto šetřilo chodce i za cenu ohrožení pasažérů, kteří se v něm právě vezou. Zároveň ale ti samí lidé v průzkumu jasně deklarovali, že sami by si auto jezdící podle této zásady nikdy nekoupili.

V projektu Moral Machine se ukázalo, že na některých zásadách se lidé shodnou bez ohledu na etniku, pohlaví, věku či výši příjmů. Prakticky všichni by chránili raději člověka než domácího zvířecího mazlíčka a všichni by upřednostnili záchranu většího počtu lidé před záchranou jednotlivce.

Na jiné situace nemají lidé jednotný metr. Podle národností bylo možné respondenty rozdělit na tři základní skupiny, z nichž každá se řídí poněkud jinými etickými normami. První zahrnuje Severní Ameriku a řadu evropských zemí, kde je silná křesťanská tradice. V druhé jsou země jako Japonsko, Indonésie nebo Pákistán, kde je silný vliv konfuciánství nebo islámu. A třetí skupinu tvoří země Jižní a Střední Ameriky, Francie a její bývalé kolonie.

V první skupině například převažoval názor, že je správné obětovat starší a chránit mladší. To však nepřipadá správné lidem z druhé skupiny etnik.

Řada psychologů studii kritizuje jako extrémní, protože podle jejich názoru bude samořídící automobil jen výjimečně stavěn do situace, kdy si bude muset vybrat mezi dvěma různými lidskými obětmi na životech.

Pramen: Nature

Diskuze (21) Další článek: Huawei ukázal nový chytrý repráček. Nápadně připomíná Echo i HomePod

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,