Počítače | Soudy

Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici

  • Americkým soudcům pomáhají při rozhodování o podmíněných trestech či propuštění na kauci počítačové programy, které mají u obžalovaných odhalit pravděpodobnost recidivy
  • Nejnovější analýzy prokázaly, že počítač rozhoduje stejně nepřesně jako laik disponující minimem základních informací o obviněném
  • K bělochům je počítač shovívavější, na černochy je naopak o poznání přísnější
Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici

Komu dát podmínku a kdo si má jít sednout za mříže? Kdo bude propuštěný na kauci a kdo v žádném případě nesmí opustit vazební věznici, protože by s vysokou pravděpodobností spáchal další zločiny?

Podobné otázky řeší soudci kriminálních případů dnes a denně. Americké justici přitom pomáhá například počítačový program COMPAS čili Correctional Offender Management Profiling for Alternative Sanctions. Má napomoci k tomu, aby soudce zbytečně nedržel za mřížemi člověka, který prostě jenom „ustřelil“ a víckrát už se proti paragrafům neproviní. A také má předejít tomu, aby soudce pustil z kontroly v rukou justice profesionálního kriminálníka, který si svůj život bez zločinu nedokáže představit.

Už dříve dostávali soudci o obžalovaných rozličné údaje. Měli přehled nejen o jejich trestním rejstříku, ale také o financích, zaměstnání, rodinných poměrech, o okruhu přátel a známých a o dalších okolnostech. Soudce mohl tato data při rozhodování brát do úvahy, ale také nemusel. Časem převzaly vyhodnocování dat počítačové algoritmy, z nichž mnohé jsou patentované a soudy je získávají nákupem licencí.

Je takové „strojní“ rozhodování lepší než rozhodování člověka? Ledacos naznačovalo, že algoritmy jsou zatížené nemalou chybou. COMPAS byl například obviněn z rasismu, protože se zdál k obviněným bělochům podstatně shovívavější, než odpovídalo jejich následné kriminální činnosti.

Jak to tedy s COMPASem je?

Informatici Julia Dresselová a Hany Farid z Dartmouth College se rozhodli COMPAS prověřit. Shromáždili data o 10 000 obviněných, získali hodnocení jejich rizikovosti pomocí programu COMPAS a k tomu posháněli data o trestných činech, kterých se tento soubor obžalovaných dopustil v následujících dvou letech. Následně naverbovali čtyři stovky dobrovolníků, kteří neměli praxi v soudnictví, ani neměli nic společného s provozem programu COMPAS.

Každému dobrovolníkovi poskytla Dresselová s Faridem profily padesáti obviněných prezentované sedmi naprosto základními údaji, jako je pohlaví, věk nebo počet předchozích trestů. Dobrovolníci měli určit pravděpodobnost, s jakou se obžalovaný dopustí recidivy. Předpovědi dobrovolníků a algoritmu COMPAS vědci porovnali se skutečností.

Výsledky publikované v předním vědeckém časopise Science Advances jsou bezesporu zajímavé. Naprostí laici s minimem údajů o obžalovaných určili správně recidivu v 63 až 67 % případů. COMPAS byl úspěšný v 65 % případů. To není nijak omračující úspěšnost.

Zajímavá byla i zhruba třetina případů, kdy se dobrovolníci i počítač zmýlili. Jak lidé, tak algoritmus COMPAS byli náchylní držet za mřížemi černocha, který se během následného pobytu na svobodě už recidivy nedopustil. A naopak, jak laici, tak i počítač byli náchylní pustit bělocha, který následně spáchal zločin.

Obecně rozšířené povědomí napovídalo, že sofistikované počítačové systémy pro hodnocení rizikovosti obviněných jsou zatíženy o poznání menší chybou než lidský rozum podléhající emocím a předsudkům. Jenže právě sofistikovanost algoritmů se ukázala jako silně pochybná. Dresselová a Farid sestavili primitivní prográmek, který zohledňoval pouze stáří obviněných a počet trestů, jež měli za sebou. S jeho pomocí dosáhli úspěšnosti odhadu recidivy obžalovaných 67 %.

Odborníci považují výsledky studie Julie Dresselové a Hanyho Farida za alarmující, protože velmi podobné algoritmy používají banky při schvalování půjček a úvěrů, úřady jimi hodnotí učitele a uplatňují se dokonce i při rozhodování, zda zahájit vyšetřování případů, kdy je vzneseno obvinění ze zneužívání nezletilých. Také v těchto případech zřejmě algoritmy nepodávají nijak omračující výkony a mohou se dopouštět systematické diskriminace některých skupin obyvatel.

Zdroj: Science Advances

Diskuze (5) Další článek: Kdo ještě dneska hraje Minecraft? Kupodivu stále víc a víc lidí

Témata článku: Technika, Počítače, USA, Lidé, Soudy, Kriminalita, Dartmouth, Zaměstnání, Banka, Rozhodování, Finance, Schvalování, Laik, Americká justice, Sciencemag, Dartmouth College, Malá chyba, Trestný čin, Farid, Následující rok, Kriminální případ, Naprostý laik, Soudce, Podobná otázka, Kriminální čin


Určitě si přečtěte

Vybíráme nejlepší monitory: Od úplně levných po velké prohnuté obludy

Vybíráme nejlepší monitory: Od úplně levných po velké prohnuté obludy

** Vybrali jsme nejlepší monitory na práci, hraní i filmy ** Nejlevnější monitor s kvalitním panelem stojí tři tisíce ** 4K už dává smysl i s cenou kolem deseti tisíc korun

David Polesný | 54

Moral machine: Už víme, zdali je lepší zabít psy, sebe nebo matky na přechodu

Moral machine: Už víme, zdali je lepší zabít psy, sebe nebo matky na přechodu

** Jak byste se sami vypořádali s tramavajovým dilematem? ** Vědci před lety spustili globální dotazník ** Nyní se pochlubili s výsledky

Jakub Čížek | 150

Apple ukázal novinky: iPad Pro má překonat notebooky a vrací se Mac mini!

Apple ukázal novinky: iPad Pro má překonat notebooky a vrací se Mac mini!

** Apple v New Yorku představoval počítačové novinky ** iPad Pro prý zatočí s notebooky ** Dočkali jsme se také návratu Mac mini

Jakub Čížek | 81

Řidiče Tesly ukolébal autopilot, policisté ho zastavili až po 11 kilometrech

Řidiče Tesly ukolébal autopilot, policisté ho zastavili až po 11 kilometrech

** Policisty poblíž San Franciska zaujala Tesla se spícím řidičem ** Donutili vozidlo zpomalit a následně probudili překvapeného řidiče ** Vozidlo podle dostupných informací jelo v režimu autopilota

Karel Kilián | 69