Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici

  • Americkým soudcům pomáhají při rozhodování o podmíněných trestech či propuštění na kauci počítačové programy, které mají u obžalovaných odhalit pravděpodobnost recidivy
  • Nejnovější analýzy prokázaly, že počítač rozhoduje stejně nepřesně jako laik disponující minimem základních informací o obviněném
  • K bělochům je počítač shovívavější, na černochy je naopak o poznání přísnější
Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici

Komu dát podmínku a kdo si má jít sednout za mříže? Kdo bude propuštěný na kauci a kdo v žádném případě nesmí opustit vazební věznici, protože by s vysokou pravděpodobností spáchal další zločiny?

Podobné otázky řeší soudci kriminálních případů dnes a denně. Americké justici přitom pomáhá například počítačový program COMPAS čili Correctional Offender Management Profiling for Alternative Sanctions. Má napomoci k tomu, aby soudce zbytečně nedržel za mřížemi člověka, který prostě jenom „ustřelil“ a víckrát už se proti paragrafům neproviní. A také má předejít tomu, aby soudce pustil z kontroly v rukou justice profesionálního kriminálníka, který si svůj život bez zločinu nedokáže představit.

Už dříve dostávali soudci o obžalovaných rozličné údaje. Měli přehled nejen o jejich trestním rejstříku, ale také o financích, zaměstnání, rodinných poměrech, o okruhu přátel a známých a o dalších okolnostech. Soudce mohl tato data při rozhodování brát do úvahy, ale také nemusel. Časem převzaly vyhodnocování dat počítačové algoritmy, z nichž mnohé jsou patentované a soudy je získávají nákupem licencí.

Je takové „strojní“ rozhodování lepší než rozhodování člověka? Ledacos naznačovalo, že algoritmy jsou zatížené nemalou chybou. COMPAS byl například obviněn z rasismu, protože se zdál k obviněným bělochům podstatně shovívavější, než odpovídalo jejich následné kriminální činnosti.

Jak to tedy s COMPASem je?

Informatici Julia Dresselová a Hany Farid z Dartmouth College se rozhodli COMPAS prověřit. Shromáždili data o 10 000 obviněných, získali hodnocení jejich rizikovosti pomocí programu COMPAS a k tomu posháněli data o trestných činech, kterých se tento soubor obžalovaných dopustil v následujících dvou letech. Následně naverbovali čtyři stovky dobrovolníků, kteří neměli praxi v soudnictví, ani neměli nic společného s provozem programu COMPAS.

Každému dobrovolníkovi poskytla Dresselová s Faridem profily padesáti obviněných prezentované sedmi naprosto základními údaji, jako je pohlaví, věk nebo počet předchozích trestů. Dobrovolníci měli určit pravděpodobnost, s jakou se obžalovaný dopustí recidivy. Předpovědi dobrovolníků a algoritmu COMPAS vědci porovnali se skutečností.

Výsledky publikované v předním vědeckém časopise Science Advances jsou bezesporu zajímavé. Naprostí laici s minimem údajů o obžalovaných určili správně recidivu v 63 až 67 % případů. COMPAS byl úspěšný v 65 % případů. To není nijak omračující úspěšnost.

Zajímavá byla i zhruba třetina případů, kdy se dobrovolníci i počítač zmýlili. Jak lidé, tak algoritmus COMPAS byli náchylní držet za mřížemi černocha, který se během následného pobytu na svobodě už recidivy nedopustil. A naopak, jak laici, tak i počítač byli náchylní pustit bělocha, který následně spáchal zločin.

Obecně rozšířené povědomí napovídalo, že sofistikované počítačové systémy pro hodnocení rizikovosti obviněných jsou zatíženy o poznání menší chybou než lidský rozum podléhající emocím a předsudkům. Jenže právě sofistikovanost algoritmů se ukázala jako silně pochybná. Dresselová a Farid sestavili primitivní prográmek, který zohledňoval pouze stáří obviněných a počet trestů, jež měli za sebou. S jeho pomocí dosáhli úspěšnosti odhadu recidivy obžalovaných 67 %.

Odborníci považují výsledky studie Julie Dresselové a Hanyho Farida za alarmující, protože velmi podobné algoritmy používají banky při schvalování půjček a úvěrů, úřady jimi hodnotí učitele a uplatňují se dokonce i při rozhodování, zda zahájit vyšetřování případů, kdy je vzneseno obvinění ze zneužívání nezletilých. Také v těchto případech zřejmě algoritmy nepodávají nijak omračující výkony a mohou se dopouštět systematické diskriminace některých skupin obyvatel.

Zdroj: Science Advances

Diskuze (5) Další článek: Kdo ještě dneska hraje Minecraft? Kupodivu stále víc a víc lidí

Témata článku: Technika, Počítače, USA, Soudy, Lidé, Kriminalita, Úvěr, Podmíněný trest, Laik, Počítačový algoritmus, Banka, Obžalovaný, Rozhodování, Primitivní prográmek, Vysoká pravděpodobnost, Následující rok, Recidiva, Americká justice, Dartmouth College, Trestní rejstřík, Algoritmus, Finance, Trestný čin, COMPAS, Soudce

Určitě si přečtěte