Amerika se rozhoduje, zdali dá zelenou vývoji zbraňových systémů s prvky A.I. Kongres za tímto účelem sestavil odborný panel, který vedl bývalý šéf Googlu Eric Schmidt a zasedl v něm i někdejší náměstek ministra obrany Robert Work.
A na co odborníci přišli? Definitivní doporučení pro zákonodárce padne až na jaře, nicméně momentálně převažuje názor, podle kterého chytré zbraně zítřka nemají být nebezpečným rizikem, ale naopak morální povinností. To soudí i zmíněný Work, jehož citace „It is a moral imperative to at least pursue this hypothesis,“ obletěla svět.
Podle panelu spočívá morální imperativ „alespoň to zkusit“ v tom, že by měly chytré zbraňové systémy snížit ztráty a chyby. Nasazení A.I. totiž nespočívá pouze ve vývoji zbraně samotné – třeba autonomního dronu, ale – a to v následujících letech především – v chytré analýze dat a rizik.
Když je nevyvineme, udělá to beztak Čína
To znamená, že i když raketu nakonec vypustí běžný dálkově řízený dron, pokročilý software pomůže zpravodajským operativcům odhadnout, jestli se v tom stavení v rizikové zóně opravdu nachází nepřítel.
Proti se naopak stavějí lidskoprávní organizace, které chtějí v USA docílit zákazu vývoje podobných systémů. Podle zastánců je to cesta do pekel, identické systémy totiž dozajisté budou vyvíjet i tradiční rivalové v čele s Čínou, která si s etickou stránkou věci v tomto případě moc hlavu nedělá.