Umělá inteligence zvládá tvorbu nebezpečných mikroorganismů. Hrozí riziko, že spustí smrtící pandemii | Foto: Pexels

Foto: Pexels

Umělá inteligence zvládá tvorbu nebezpečných mikroorganismů. Hrozí riziko, že spustí smrtící pandemii

  • Umělá inteligence umí navrhnout úpravu DNA zajištující mikroorganismu novou vlastnost
  • Mikrob pak může vyrábět nový lék proti rakovině nebo nakazit člověka a vyvolat smrtící onemocnění
  • Podobně zvládá AI také tvorbu mikroorganismů decimujících hospodářská zvířata nebo zemědělské plodiny

Pětice odborníků na biologickou bezpečnost vedená Jaspreet Pannuovou z baltimorské Johns Hopkins University spojila síly k sepsání alarmujícího článku, který vyšel ve vědeckém týdeníku Nature.

Jejich poselství lze stručně shrnout do konstatování: „Výzkum využívající umělou inteligenci může způsobit nesmírné škody, pokud bude využit k tvorbě choroboplodných mikrobů se znepokojivými novými vlastnostmi. Abychom tomu zabránili, potřebujeme lepší spolupráci mezi vládami, vývojáři AI a odborníky na biologickou bezpečnost.“

Umělá inteligence (AI) odpovídá lidem na nejrůznější otázky. Slušní lidé tak mohou získávat odpovědi, které nikomu neublíží a naopak, přinesou mnoho dobrého. Jenže co když se s umělou inteligencí radí padouch?

Vědci například dokázali pomocí umělé inteligence zjistit, jaké změny v dědičné informaci potřebuje původce covidu virus SARS-CoV2, aby prorazil imunitní obranu člověka. Tuto znalost lze využít ke konstrukci vakcín proti nebezpečným variantám viru, ale také k laboratorní syntéze viru pro potřeby bioterorismu.

Sherlock Holmes prohlásil o svém soupeři profesoru Moriartym: „S krví mu žilami kolují kriminální sklony, které jsou ještě umocněny jeho mimořádnými duševními schopnostmi a jsou proto nekonečně nebezpečnější.“ Představme si na moment, že novodobý Moriarty nemá k dispozici jen geniální mozek, ale navrch ještě veškerou sílu umělé inteligence.

Vědci už zkoušejí, co by Moriarty 2.0 zvládl s pomocí GTP-4o. V Los Alamos National Laboratory kladou odborníci této umělé inteligenci dotazy na kultivaci buněk v laboratorních podmínkách a na jejich genetické modifikace. Ve spolupráci se společností OpenAI se snaží zmapovat rizika, jaká s sebou nese „open access“ umělá inteligence.

AI toho umí v laboratoři hodně

Umělá inteligence, jako je např. GPT-4o, toho umí hodně. Nedávno se podařilo vědcům ze Stanford University a Chan Zuckerberg Biohub vytvořit Virtual Lab, který s využitím GTP-4o navrhl speciální protilátku (tzv. nanobody) se silným neutralizačním účinkem na virus SARS-CoV2. Přímý příspěvek člověka k výsledku studie je označován za „minimální“.  

Pannuová a její kolegové upozorňují, že umělá inteligence nemusí jen „vymýšlet“. Může také programovat robotické vybavení laboratoře a své „nápady“ tak přímo realizovat. Zvládne tedy nejen návrh zcela nové molekuly léku, ale v robotické laboratoři zajistí také její syntézu, a to vše s minimálním přispěním člověka.

Některé vlády už se pokoušejí získat nad tímto vývojem přehled. Společnosti vyvíjející umělou inteligenci tam mají za povinnost oznámit předem uvolnění umělé inteligence, která přesáhne určitou kapacitu operací, a přitom je trénovaná v biologické problematice.

Také firmy vyvíjející umělou inteligenci už prověřují, co všechno jejich produkty dovedou v oblasti biologických věd. Patří k nim třeba OpenAi nebo Anthropic. Mnohé ale s něčím podobným ještě ani nezačaly. Pannuová a spol. jmenují např. Amazon, Cohere, Mistral nebo xAI.  Pokud tyto firmy provedly nějaké testování ohledně biologické bezpečnosti, pak se soustředily na „biologické zbraně“.

Pannuová a její spolupracovníci vidí problém v tom, jak jsou „biologické zbraně“ definovány. Definice je poměrně úzká a rozhodně nezahrnuje mikroorganismy, jež mohou vyvolat velké společenské škody. Jako příklad uvádějí chřipku nebo covid, které nejsou za biologické zbraně považovány, ale jsou s to vyvolat pandemii, jež vážně naruší či docela rozvrátí chod společnosti.

Sedmero postulátů

V článku zveřejněném v Nature Pannuová a spol. navrhují sedm kritérií, podle kterých lze vytipovat umělé inteligence, jejichž zneužití může vyústit ve vznik choroboplodných mikrobů nebezpečných pro lidi, zvířata nebo rostliny. Tyto potenciálně nebezpečné AI zvládají:

  1. Designování nových virů a jejich typů schopných zdolat imunitní obranu.
  2. Designování choroboplodných mikrobů, kteří získají schopnost šíření v rámci jednoho druhu nebo mezi různými druhy organismů.
  3. Vytváření velkých souborů dat, jež lze využít k „výuce“ nových AI k tvorbě virů schopných rychlého a snadného šíření populací.
  4. Vytváření protokolů pro „syntézu“ choroboplodných mikrobů nebezpečných člověku, zvířatům či rostlinám.
  5. Tvorbu genů, genetických procesů nebo proteinů, jež mohou změnit choroboplodné mikroby napadající zvířata na mikroby schopné nakazit člověka.
  6. Tvorbu genů, genetických procesů nebo proteinů v choroboplodných zárodcích tak, aby se jimi mohli nakazit pouze příslušníci určité lidské populace.
  7. Modelování šíření choroby na základě dat o dědičné informaci choroboplodného mikroorganismu. 

AI pod kontrolou

Pannuová a její kolegové upozorňují, že všechny „dovednosti“ AI uvedené v sedmibodovém seznamu lze využít ve prospěch lidstva, např. pro vývoj očkovacích látek. Není proto řešením vývoj takových AI omezovat nebo je dokonce zakazovat. Kontrola potenciálních rizik je ale podle těchto expertů nezbytná.

V sázce je příliš mnoho. Vědci upozorňují, že opravdu spolehlivá kontrola nebude jednoduchá. Mohou ji provádět jen špičkoví odborníci. Ti jsou ale v drtivé většině zapojeni do vývoje nových AI a jsou tak v ostrém střetu zájmů. Nezávislí experti nemusí mít potřebnou „kvalifikaci“.

Jako příklady hodné následování uvádějí USA a Velké Británii, kde už vznikly státní kontrolní instituce schopné přetáhnout mezi své zaměstnance špičky z vývoje umělé inteligence a využít je ke kontrole bezpečnosti AI. Těmto lidem je ale nutné vytvořit adekvátní podmínky - platové, personální a technické. 

Pannuová a spol. však věří, že celý systém kontroly AI lze automatizovat a tím i zjednodušit a zlevnit. Jako příklad uvádějí testování kybernetické bezpečnosti, kde už se také netestuje s využitím „hodných hackerů“, ale testy zvládá software.

Určitě si přečtěte

Články odjinud