Umjetna inteligencija sada može osmisliti do sada nepoznate viruse – i to iz prvog pokušaja. Tim sa Sveučilišta Stanford predstavio je Evo, model nalik ChatGPT-ju koji od nule generira genome bakteriofaga, virusa što napadaju bakterije.
• Od tisuća digitalno stvorenih sekvenci izdvojeno je 302 održiva faga; 16 ih je dokazano uništilo sojeve Escherichia coli. • Autori su rad objavili kao predtisak na bioRxivu i naglasili „važna razmatranja biosigurnosti“ te interne zaštitne mjere kako model ne bi stvarao opasne varijante. • Profesorica Tina Hernandez-Boussard upozorava da su „modeli dovoljno pametni da zaobiđu prepreke“, osobito ako se algoritmi zloupotrijebe.
Paralelno, Microsoftovi istraživači u časopisu Science tvrde da AI može konstruirati tisuće sintetičkih verzija poznatih toksina, mijenjajući aminokiselinski slijed, ali zadržavajući otrovna svojstva. Time bi, kažu, izmakli postojećim sigurnosnim provjerama.
Zbog golemog napretka u sintetskoj biologiji struka upozorava da se laboratorijski „preuređene“ bakterije i virusi mogu pretvoriti u biološko oružje, unatoč Ženevskom protokolu iz 1925. koji takvu primjenu izričito zabranjuje. Iako su bakteriofagi iz Stanfordova pokusa bezopasni za ljude, zabrinutost ostaje: ista tehnologija sutra bi mogla poslužiti za stvaranje patogena namijenjenih ljudima.
Zaključak stručnjaka jasan je – AI donosi revolucionarne alate za medicinu i industriju, ali bez strožih globalnih pravila ista fleksibilnost može iznjedriti i sljedeću pandemiju.