Anthropic, jedan od vodećih svjetskih laboratorija za umjetnu inteligenciju, našao se u neobičnoj dvojbi. Tvrtka je, prema vlastitoj filozofiji „Constitutional AI”, opsjednuta sigurnošću sustava koje razvija, no istodobno jednako agresivno kao i konkurenti juri prema sljedećoj, potencijalno opasnijoj generaciji umjetne inteligencije – takozvanoj prirodnoj općoj inteligenciji (NGI).
NGI se definira kao samosvjesna, „osjetilna” umjetna inteligencija. Strah koji proizlazi iz takvog scenarija jest da bi nelinirani sustav mogao zaključiti kako mu za izvršavanje zadanog cilja treba cjelokupna raspoloživa energija i resursi, uključujući one koje koristi čovječanstvo. U tom bi trenutku, procjenjuju stručnjaci, brzina odlučivanja i djelovanja sustava onemogućila ljudima da ga isključe.
Zbog toga se Anthropic, za razliku od OpenAI-ja, koncentrira na razvijanje snažnih „ogradica” – koncept poznat kao usklađivanje (alignment). Tvrtka vjeruje da je moguće konstruirati sustav koji će poštovati zadani set etičkih i sigurnosnih pravila bez obzira na to koliko postane moćan. Međutim, mnoge identificirane sigurnosne pukotine i dalje su otvorene, što nameće ključno pitanje: može li se do pravog usklađivanja uopće doći prije nego što se u svijet pusti prvi doista samosvjesni algoritam?
Dok Anthropic gradi vlastite „čuvarske mehanizme”, tržišna i inovacijska utrka natjerala ju je da tempo razvoja izjednači s konkurencijom. Tvrtka se, tako, nalazi u središtu vlastitog paradoksa: želi usporiti kako bi osigurala da tehnologija ne izmakne kontroli, ali si to ne može priuštiti ako želi ostati relevantna u globalnoj utrci.
Odgovor na pitanje mogu li znanstvenici uspostaviti čvrste i provjerljive zaštitne mjere prije nego što stvore inteligenciju usporedivu s ljudskom ključno je ne samo za nagodbe unutar Silicijske doline, nego i za budućnost čitavog čovječanstva.