Autonomni i asinkroni AI agenti trenutačno su omiljena tema u poslovnom svijetu, no stručnjaci strahuju da bi se euforija mogla pretvoriti u razočaranje ako se izostanu konkretni rezultati. Dva velika globalna igrača, financijsko-tehnološka grupacija Block i farmaceutski div GSK, zato su odlučila prvo prilagoditi agente postojećim radnim tokovima – i zasad ubiru plodove takvog pristupa.
Block je početkom godine interno predstavio interoperabilni okvir za AI agente pod kodnim nazivom goose. Alat trenutačno koristi oko 4 000 njihovih inženjera, a broj se udvostručuje iz mjeseca u mjesec. Goose danas automatski piše oko 90 % koda, testira ga, otklanja greške i filtrira informacije, čime svakom inženjeru u prosjeku štedi deset radnih sati tjedno. Platforma, razvijena na otvorenom standardu Model Context Protocol i objavljena pod licencom Apache 2.0, korisnicima pruža jedinstveno sučelje koje se, prema riječima tehničkog voditelja Brada Axena, „osjeća kao rad s jednim kolegom, a ne rojem botova”.
Ključ uspjeha, objašnjava Axen, leži u tome da se agent prilagodi ljudskom procesu: zaposlenik opisuje što želi običnim jezikom, a goose iza kulisa generira tisuće linija koda ili sažima more Slack i e-mail poruka. U prodaji i marketingu isti sustav prikuplja podatke o potencijalnim klijentima i automatski ih prebacuje u baze. Iako tehnologija brzo napreduje, završnu provjeru i dalje obavljaju ljudi – osobito u reguliranim sektorima gdje su pouzdanost i zaštita podataka presudni.
Sličnu filozofiju prati i GSK, koja je višestruke agentske arhitekture uvela u rani razvoj lijekova. Tvrtka kombinira domenski specifične jezične modele s ontologijama, alatnim lancima i rigoroznim testiranjem kako bi brže pretražila goleme znanstvene skupove podataka i skratila istraživačke cikluse. AI agenti generiraju hipoteze, provjeravaju spajanje podataka iz genomike, proteomike i kliničkih studija te predlažu dizajn eksperimenata.
Globalni direktor za umjetnu inteligenciju Kim Branson ističe da je u biomedicini „apsolutna istina rijetka”, pa se pouzdanost osigurava paralelnim izvođenjem više agenata i modela, uz stroga pravila pozivanja alata. Interni benchmark testovi otkrivaju gdje sustav griješi, a upravo ti „glupi” slučajevi – kako ih Branson naziva – najviše pomažu znanstvenicima da nauče i dorade modele.
Primjeri Blocka i GSK-a pokazuju da AI agenti donose mjerljivu dobit – ali samo kad su osmišljeni tako da se ne remete postojeći radni obrasci, nego ih neprimjetno nadograđuju. U suprotnom, tehnološki potencijal brzo nailazi na organizacijski zid, a hype prelazi u deziluziju.