Umjetna inteligencija preselila se iz laboratorija u uredske hodnike brže nego što su mnoge tvrtke stigle pripremiti pravila igre. I upravo tu leži najveća zamka: novi AI sustavi često se puštaju u rad bez ijednog sata uvođenja, dok za ljudske početnike postoje opsežni onboarding programi.
Probabilistika, a ne statika Generativni modeli nisu klasični softver s fiksnim kodom, već sustavi koji na temelju vjerojatnosti oblikuju svaki sljedeći odgovor. Zbog toga mogu „kliziti” – mijenjati ponašanje kako se mijenjaju podaci ili upiti – pa bez nadzora postupno gube točnost. Uz to, model treniran na javnim internetskim izvorima ne poznaje interne procese, hijerarhiju ni regulativu pojedine organizacije, što stvara rizik od pogrešnih ili povjerljivih odgovora.
Skupi promašaji • Tužba protiv Air Canada: chatbot je putniku dao pogrešnu informaciju o politici povrata i kompanija je proglašena odgovornom. • Nepostojeće knjige u novinskim preporukama: ljetni popis za čitanje sastavljen uz pomoć AI-a završio je povlačenjem tekstova i otkazima. • Diskriminacija kandidata: prvi nagodbeni slučaj američke Agencije za jednaka zapošljavanja pokazao je kako algoritam može sustavno odbijati starije prijavitelje. • Gubitak podataka: nakon što su zaposlenici u ChatGPT zalijepili osjetljivi kod, Samsung je privremeno zabranio javne AI alate.
Sve to potvrđuje jasnu poruku: AI bez nadzora stvara pravne, sigurnosne i reputacijske rupe.
AI kao novi kolega Stručnjaci predlažu da se prema sustavima umjetne inteligencije postupa kao prema zaposlenicima kojima je potreban:
- Opis posla – precizno zadani opseg, formati izlaza, pravila eskalacije i tolerancija pogreške.
- Kontekstualna obuka – umjesto skupog dorađivanja modela, sigurnije je povezati ga s internim bazama kroz RAG (retrieval-augmented generation) kako bi odgovori ostali utemeljeni na aktualnim, provjerenim dokumentima.
- Simulacije prije produkcije – AI se testira u pješčaniku s realnim scenarijima i ljudskim ocjenjivačima. Primjerice, investicijska banka koja je GPT-4 dala savjetnicima postigla je 98 % prihvaćenosti tek nakon rigoroznog ispitivanja kvalitete.
- Križna mentorstva – domenski stručnjaci daju povratne informacije, sigurnosni tim postavlja crvene linije, a dizajneri kreiraju sučelje koje potiče ispravnu upotrebu.
Povratne petlje bez roka trajanja • Promatranje i mjerenje: precizni logovi, KPI-jevi i alarmi za degradaciju. • Flagiranje u aplikaciji: korisnici označavaju sumnjive odgovore, a te se oznake vraćaju u sustav kao nova „lekcija”. • Redoviti audit: provjere usklađenosti, točnosti i sigurnosti zakazuju se mjesečno ili tromjesečno, uz planirano „nasljeđivanje” kada model treba osvježiti ili zamijeniti.
Zašto hitno? Istraživanja pokazuju da je trećina tvrtki u protekloj godini naglo proširila korištenje gen AI-a, ali mnoge još nemaju ni osnovne zaštitne mjere. Posljedica je pojava „sjene AI-a” – zaposlenici na svoju ruku posežu za javnim alatima i time dodatno šire rizik curenja podataka.
Tvrtke koje, pak, uvode transparentne procese, jasne granice i mogućnost da korisnici oblikuju alate, vide brže prihvaćanje i manje improvizacija. Zato se u organizacijskim grafikama već pojavljuju „AI enablement manageri” i „PromptOps” stručnjaci – učitelji koji paze da model ostane usklađen s poslovnim ciljevima.
Praktična kontrolna lista za početak • Napišite opis posla s jasnim „ne smije” točkama. • Uspostavite RAG ili sličan način povezivanja s pouzdanim internim izvorima. • Izgradite simulacijsko okruženje i zatražite ljudsko odobrenje prije lansiranja. • Uvedite zaštitne mehanizme: maskiranje podataka, filtre sadržaja, revizijske tragove. • Implementirajte jednostavan alat za povratnu informaciju i dogovorite ritam redovitih pregleda.
Kad svaki zaposlenik jednoga dana dobije AI kolegu, pobijedit će oni koji su shvatili: modelu nisu dovoljni podaci i procesorska snaga. Treba mu mentor, plan rasta i – stalna nastava.