Krista Pawloski, radnica na platformi Amazon Mechanical Turk, prisjetila se trenutka kada je morala označiti je li tvit s rečenicom „Listen to that mooncricket sing” rasistički. Tek nakon dodatne provjere shvatila je da je riječ o uvredi prema Afroamerikancima. „Sjedeći za stolom, pitala sam se koliko sam puta ranije nehotice propustila nešto slično”, kazala je.
Takva iskustva navela su je da kod kuće potpuno zabrani alate poput ChatGPT-a, a prijateljima savjetuje da ih koriste samo kako bi provjerili vlastito znanje i uočili pogreške sustava. Svaki put kad bira novi zadatak na platformi, pita se može li se njezin rad iskoristiti na štetu drugih – i, kaže, često je odgovor potvrdan.
Širi trend nepovjerenja Pawloski nije izuzetak. Dvanaestak trenera i ocjenjivača odgovora – koji rade na modelima poput Geminija, Groka i drugih – govori da nakon godina „ispravljanja” sustava izbjegavaju generativni AI u privatnom životu te upozoravaju obitelj da čini isto.
• Radnica angažirana na provjeri AI odgovora u Google pretraživanju rekla je da joj je posebno sporno kako se rješavaju zdravstvene teme: ocjenjivači bez medicinskog znanja dobivaju zadatak potvrditi točnost savjeta o zdravlju. • Drugi ocjenjivač zadužen za „spoticanje” modela postavljao je povijesna pitanja. AI je odbijao govoriti o povijesti Palestinaca, dok je o Izraelu davao iscrpne odgovore. „Prijavili smo to, nikoga nije bilo briga”, kaže on.
Rokovi ispred kvalitete Brook Hansen, veteranica podatkovnog rada od 2010., smatra da problem nije sama tehnologija nego tvrtke koje je plasiraju: „Očekuju da model učinimo boljim, a daju nam nejasne upute, minimalnu obuku i nerealne rokove. Ako radnici nemaju potrebne resurse, kako izlaz može biti siguran ili etičan?”
Neovisna analiza deset vodećih generativnih modela pokazala je da su chatovi u kolovozu 2025. gotovo prestali odbijati dati odgovor (stopa neodgovaranja pala je sa 31 % na 0 %), dok se udio netočnih tvrdnji udvostručio – s 18 % na 35 %.
„Ne bih vjerovala nijednoj činjenici koju izbaci bot bez vlastite provjere”, kaže još jedna raterica. Kolege ironično dodaju: „Chatbotovi bi bili sjajni kad bismo ih uspjeli natjerati da prestanu lagati.”
Radnici ističu i etičke dileme: pristranosti u podacima, neplaćeni radni sati te veliki ekološki otisak. Na školskom skupu u Michiganu Pawloski i Hansen upozorile su da je AI „samo onoliko dobar koliko su dobri podaci koje dobije – a oni često nisu najbolji”. Reakcije su varirale od zahvalnosti do optužbi da šire „katastrofične” priče.
Što dalje? Unatoč sumnjama, većina ispitanih nastavlja raditi jer im taj posao plaća račune – ali u međuvremenu savjetuju bližnje: ne kupujte telefone s ugrađenim AI-em, ne davite sustav osobnim podacima i, prije svega, razvijajte kritičko mišljenje. „Kad vidite koliko su ti sustavi sklepaní – pristrani, brzinski, pune kompromisa – prestajete ih gledati kao futurističke čarolije i počnete ih vidjeti kao krhke tvorevine”, zaključuje istraživač Adio Dinika.