Otkriven je novi obrat u utrci između autora umjetne inteligencije i detektora AI-teksta. Tehnološki poduzetnik Siqi Chen objavio je otvoreni dodatak za asistenta Claude Code tvrtke Anthropic koji doslovno uči jezični model kako ne zvučati – poput jezičnog modela.
Dodatak nazvan Humanizer sastoji se od tzv. „skill” datoteke u Markdown formatu. U nju je Chen ubacio 24 jezična i stilska obrasca koje je skupina volontera s Wikipedije navela kao sigurne znakove da je tekst generirala umjetna inteligencija. Repozitorij na GitHubu prikupio je više od 1 600 zvjezdica u samo dva dana.
Wikipedia protiv – i za – AI
• Popis „AI tragova” potječe iz WikiProject AI Cleanup, inicijative koju je krajem 2023. pokrenuo francuski wikipedist Ilyas Lebleu. • Dobrovoljci su dosad označili više od 500 spornih članaka, a u kolovozu 2025. objavili su detaljan katalog najčešćih fraza i konstrukcija.
Ironija je očita: smjernice nastale da bi se AI-sadržaj lakše prepoznavao sada služe za njegovo prikrivanje. Claude, potpomognut Humanizerom, nastoji izbjegavati napuhane formulacije poput „obilježilo je prekretnicu” ili „smješten u pitoresknom okruženju” te ih zamjenjuje jednostavnijim, faktografskim rečenicama.
Primjer koji daje sam dodatak:
Prije: „Statistički institut Katalonije službeno je osnovan 1989., obilježavajući prekretnicu u razvoju regionalne statistike u Španjolskoj.”
Poslije: „Statistički institut Katalonije osnovan je 1989. radi prikupljanja i objave regionalnih statistika.”
Prednosti i mane
Prvi testovi pokazuju da Humanizer doista čini izlaz manje „robotskim”, ali uz cijenu. Tekstovi su opušteniji, no manje precizni, a kodni primjeri ponekad trpe. Neke upute – poput savjeta da model „iskazuje mišljenje” umjesto neutralnog navođenja činjenica – mogu biti problematične u tehničkoj dokumentaciji.
Šira slika
Stručnjaci godinama upozoravaju da pouzdano razlikovati ljudsko i strojno pisanje nije moguće samo na temelju stila. Najnoviji razvoj potkrepljuje tu tezu: ako se algoritme može natjerati da zaobiđu vlastite „odajuće” obrasce, tada sustavi za detekciju moraju dublje provjeravati činjeničnu točnost i originalnost sadržaja, umjesto da love samo retoričke krhotine.