Anthropic, tvorac popularnog modela Claude, tvrdi da stroži pristup sigurnosti i etici ne sputava, nego ubrzava komercijalni uspjeh umjetne inteligencije. Predsjednica i suosnivačica tvrtke Daniela Amodei istaknula je da je „nemoguće ostvariti puni potencijal AI-ja ako se zanemari njegova tamna strana”.
Prema njezinim riječima, više od 300 000 startupova i korporacija već ugrađuje Claude u svoje proizvode. „Nitko ne traži manje siguran proizvod”, rekla je, povukavši paralelu s automobilskom industrijom gdje objava testova sudara gradi povjerenje kupaca.
Klijenti, dodaje, biraju rješenja koja manje haluciniraju, rjeđe generiraju štetan sadržaj i imaju jasne mehanizme zaštite. Time tržište samo postavlja minimalne standarde: „Zašto biste odabrali konkurenta koji u svim tim kategorijama stoji lošije?”
Anthropic se oslanja na koncept „ustavne AI” – modele trenirane na dokumentima poput Opće deklaracije UN-a o ljudskim pravima kako bi procjenjivali upite kroz etičku, a ne samo faktografsku prizmu. Takav pristup, tvrdi Amodei, privlači vrhunske stručnjake i pomaže zadržati talent. Tvrtka je u nekoliko godina narasla s 200 na više od 2 000 zaposlenih.
Unatoč upozorenjima o „AI balonu”, Amodei ne primjećuje usporavanje. „Modeli i prihodi rastu točno kako predviđaju skalni zakoni – sve ide po krivulji dok jednog dana više ne ide”, rekla je, dodavši da Anthropic „ostaje svjestan vlastitih granica i pazi da euforija ne zamagli realnost”.