Tvrtka Anthropic postavila je jasnu crvenu liniju: njezina umjetna inteligencija ne smije se koristiti u autonomnom oružju niti za široki državni nadzor. Ta klauzula, usmjerena na AI safety, mogla bi joj sada zatvoriti vrata unosnom ugovoru s vojskom.
Prema dostupnim informacijama, potencijalni vojni partner traži rješenja koja bi uključivala upravo one scenarije koje Anthropic isključuje. Tvrtka je, međutim, ostala pri stajalištu da „AI mora služiti čovječanstvu, a ne ga ugrožavati”. Time riskira gubitak vrijednog posla, ali i potvrđuje reputaciju jednog od najglasnijih zagovornika strožih etičkih ograničenja u brzom razvoju umjetne inteligencije.
Dok drugi konkurenti bez zadrške sudjeluju u obrambenim projektima, Anthropic naglašava da dugoročna sigurnost ima prednost pred kratkoročnom dobiti. Hoće li se vojni naručitelj prilagoditi tim pravilima ili potražiti fleksibilnijeg partnera, zasad ostaje otvoreno pitanje.