W wydanym oświadczeniu firma wyraziła „smutek” z powodu „bezprecedensowej” decyzji resortu obrony o nałożeniu na nią sankcji zarezerwowanej dotąd dla przeciwników USA.
„Działanie to jest następstwem wielomiesięcznych negocjacji, które zakończyły się impasem w związku z dwoma wyjątkami, o które wnioskowaliśmy, dotyczącymi legalnego wykorzystania naszego modelu sztucznej inteligencji, Claude: do masowej inwigilacji Amerykanów w kraju oraz w pełni autonomicznej broni” - napisano.
Spółka podała, że zamierza zaskarżyć tę decyzję do sądu. Zakwestionowała też interpretację skutków uznania jej za „zagrożenie dla łańcucha dostaw”. O ile szef Pentagonu Pete Hegseth twierdził, że żaden kontrahent resortu (w tym firmy takie jak Amazon, Google, czy Microsoft) nie może prowadzić żadnej działalności komercyjnej z Anthropic, to według samej spółki nie ma on uprawnień do nałożenia tak daleko idących sankcji. Zdaniem prawników firmy, decyzja może jedynie zakazać firmom współpracującym z Pentagonem używania Claude'a w ramach realizacji rządowych kontraktów, a nie w innych przypadkach.
Ogłaszając w piątek restrykcje Hegseth zarzucił spółce „arogancję i zdradę” oraz uzurpowanie sobie prawa do blokowania „decyzji operacyjnych” armii USA.
„Nasze stanowisko nigdy nie uległo zmianie i nigdy nie ulegnie zmianie: Departament Wojny musi mieć pełny, nieograniczony dostęp do modeli Anthropic dla każdego ZGODNEGO Z PRAWEM celu obrony Republiki. Zamiast tego, Anthropic i jego dyrektor generalny Dario Amodei wybrali dwulicowość” - napisał minister.
„Pod płaszczykiem świętoszkowatej retoryki „skutecznego altruizmu” próbowali siłą zmusić armię Stanów Zjednoczonych do uległości – tchórzliwy akt korporacyjnego sygnalizowania cnoty, stawiający ideologię Doliny Krzemowej ponad amerykańskie życie” - napisał w serwisie X.
Hegseth podał jednak, że mimo uznania firmy za zagrożenie, musi ona dalej świadczyć usługi państwu przez najbliższe sześć miesięcy, do czasu zastąpienia jej przez inny system AI.
Wcześniej prezydent USA Donald Trump zakazał używania systemów firmy Anthropic przez wszystkie agencje federalne, nazywając firmę „skrajnie lewicową”
Anthropic, twórca czołowych obecnie modeli AI Claude, jest jedyną spółką, której produkty używane są w niejawnych rządowych zasobach, a według „Washington Post” model Claude został też użyty podczas operacji pojmania przywódcy Wenezueli Nicolasa Maduro. Wartość obecnego, trwającego od 2024 r. kontraktu z Pentagonem to 200 mln dol. Wartość Anthropic szacuje się na 380 mld dol.
Szef firmy Dario Amodei już w czwartek napisał w oświadczeniu, że choć Anthropic popiera współpracę na rzecz bezpieczeństwa narodowego kraju i dotąd nie podejmował żadnych decyzji ad hoc o ograniczeniu użycia swoich produktów, to nie może zrezygnować z postulatów, by umowa z Pentagonem zawierała zabezpieczenia przed użyciem AI do masowej inwigilacji wewnętrznej oraz do broni autonomicznej, podejmującej decyzje bez udziału człowieka (zwanej przez krytyków „robotami-zabójcami”). Pentagon twierdził, że nie planował takiego użytku Claude'a, ale deklarował, że nie może pozwolić na stawianie przez prywatne firmy warunków co do użycia kupowanych przez wojsko produktów.
Amodei argumentuje jednak, że prawo nie jest dostosowane do realiów w świetle możliwości AI. Jako przykład podawał fakt, że podsłuchiwanie rozmów w miejscach publicznych jest legalne, a AI mogłaby zostać użyta do masowego podsłuchiwania, transkrypcji i analizy prowadzonych rozmów.
„Wall Street Journal” napisał, że obok spółki Anthropic jedyną inną firmą AI, które ma zgodę na użycie w systemach niejawnych jest xAI Elona Muska, lecz „agencje rządowe wyraziły obawy co do niezawodności systemu i szybkości zastąpienia” Claude'a. Portal Axios podał tymczasem, że warunki użycia swojego modelu AI w zasobach niejawnych Pentagonu miał uzgodnić też inny rywal Anthropica, OpenAI.
Z Waszyngtonu Oskar Górzyński (PAP)








