“Nie” dla autonomicznej broni. Twórcy Claude’a na kursie kolizyjnym z Departamentem Obrony USA

Departament Obrony USA (przemianowany przez administrację Trumpa na Departament Wojny) znalazł się w impasie negocjacyjnym z firmą Anthropic, twórcą modeli AI z serii Claude. Kością niezgody w wartym 200 milionów dolarów kontrakcie jest odmowa usunięcia przez startup “barier bezpieczeństwa” (safeguards), które uniemożliwiają wykorzystanie sztucznej inteligencji do autonomicznego namierzania celów wojskowych oraz masowej inwigilacji obywateli USA.

Zgodnie z informacjami ujawnionymi przez agencję Reuters 29 stycznia 2026 r., konflikt narastał od tygodni. Pentagon, powołując się na nowe memorandum z 9 stycznia dotyczące strategii AI, domaga się pełnej swobody w wykorzystaniu komercyjnych technologii, argumentując, że jedynym ograniczeniem powinno być amerykańskie prawo, a nie wewnętrzne polityki firm technologicznych. Wojskowi dążą do integracji modeli językowych (LLM) w tzw. “łańcuchach zabijania” (kill chains), gdzie AI miałaby autonomicznie identyfikować i angażować cele bez bezpośredniego nadzoru człowieka na każdym etapie. Anthropic kategorycznie sprzeciwia się takiemu zastosowaniu, twierdząc, że jego modele są zaprojektowane tak, by unikać działań prowadzących do użycia siły letalnej.

Dario Amodei, CEO Anthropic, w korespondencji z urzędnikami miał podkreślić, że choć firma chce wspierać bezpieczeństwo narodowe w obszarach logistyki czy analizy danych (co już robi), nie zgodzi się na taktyki przypominające działania “autorytarnych adwersarzy”, takie jak masowy nadzór domowy czy w pełni autonomiczne systemy bojowe. Postawa ta wyróżnia Anthropic na tle konkurencji – giganci tacy jak Google, OpenAI czy xAI (należący do Elona Muska) w ostatnim czasie poluzowali swoje zasady etyczne, dostosowując się do wymagań nowej administracji w zamian za lukratywne kontrakty.

Eksperci oceniają ten spór jako pierwszy poważny test relacji między “Big Tech” a Waszyngtonem w nowej kadencji prezydenckiej. Jeśli Pentagon nie ustąpi, kontrakt z Anthropic może zostać zerwany, co byłoby precedensem w erze wyścigu zbrojeń AI. Sytuacja jest patowa, ponieważ nawet gdyby wojsko wymusiło dostęp do technologii, modele Claude wymagałyby aktywnego udziału inżynierów firmy w celu ich “odblokowania” i dostosowania do celów militarnych, na co pracownicy Anthropic nie chcą wyrazić zgody.