Na última semana de fevereiro de 2026, a Anthropic (empresa criadora do Claude, um dos modelos de linguagem mais avançados do mundo) recusou um ultimato do Pentágono. O Departamento de Defesa queria acesso irrestrito ao modelo para "todos os fins legais". A Anthropic disse não. O governo dos Estados Unidos respondeu banindo a empresa de todos os contratos federais e classificando-a como risco à cadeia de suprimentos de segurança nacional.

Essa designação, normalmente reservada a empresas de países adversários como a Huawei chinesa, nunca havia sido aplicada a uma empresa americana. O que levou a esse ponto foi uma disputa sobre duas restrições que a Anthropic se recusou a remover: o uso do Claude para vigilância em massa de cidadãos americanos e para armas autônomas sem supervisão humana.

É uma história sobre contratos, sim. Mas é principalmente sobre quem define o limite do que uma IA pode fazer. E o que acontece quando a resposta não agrada quem está no poder.

O contrato que deu errado

Em julho de 2025, o Departamento de Defesa, por meio do CDAO (Chief Digital and Artificial Intelligence Office), concedeu à Anthropic um contrato de dois anos no valor de até 200 milhões de dólares. O objetivo declarado: prototipar capacidades de IA de fronteira para avançar a segurança nacional dos EUA.

Antes disso, em novembro de 2024, a Anthropic já havia firmado uma parceria com a Palantir e a AWS para levar modelos Claude a ambientes classificados do governo americano. O Claude foi integrado à plataforma AIP da Palantir em ambientes com acreditação Impact Level 6 (IL6), o nível de segurança que exige as mais rigorosas proteções da DISA, abaixo apenas do top secret.

Na prática, os modelos já estavam sendo usados para processar dados complexos, identificar padrões em volumes massivos de informação e apoiar decisões em situações de pressão temporal. A Anthropic era a primeira empresa de IA a integrar seus modelos em workflows de missão em redes classificadas.

O contrato, porém, incluía termos da política de uso aceitável da Anthropic que restringiam duas aplicações específicas. E foi exatamente nesse ponto que tudo desandou.

Duas linhas que não se cruzam

As duas restrições que a Anthropic insistiu em manter são diretas:

  1. O Claude não pode ser usado em sistemas de armas totalmente autônomos, ou seja, aqueles que selecionam e engajam alvos sem envolvimento humano
  2. O Claude não pode ser usado para vigilância em massa de cidadãos americanos

Em entrevista exclusiva à CBS News, Dario Amodei, CEO da Anthropic, explicou a posição da empresa. Sobre armas autônomas, ele disse que não se opõe categoricamente à ideia, especialmente se adversários dos EUA desenvolverem tecnologia semelhante. Mas afirmou que "sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para operar armas totalmente autônomas" e que tais sistemas "não podem substituir o julgamento crítico que nossos militares altamente treinados exercem todos os dias".

Sobre vigilância, a posição é mais absoluta. A Anthropic considera que usar IA para monitoramento em massa de cidadãos americanos viola sua definição de IA responsável.

Amodei foi explícito: "Não vamos ceder nessas linhas vermelhas". Quando pressionado, disse que "discordar do governo é a coisa mais americana do mundo" e que as restrições existem porque "cruzar essas linhas é contrário aos valores americanos, e queríamos defender esses valores".

Pode-se concordar ou discordar das linhas traçadas. Mas a clareza da posição é incomum no setor de tecnologia, onde a maioria das empresas prefere ambiguidade estratégica.

O ultimato

Em 24 de fevereiro de 2026, o secretário de Defesa Pete Hegseth deu a Amodei um prazo: até 17h01 de sexta-feira, 27 de fevereiro, a Anthropic deveria permitir o uso irrestrito de seus modelos de IA para "todos os fins legais".

O Pentágono não pediu ajustes. Pediu capitulação.

A Anthropic respondeu publicamente na quinta-feira, 26 de fevereiro: "Não podemos, em boa consciência, ceder ao pedido deles". A empresa afirmou que a nova linguagem contratual recebida do Departamento de Defesa "fez virtualmente zero progresso em prevenir o uso do Claude para vigilância em massa de americanos ou em armas totalmente autônomas".

Um oficial do Pentágono reagiu publicamente: "Vocês precisam confiar nos seus militares para fazerem a coisa certa".

Na sexta-feira, o prazo expirou sem acordo. O presidente Donald Trump ordenou que todas as agências federais "cessassem imediatamente" o uso de produtos da Anthropic. Hegseth designou a empresa como risco à cadeia de suprimentos de segurança nacional, e as agências federais receberam seis meses para abandonar completamente os produtos da Anthropic.

A ironia OpenAI

Horas depois do banimento da Anthropic, a OpenAI fechou um acordo com o Pentágono para fornecer seus modelos na rede classificada militar.

A parte surpreendente: o acordo da OpenAI inclui as mesmas restrições que a Anthropic havia exigido.

Sam Altman, CEO da OpenAI, escreveu em um memo interno obtido pela CNN: "Isso não é mais apenas uma questão entre a Anthropic e o Departamento de Defesa; é uma questão para toda a indústria e é importante esclarecer nossa posição". Altman afirmou que "dois dos nossos princípios de segurança mais importantes são proibições de vigilância em massa doméstica e responsabilidade humana pelo uso de força, incluindo sistemas de armas autônomos", e que "o Departamento de Defesa concorda com esses princípios, os reflete em lei e política, e os colocamos em nosso acordo".

O Pentágono aceitou da OpenAI o que recusou da Anthropic.

O acordo permite que a OpenAI construa sua própria "safety stack" (um sistema de controles técnicos, políticos e humanos em camadas) e mantenha controle sobre como as salvaguardas técnicas são implementadas. Os modelos ficam restritos a ambientes de nuvem, sem implantação em sistemas de borda como armas autônomas.

Mais de 570 funcionários do Google e mais de 90 da OpenAI assinaram uma carta aberta intitulada "Não seremos divididos", pedindo que as lideranças de suas empresas "deixassem de lado suas diferenças e se mantivessem unidas para continuar recusando as demandas atuais do Departamento de Defesa".

O próprio Altman disse que "pessoalmente não acho que o Pentágono deveria estar ameaçando empresas" com designações de segurança.

Então: a Anthropic pediu restrições e foi banida. A OpenAI pediu as mesmas restrições e fechou o contrato. Se há uma explicação técnica para essa diferença de tratamento, ela ainda não foi apresentada publicamente.

Supply chain risk: a arma nuclear corporativa

A designação de "supply chain risk" é, em termos práticos, o equivalente corporativo de uma sanção econômica. Quando aplicada, impede que contratantes militares façam negócios com a empresa designada.

Dean Ball, ex-consultor sênior de política de IA da própria administração Trump e pesquisador da Foundation for American Innovation, chamou a medida de "tentativa de assassinato corporativo" e disse que a interpretação de Hegseth é "quase certamente ilegal".

Se a designação for mantida na interpretação ampla do Pentágono, o impacto vai além de contratos governamentais. Empresas como Amazon, Google e Nvidia (que investiram bilhões de dólares na Anthropic) podem ser obrigadas a desinvestir. Clientes corporativos que também mantêm contratos com o governo federal teriam que escolher entre o Pentágono e a Anthropic.

A Anthropic anunciou que vai contestar a designação judicialmente, chamando-a de "legalmente infundada" e alertando que ela "estabelece um precedente perigoso para qualquer empresa americana que negocie com o governo".

É difícil não notar o efeito disciplinar pretendido. Se uma empresa pode ser classificada como risco de segurança nacional por negociar os termos de um contrato, o incentivo para qualquer outra empresa do setor é claro: aceite o que o governo propõe, ou pague o preço.

O que sobra para quem desenvolve

Para quem trabalha com software, essa disputa pode parecer distante. Não é.

Os modelos de IA que usamos para escrever código, analisar dados e automatizar processos são os mesmos que o Pentágono quer usar sem restrições. As decisões sobre os limites desses modelos (se podem operar armas, se podem vigiar cidadãos, se a empresa que os criou pode dizer "não") definem o ambiente em que todo desenvolvedor vai trabalhar nos próximos anos.

Se empresas de IA perdem a capacidade de impor políticas de uso aceitável em seus próprios produtos, o conceito de IA responsável se torna retórica vazia. Os safety papers, os acceptable use policies, os responsible scaling commitments. Tudo isso só tem valor se puder ser defendido contra pressão real.

O confronto também levanta questões práticas. Quem constrói sobre APIs de IA precisa considerar: o que acontece se o fornecedor da minha stack for designado como risco de segurança nacional da noite para o dia? Qual é o plano de contingência? A resposta correta provavelmente envolve não depender de um único fornecedor, algo que já era boa prática e agora se tornou urgente.

E há uma questão mais ampla. Amodei disse algo que vale repetir: "Discordar do governo é a coisa mais americana do mundo". Independente de concordar com as linhas vermelhas específicas que a Anthropic traçou, a ideia de que uma empresa privada pode — e em certos casos deve — dizer não ao governo é um princípio que sustenta mercados livres e inovação tecnológica.

Quando esse princípio é punido com uma designação de segurança nacional, o que se comunica a toda startup, a todo investidor e a todo engenheiro que trabalha com IA?

Conclusão

Esta história ainda não terminou. A Anthropic vai à justiça. O acordo da OpenAI com o Pentágono ainda não foi detalhado publicamente na íntegra. E as consequências da designação de supply chain risk (para a Anthropic, para seus investidores e para a indústria como um todo) vão levar meses para se materializar.

Mas algumas coisas já estão claras. A era em que empresas de IA podiam operar sem que governos exigissem controle direto sobre seus modelos acabou. A questão não é mais se governos vão pressionar por acesso irrestrito a sistemas de IA avançados. É se as empresas que os constroem terão permissão para manter limites.

A Anthropic escolheu suas duas linhas e não saiu delas. Custou 200 milhões de dólares em contratos e uma designação que pode custar muito mais. Resta ver se o restante da indústria vai achar que valeu a pena.

Referências pesquisadas nesta publicação