Antrópico versus Pentágono: Por que a empresa de IA está assumindo a administração Trump


Há uma disputa entre o governo dos Estados Unidos e a Anthropic, uma das empresas de tecnologia que desenvolve ferramentas de inteligência artificial (IA) para defesa e uso civil.

De acordo com relatórios recentes, o software Claude da Anthropic foi utilizado numa operação militar dos EUA, que resultou no rapto de venezuelanos Presidente Nicolau Maduro em janeiro deste ano.

O secretário de Defesa dos EUA, Pete Hegseth, deu à empresa até sexta-feira para flexibilizar suas regras sobre como suas ferramentas de IA podem ser usadas pelo Pentágono, ou corre o risco de perder seu contrato governamental, relataram as agências de notícias Associated Press e Reuters na terça-feira, citando fontes não identificadas.

Mas a Anthropic recusa-se a recuar relativamente às salvaguardas que impedem que a sua tecnologia seja utilizada para conduzir a vigilância interna dos EUA e para programar armas autónomas que possam atingir alvos sem intervenção humana.

O que é antrópico?

Anthropic é uma empresa de IA fundada em 2021 por ex-executivos da OpenAI.

Foi o primeiro desenvolvedor de IA a ser usado em operações confidenciais do Departamento de Defesa dos EUA, que fica no Pentágono em Washington, DC.

A Anthropic é mais conhecida por construir o Claude, um popular modelo de linguagem grande (LLM) e rapidamente se tornou uma das empresas de desenvolvimento de IA mais proeminentes.

LLM é um tipo de tecnologia de IA que gera saída de texto, visual ou áudio semelhante ao conteúdo criado por humanos após a análise de grandes conjuntos de dados, como livros, arquivos, sites, fotos e vídeos.

Para uso militar e de defesa, os LLMs podem resumir grandes volumes de texto, analisar dados, traduzir, transcrever e redigir memorandos. Em teoria, também podem ser usados ​​para apoiar sistemas de armas autónomos ou semi-autónomos, que podem identificar e atingir alvos sem a necessidade de instrução humana. No entanto, a maioria das empresas de IA possui termos que proíbem esse uso.

A Anthropic se posiciona como um desenvolvedor “responsável” no cenário de IA. No seu website, a empresa descreve-se como uma “Corporação de Benefício Público” comprometida com o “desenvolvimento responsável e manutenção de IA avançada para o benefício a longo prazo da humanidade”.

Em Novembro, a empresa alegou que um grupo de hackers patrocinado pelo Estado chinês tinha manipulado o código Claude numa tentativa de se infiltrar em cerca de 30 alvos a nível mundial, incluindo agências governamentais, empresas químicas, instituições financeiras e gigantes da tecnologia. Algumas dessas tentativas foram bem-sucedidas.

No início deste mês, Mrinank Sharma, pesquisador de segurança de IA da Anthropic, resignado de sua posição sobre preocupações sobre o uso de IA.

Numa declaração publicada na sua conta X em 9 de fevereiro, Sharma escreveu: “O mundo está em perigo. E não apenas por causa da IA ​​ou das armas biológicas, mas por toda uma série de crises interligadas que se desenrolam neste exato momento”.

“Além disso, ao longo do meu tempo aqui, vi repetidamente como é difícil deixar verdadeiramente que os nossos valores governem as nossas ações. Vi isso dentro de mim mesmo, dentro da organização, onde enfrentamos constantemente pressões para deixar de lado o que é mais importante, e também em toda a sociedade em geral”, acrescentou.

Com quais outras empresas de IA os militares dos EUA trabalham?

O Pentágono anunciou no verão passado que estava a adjudicar contratos de defesa a quatro empresas de IA – Anthropic, Google, OpenAI e xAI. Cada contrato vale até US$ 200 milhões.

A Anthropic foi a primeira empresa de IA a ser aprovada para redes militares classificadas, nas quais supostamente trabalha com parceiros como a empresa de software norte-americana Palantir Technologies, que tem sido criticada pelas suas ligações com os militares israelitas. A xAI de Elon Musk, que opera o chatbot Grok, diz que Grok também está pronto para ser usado em ambientes confidenciais, de acordo com um alto funcionário não identificado do Pentágono, informou a AP.

Mas a administração Trump quer poder utilizar os produtos destas empresas de IA sem restrições. Hegseth disse que a sua visão para os sistemas militares de IA significa que estes operam “sem restrições ideológicas que limitem as aplicações militares legais”, antes de acrescentar que a “IA do Pentágono não será despertada”.

Por que a Antrópica está em desacordo com o Pentágono?

Fontes relataram que em uma reunião na terça-feira, Hegseth deu ao CEO da Anthropic, Dario Amodei, até sexta-feira, 17h (22h GMT), para concordar em fornecer modelos de IA da Anthropic para uso na nova rede interna do Pentágono com menos restrições.

Autoridades do Departamento de Defesa dos EUA alertaram que poderiam designar a Antrópica como um risco na cadeia de suprimentos ou usar a Lei de Produção de Defesa para essencialmente dar aos militares mais autoridade para usar seus produtos, mesmo que não aprovem como eles são usados, de acordo com uma pessoa familiarizada com a reunião e um alto funcionário do Pentágono, nenhum dos quais foi autorizado a comentar publicamente e falou sob condição de anonimato, informou a AP.

Amodei também já levantou preocupações éticas sobre o uso não controlado da IA ​​pelo governo, incluindo os perigos dos drones armados totalmente autónomos e da vigilância em massa assistida pela IA que poderia rastrear a dissidência.

“Uma IA poderosa que analisa bilhões de conversas de milhões de pessoas poderia avaliar o sentimento público, detectar a formação de bolsões de deslealdade e eliminá-los antes que cresçam”, escreveu ele em um ensaio no mês passado.

Uma pessoa familiar chamou o tom da reunião de terça-feira de “cordial”, mas disse que Amodei se recusou a ceder em duas questões principais – operações militares totalmente autônomas e vigilância doméstica de cidadãos dos EUA.

Numa aparição num podcast na terça-feira, na qual explicou a sua recusa em ceder às exigências do Pentágono, Amodei reiterou as suas preocupações em torno de “enxames de drones autónomos” – provavelmente drones autónomos que podem atacar alvos sem intervenção humana – e vigilância em massa.

“As proteções constitucionais nas nossas estruturas militares dependem da ideia de que existem humanos que desobedeceriam ordens ilegais com armas totalmente autónomas”, disse Amodei, observando que os drones autónomos não seriam capazes de fazer tal distinção.

O Pentágono opõe-se às restrições éticas da Antrópico porque as operações militares requerem ferramentas que não têm limitações incorporadas, disse o alto funcionário do Pentágono. O funcionário argumentou que o Pentágono emitiu apenas ordens legais e enfatizou que o uso legal das ferramentas da Antrópico seria de responsabilidade dos militares.

Como Claude foi usado na Venezuela?

Em 3 de janeiro, as forças especiais dos EUA raptaram Maduro, que permanece sob custódia dos EUA e enfrenta julgamento por acusações de drogas e armas em Nova Iorque.

Reportagens da mídia norte-americana revelaram em 14 de fevereiro que Claude, da Anthropic, havia sido usado na operação para atacar Caracas e capturar Maduro.

Um funcionário anônimo da Antrópico abordado pelo The Wall Street Journal se recusou a comentar se Claude, ou qualquer outro modelo de IA, foi usado em qualquer operação. No entanto, o responsável disse que qualquer utilização de Claude no sector privado ou pelo governo teria de estar em conformidade com as políticas de utilização de Claude.

De acordo com as políticas de uso listadas no site da Anthropic, Claude não pode ser usado para vigilância, desenvolvimento de armas ou “incitação à violência”.

Um total de 83 pessoasincluindo 47 soldados venezuelanos, foram mortos durante a operação especial dos EUA na Venezuela.

A mídia dos EUA também informou que a Anthropic fez parceria com a Palantir Technologies, cujas ferramentas também são usadas pelo Departamento de Defesa e por agências federais de aplicação da lei.

Não está claro como exatamente Claude foi usado durante o ataque a Caracas em janeiro, mas as ferramentas de IA podem ser usadas para controlar drones, analisar imagens e resumir as comunicações interceptadas.

Em julho de 2025, Francesca Albaneseo relator especial das Nações Unidas para os direitos humanos no território palestino ocupado, divulgou um relatóriomapear as empresas que ajudam Israel na deslocação de palestinianos e na sua guerra genocida em Gaza, em violação do direito internacional.

O relatório concluiu que Palantir expandiu o seu apoio aos militares israelitas desde o início da sua guerra genocida em Gaza em Outubro de 2023.

Mais do autor

EUA acusados ​​de ‘exploração descarada’ devido ao acordo proposto de ajuda à saúde na Zâmbia

‘Repressão anti-palestina’: Especialistas jurídicos documentam centenas de casos no Reino Unido