A administração Trump designou a Anthropic como um “risco da cadeia de abastecimento” pela sua posição sobre o aumento da regulamentação, uma medida que bloquearia a empresa de certos contratos militares.
Histórias recomendadas
lista de 4 itensfim da lista
O Departamento de Defesa dos Estados Unidos pode estar tentando punir ilegalmente a Antrópica por tentar restringir o uso de seus modelos de inteligência artificial (IA) para armas sem supervisão humana ou para vigilância em massa, disse um juiz distrital.
“Parece uma tentativa de paralisar a Anthropic”, disse a juíza Rita Lin, do tribunal distrital do norte da Califórnia, na terça-feira.
Analistas jurídicos dizem que isso poderia preparar o terreno para fornecer à Antrópico uma liminar preliminar contra ser rotulada como um risco à cadeia de suprimentos pelo Departamento de Defesa.
“Os seus objectivos declarados não são totalmente apoiados pelo Departamento de Guerra”, disse Charlie Bullock, investigador sénior do Institute for Law and AI, um think tank com sede em Boston, sobre a designação de Antrópico pelo Departamento de Defesa como um risco na cadeia de abastecimento.
Esta é a primeira vez que uma empresa dos EUA é designada como tal e isso implicaria o cancelamento de contratos governamentais, bem como de contratantes governamentais.
Em 17 de março, o Departamento de Defesa disse ao tribunal que a posição da Antrópica de que os seus produtos não sejam utilizados para armas alimentadas por IA sem supervisão humana ou para vigilância doméstica prejudicaria a sua “capacidade de controlar as suas próprias operações legais”.
Antrópico ação judicial remover a designação revela-se como sendo sobre a extensão das capacidades da IA, como elas poderiam moldar a vida e se serão regulamentadas.
“Este caso é uma espécie de momento para refletir sobre que tipo de relações queremos entre o governo e as empresas e quais os direitos que os cidadãos têm”, diz Robert Trager, codiretor da Oxford Martin AI Governance Initiative da Universidade de Oxford.
Alison Taylor, professora clínica associada de negócios e sociedade na Stern School of Business da Universidade de Nova Iorque, afirmou: “Nos EUA, a tecnologia está a avançar como um comboio de carga e qualquer ideia de supervisão humana está a tornar-se mais difícil. Mas as pessoas estão preocupadas com a perda de empregos, centros de dados, vigilância e armas relacionadas com a IA. Isto significa que a opinião pública está a afastar-se da IA.”
Nas últimas duas semanas, uma série de empresas de tecnologia, grupos de reflexão e grupos jurídicos apresentaram petições judiciais em apoio à posição da Anthropic, pedindo supervisão e regulamentação da IA para armas e vigilância em massa. Esse apoio vai desde a Microsoft e os funcionários dos concorrentes da Anthropic, OpenAI e Google Inc, até os Teólogos Morais Católicos e Eticistas, entre outros.
No seu relatório, os engenheiros da OpenAI e do Google DeepMind, declarando a título pessoal, o caso é de “importância sísmica para a nossa indústria” e que a regulamentação é crucial, uma vez que “a cadeia de raciocínio dos modelos de IA é muitas vezes escondida dos seus operadores, e o seu funcionamento interno é opaco até mesmo para os seus desenvolvedores. E as decisões que tomam em contextos letais são irreversíveis”.
Tendo como pano de fundo tais preocupações, Taylor, da NYU, disse: “A Anthropic está fazendo uma aposta arriscada, mas boa, de que se posicionar como uma empresa ética de IA lhe dará uma ajuda na definição da regulamentação quando isso acontecer”.
Alucinações e outros problemas
A Anthropic trabalhou extensivamente em contratos do Pentágono e os seus modelos Claude Gov foram integrados no Project Maven da Palantir, que ajuda na análise de dados, selecção de alvos e outras tarefas semelhantes, supostamente incluindo na guerra em curso EUA-Israel contra o Irão.
Embora as armas alimentadas por IA não sejam actualmente utilizadas sem supervisão humana, a Anthropic pediu supervisão humana contínua no seu contrato com o Departamento de Defesa porque, afirma, os modelos de IA podem ter alucinações e ainda não são completamente fiáveis. Embora a alucinação seja uma preocupação em todos os modelos de IA, o dano potencial causado pelo uso de armas pode ser em grande escala.
Mary Cummings, professora de engenharia civil na Faculdade de Engenharia e Computação da Universidade George Mason e diretora do Centro de Autonomia e Robótica Mason, descobriu que metade de todos os acidentes com carros autônomos em São Francisco, onde a maioria desses carros é utilizada, foram causados pelo carro pensando erroneamente que um objeto estava à sua frente e freando, fazendo com que o carro atrás dele colidisse com ele.
“Chamamos isso de frenagem fantasma e é causado por alucinação”, disse ela à Al Jazeera.
Num artigo de fevereiro, ela alertou que “a incorporação da IA nas armas enfrentará problemas de confiabilidade semelhantes aos dos carros autônomos, incluindo alucinações”.
Annika Schoene, professora assistente que pesquisa o impacto da IA nos sistemas de saúde na Bouve College of Health Sciences da Northeastern University, diz: “A alucinação não é a única preocupação. Modelos como esses podem ter diferentes fluxos de trabalho, vieses de dados ou vieses de modelo. Ainda não sabemos até que ponto eles são seguros contra a manipulação estrangeira. Há tantas peças nisso e ainda não concordamos sobre o que consideramos seguro e o que não consideramos.”
Dado que os modelos de IA, incluindo Claude Gov, não são fabricados pelos militares, é necessário testar até que ponto são fiáveis ao mesmo tempo que os integra em sistemas militares, diz Aalok Mehta, diretor do Centro de IA Wadhwani no think tank com sede em Washington, DC, Centro de Estudos Estratégicos e Internacionais.
“As avaliações e os testes de benchmark podem demorar. Os modelos saturam os sistemas de teste que temos.”
Outros dizem que não é tanto a tecnologia, mas a forma como ela é usada, que pode levar a erros.
“Lembro-me, no [early] Na década de 2020, havia esperança de que, com essas ferramentas, as mortes de civis diminuiriam”, diz Andrew Reddie, professor associado de pesquisa da Universidade da Califórnia, Escola Goldman de Políticas Públicas de Berkeley e fundador do Laboratório de Risco e Segurança de Berkeley.
“Mas isso não aconteceu realmente porque depende dos dados que você alimenta. O desafio não é a IA, mas sim o que é um alvo legítimo”, diz ele sobre como o pessoal militar seleciona alvos a partir de uma gama fornecida por ferramentas.
Também na vigilância doméstica em massa, embora não esteja claro se o Pentágono está atualmente a utilizar IA para isso, os investigadores da OpenAI e do Google sublinharam preocupações sobre isto nas suas petições judiciais.
Mais de 70 milhões de câmeras, históricos de transações de cartão de crédito e outros dados podem ser coletados para monitorar toda a população dos EUA, dizem. “Mesmo a consciência de que tal capacidade existe cria um efeito inibidor na participação democrática.”
‘Triunfo das relações públicas’
Até ao processo judicial e no meio da crescente acrimónia pública, dizia-se que a Anthropic tinha uma relação mais profunda com o Pentágono do que muitos dos seus concorrentes, e que beneficiava ambos.
“O Pentágono acredita que a Anthropic tem o melhor produto para uso militar, por isso está pressionando a empresa” para continuar a usá-lo, diz Mehta do CSIS.
Quanto à Anthropic, “a economia é muito desafiadora para a indústria de IA. Portanto, é necessário um negócio robusto do setor público, com seus bilhões de dólares em contratos”, diz ele.
A OpenAI substituiu a Anthropic para trabalhar com o Pentágono logo após o término do contrato da Anthropic. Mas a Anthropic parece ter tido “um triunfo de relações públicas, se não de substância”, diz Taylor, da NYU.
Seu posicionamento como uma empresa ética de IA pode ter conquistado popularidade pública. Os downloads de Claude aumentaram acentuadamente nas semanas após o cancelamento do contrato.
Mas uma empresa que tenha de traçar limites é um indicativo do fracasso do governo em fazê-lo, diz Brianna Rosen, diretora executiva do Programa Oxford para Política Cibernética e Tecnológica.
“Pela primeira vez, os Estados Unidos estão a utilizar IA para gerar alvos em operações de combate em grande escala no Irão”, diz ela. “E os legisladores ainda estão a debater se devem traçar limites para armas totalmente autónomas. A ausência de governação é em si um risco para a segurança nacional.”
O debate sobre a regulamentação das armas de IA apenas amplifica a lacuna entre a preocupação pública e a reticência em regulamentar excessivamente a inovação da IA noutros domínios. As pesquisas mostram que os americanos estão preocupados com as potenciais perdas de empregos e os impactos das mudanças climáticas decorrentes da IA. Uma pesquisa de abril de 2025 da Universidade Quinnipac descobriu que 69% dos americanos achavam que o governo poderia fazer mais para regulamentar a IA.
Esta ruptura levou a indústria da IA a emergir como um importante doador nas eleições intercalares de 2026. Leading The Future, um super PAC que recebeu mais de US$ 100 milhões do presidente da OpenAI, Greg Brockman, do cofundador da Palantir, Joe Lonsdale e outros, financiou anúncios contra Alex Bores, um membro da assembleia de Nova York que concorre ao Congresso. Bores patrocinou a lei RAISE que obrigaria os desenvolvedores de IA a divulgar protocolos de segurança ou acidentes.
Em fevereiro, a Anthropic anunciou uma doação de US$ 20 milhões para a Public First Action, um PAC que apoiará candidatos a favor da regulamentação da IA, incluindo Bores.
Enquanto as empresas de IA procuram desenvolver padrões industriais para testar e avaliar os seus modelos, a Anthropic pressiona por regulamentação porque os maus actores podem violar esses padrões não vinculativos, afirma o Institute for Law e Bullock da AI.
Entre a decisão judicial sobre o caso da Antrópico e as próximas eleições intercalares, os especialistas dizem que esses eventos podem determinar o curso da regulamentação da IA.
“Isso poderia criar espaço para um desenvolvimento político mais deliberado”, diz Rosen, de Oxford.





