
Entenda embate entre governo dos EUA e Claude, rival do ChatGPT
O governo dos Estados Unidos insistiu nesta terça-feira (17) que a empresa de inteligência artificial Anthropic representa um “risco inaceitável” para o abastecimento militar, ao justificar a decisão de classificá-la como perigosa para o país.
O país já havia classificado a Anthropic como um risco no início deste mês, após a empresa não aceitar o uso irrestrito de sua IA por militares. Em seguida, a empresa reagiu entrando com um processo contra o governo dos EUA.
Nas últimas semanas, o modelo de IA Claude, da Anthropic, tem chamado atenção tanto por seu suposto uso na identificação dos alvos para bombardeios americanos no Irã quanto por não aceitar seu uso ilimitado para fins militares dos EUA.
O Pentágono — renomeado de Departamento de Guerra (DoW) pelo governo do presidente Donald Trump — justificou a decisão de cortar os laços com a Anthropic após ela entrar com a ação judicial.
Segundo um documento obtido pela AFP, o órgão avalia que manter o acesso da companhia à sua infraestrutura de combate representa um “risco inaceitável” para as cadeias de suprimentos.
“Os sistemas de IA são especialmente vulneráveis à manipulação”, acrescentou o governo em suas alegações perante um tribunal federal da Califórnia.
“A Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante operações bélicas em curso, se a Anthropic – a seu critério – considerar que suas ‘linhas vermelhas’ corporativas estão sendo ultrapassadas”, ressaltou.
Segundo o documento, o fato de a Anthropic não aceitar que sua tecnologia seja usada por militares em “qualquer uso legal” é visto como um “risco inaceitável para a segurança nacional”.
“O comportamento da Anthropic levou o Departamento a questionar se a Anthropic representava um parceiro confiável”, disse o governo.
Dario Amodei, diretor-executivo da Anthropic, e Donald Trump, presidente dos EUA
Reuters/Bhawika Chhabra; Reuters/Nathan Howard
A classificação da Anthropic como “risco para a cadeia de suprimentos”, contestada pela empresa na Justiça, pode impedir que fornecedores do governo façam negócios com ela.
Esta designação costuma ser reservada para organizações de países adversários estrangeiros, como a gigante da tecnologia chinesa Huawei.
Outras grandes empresas de tecnologia dos Estados Unidos, como a Microsoft, se posicionaram a favor da Anthropic. A empresa usa o modelo Claude e também presta serviços ao exército americano.
“Não é o momento de pôr em risco o ecossistema de IA que a administração contribuiu para impulsionar”, afirmou a Microsoft em um texto jurídico em separado apresentado ao tribunal na semana passada.
Veja mais:
Como prints do bloco de notas criaram mais rastros de conversa entre Vorcaro e Moraes
ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária
ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária
Source link

18 de março de 2026/
No Comments
Entenda embate entre governo dos EUA e Claude, rival do ChatGPT O governo dos Estados Unidos...






