EUA classificam Anthropic como um risco após empresa não aceitar uso militar irrestrito de sua IA

Redação
3 Min Read
EUA classificam Anthropic como um risco após empresa não aceitar uso militar irrestrito de sua IA

EUA classificam Anthropic como um risco após empresa não aceitar uso militar irrestrito de sua IA

Empresa que criou o assistente Claude não quer que seus modelos de inteligência artificial sejam usados para vigilância em massa e armas autônomas. Mas governo dos EUA desejava usá-los para qualquer finalidade ‘lícita’.


Entenda embate entre governo dos EUA e Claude, rival do ChatGPT

Entenda embate entre governo dos EUA e Claude, rival do ChatGPT

O Departamento de Guerra dos Estados Unidos informou à empresa de inteligência artificial Anthropic de que ela foi classificada como um risco à cadeia de fornecimento, disse um oficial do órgão nesta quinta-feira (5). A medida tem efeito imediato, segundo ele.

A Anthropic, criadora do Claude, tinha retomado a conversa com o governo americano sobre o uso militar de suas ferramentas, conforme revelou nesta quinta-feira (5) o jornal Financial Times.

A empresa pretendia resolver o impasse que surgiu na última semana sobre como seus modelos de IA poderiam ser usados pelas Forças Armadas dos EUA.

O objetivo da Anthropic era impedir que a sua ferramenta fosse usada para vigilância em massa de cidadãos e sistemas de armamento autônomos, por exemplo. Mas o governo americano buscava liberação para eles serem usados para qualquer finalidade “lícita”.

O secretário de Guerra de Trump, Pete Hegseth, já tinha ameaçado classificar a empresa como um risco na semana passada. Com a decisão oficializada, empresas do ramo militar nos EUA deverão cortar laços com a companhia.

Dario Amodei, diretor-executivo da Anthropic, e Donald Trump, presidente dos EUA — Foto: Reuters/Bhawika Chhabra; Reuters/Nathan Howard

O acordo permitiria a militares americanos voltar a usar livremente modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco.

Ele também poderia afetar os planos da rival OpenAI, dona do ChatGPT, que anunciou na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono.

Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google.

Ops!

TAGGED:
Share This Article