Tecnologia

Trump pressiona empresa a liberar IA para uso no Exército

Governo Trump Pressiona Anthropic por Tecnologia de Inteligência Artificial

O governo dos Estados Unidos, sob a administração do presidente Donald Trump, impôs um ultimato à Anthropic, exigindo que a empresa libere sua tecnologia de Inteligência Artificial (IA) para uso geral pelo Exército. O secretário de Defesa, Pete Hegseth, deu prazo até esta sexta-feira (27) para que a Anthropic atenda à solicitação, ameaçando rescindir contratos e classificar a empresa como "risco à cadeia de suprimentos".

Pressão Sobre a Anthropic

A Anthropic, desenvolvedora do modelo de IA Claude, é a última entre suas concorrentes a resistir à pressão do governo para fornecer suas tecnologias. A ferramenta Claude já foi utilizada em operações militares, como a intervenção que resultou na deposição do ex-presidente venezuelano Nicolás Maduro, conforme reportado pelo "Wall Street Journal".

Entretanto, o CEO da Anthropic, Dario Amodei, tem se oposto ao uso de sua IA para fins militares, citando preocupações éticas em relação a armamentos autônomos e vigilância excessiva, que ele acredita podem levar à repressão de dissidências. Recentemente, Amodei expressou sua preocupação em um ensaio, destacando o potencial uso da IA para monitorar e controlar a população.

Consequências da Recusa

Caso a Anthropic não ceda, Hegseth poderá classificá-la como um "risco à segurança nacional", o que acarretaria restrições severas, incluindo proibições de importações e exclusão de contratos importantes. Além disso, poderá acionar a Lei de Produção de Defesa (DPA), que permite ao governo impor ordens emergenciais na indústria para garantir a defesa nacional.

A DPA confere ao governo poderes para garantir que empresas cumpram ordens, sob pena de multas ou sanções. Esta situação reafirma o debate sobre os limites éticos na aplicação de IA em questões de segurança nacional.

Impasse Entre Defesa e Ética

O encontro recente entre Hegseth e Amodei, descrito como cordial, não resultou em uma solução. O CEO da Anthropic manteve sua posição de não permitir operações militares autônomas ou vigilância interna dos cidadãos americanos. Em contraste, o Pentágono acredita que a ausência de limitações éticas torna as operações militares mais eficazes, alegando que a responsabilidade pelo uso das tecnologias deve recair sobre os militares.

Ampliação do Cenário de Concorrência

Atualmente, a Anthropic não é mais a única empresa aprovada para projetos de IA militares; novas parcerias com Google, OpenAI e xAI foram estabelecidas, aumentando a concorrência no setor. O governo Trump expressou que a IA deve ser utilizada em operações sem restrições ideológicas, o que coloca a posição ética da Anthropic em evidência.

A empresa foi criada em 2021 por ex-funcionários da OpenAI, buscando uma abordagem mais responsável e focada em segurança. No entanto, essa postura tem sido desafiada pela pressão crescente do governo.

Necessidade de Supervisão Legislativa

O cenário atual levanta questões sobre a regulação da IA por parte do governo. Amos Toh, especialista do Brennan Center da Universidade de Nova York, destacou a urgência da supervisão legislativa, especialmente no contexto de vigilância de cidadãos. Toh argumenta que a rapidez do avanço tecnológico não pode justificar a falta de regulação.

À medida que o debate sobre o uso da IA no governo avança, a situação da Anthropic pode ser um indicativo das tensões entre inovação tecnológica e normas éticas na segurança nacional.

Com informações de: Associated Press.

Artigos relacionados

Botão Voltar ao topo