Tribunal de apelações rejeita Anthropic na última rodada de sua batalha de IA com a administração Trump

WASHINGTON (AP) – Um tribunal federal de apelações recusou-se na quarta-feira a impedir o Pentágono de colocar o laboratório de inteligência artificial Antrópico na lista negra, em uma decisão que difere das conclusões alcançadas na decisão de outro juiz sobre as mesmas questões.

O Tribunal de Apelações dos EUA em Washington DC rejeitou o pedido da Anthropic de uma ordem que protegeria a empresa de São Francisco das consequências decorrentes de uma disputa sobre como o Pentágono poderia implantar seu chatbot Claude em armas totalmente autônomas e potencial vigilância dos americanos enquanto o painel ainda está coletando evidências sobre o caso.

Mas o revés em Washington ocorreu depois que a Anthropic já havia vencido em um caso separado focado nas mesmas questões no tribunal federal de São Francisco. Nesse caso, um juiz forçou a administração do presidente Donald Trump a remover um rótulo que considerava a empresa um risco para a segurança nacional.

A Anthropic abriu dois processos separados em São Francisco e no tribunal de apelações de Washington no mês passado, afirmando que a administração Trump estava envolvida numa “campanha ilegal de retaliação” devido à sua tentativa de impor limites à forma como a sua tecnologia de IA pode ser implementada. A administração Trump criticou a Anthropic como uma empresa de tendência liberal que tenta ditar a política militar dos EUA.

No caso de São Francisco, a juíza distrital dos EUA, Rita Lin, decidiu que a administração Trump tinha ultrapassado os seus limites ao rotular a Antrópica como um risco da cadeia de abastecimento não qualificado para trabalhar com empreiteiros militares e emitindo outras directivas que poderiam paralisar uma empresa presa numa corrida pela supremacia da IA ​​contra rivais como o fabricante do ChatGPT Open AI e o Google.

Essa decisão levou a administração Trump a remover os rótulos estigmatizantes da Antrópico e a tomar outras medidas abrindo caminho para que funcionários do governo e prestadores de serviços continuassem a usar Claude e outros chatbots, de acordo com um processo judicial apresentado em São Francisco no início desta semana.

O tribunal de recurso em Washington não viu as coisas da mesma forma, embora tenha admitido que a empresa “provavelmente sofreria algum grau de dano irreparável” se fosse considerada um risco para a cadeia de abastecimento. Mas o tribunal de recurso não viu razões suficientes para emitir a sua própria ordem revogando as ações da administração Trump, em parte porque “o montante exato dos danos financeiros da Antrópico não é totalmente claro”.

Mais provas do caso estão programadas para serem apresentadas ao tribunal de apelações em uma audiência marcada para 19 de maio.

“Estamos gratos por o tribunal ter reconhecido que estas questões precisam de ser resolvidas rapidamente e continuamos confiantes de que os tribunais acabarão por concordar que estas designações de cadeia de abastecimento eram ilegais”, disse a Anthropic num comunicado.

Matt Schruers, CEO do grupo comercial de tecnologia Computer & Communications Industry Association, expressou preocupação de que as decisões judiciais conflitantes emitidas até agora no impasse entre a Anthropic e a administração Trump possam confundir o cenário empresarial num momento crucial.

“As ações do Pentágono e a decisão do Circuito DC criam uma incerteza comercial substancial num momento em que as empresas dos EUA estão competindo com suas contrapartes globais para liderar em IA”, disse Schruers.

Leave a Comment

review