Departamento de Defesa impedido de classificar empresa de IA como risco

PorExpresso das Ilhas, Lusa,27 mar 2026 8:27

O Departamento de Defesa norte-americano foi impedido temporariamente de classificar a empresa de inteligência artificial (IA) Anthropic como um risco para a cadeia de fornecimento de tecnologia, noticiou a Associated Press na quinta-feira.

A juíza distrital dos Estados Unidos, Rita Lin, decidiu a favor da empresa Anthropic, impedindo a administração do presidente dos Estados Unidos, Donald Trump, de classificar a empresa como um risco para a cadeia de fornecimento de tecnologia, uma designação que poderia impedir a organização de fornecer tecnologia ao Governo norte-americano.

Na quinta-feria, Rita Lin disse que também estava a bloquear a ordem de Donald Trump, que obrigava todas as agências federais a pararem de utilizar a empresa de IA Anthropic.

A decisão da juíza surgiu após uma audiência de 90 minutos no tribunal federal de São Francisco na terça-feira, na qual Rita Lin questionou por que razão a administração de Donald Trump tomou a medida extraordinária de denunciar a Anthropic como um risco para a cadeia de abastecimento.

A denúncia da administração de Donald Trump surge após as negociações sobre um contrato sobre defesa em que Anthropic tentou impedir que a sua tecnologia de IA fosse implantada em armas totalmente autónomas ou na vigilância de cidadãos norte-americanos.

A Anthropic, criadora do chatbot Claude, pediu a Rita Lin que emitisse uma ordem de emergência para remover um estigma (risco para a cadeia de abastecimento) que a empresa alega ter sido aplicado injustificadamente como parte de uma "campanha ilegal de retaliação".

A empresa processou a administração de Donald Trump no início deste mês.

O Departamento de Defesa norte-americano argumentou que deveria poder usar o chatbot de IA Claude da forma que considerasse legal.

Rita Lin disse que a sua decisão não se referia a este debate de política pública, mas sim às acções do governo em resposta ao mesmo.

"Se a preocupação é a integridade da cadeia de comando operacional [Anthropic], o Departamento de Guerra pode simplesmente deixar de usar o Claude. Em vez disso, estas medidas parecem ter sido elaboradas para punir a Anthropic", escreveu a juíza distrital dos Estados Unidos.

Concorda? Discorda? Dê-nos a sua opinião. Comente ou partilhe este artigo.

Autoria:Expresso das Ilhas, Lusa,27 mar 2026 8:27

Editado porAndre Amaral  em  27 mar 2026 15:19

pub.
pub
pub.

Últimas no site

    Últimas na secção

      Populares na secção

        Populares no site

          pub.