Os modelos Claude são semelhantes aos que alimentam o ChatGPT, ou seja, são ferramentas poderosas de processamento de linguagem natural. A ideia é que esses modelos sejam integrados à plataforma da Palantir, que é amplamente utilizada para análise de dados, especialmente em contextos de segurança nacional. A AWS, por sua vez, fornecerá a infraestrutura necessária para que essa tecnologia funcione de maneira eficiente e segura.
No entanto, essa parceria não passou despercebida por críticos. Timnit Gebru, ex-coordenadora de ética em IA do Google, expressou sua preocupação no X, questionando a compatibilidade desse acordo com os objetivos de “segurança da IA” que a Anthropic tanto promove. Para muitos, essa aliança parece contradizer os princípios que a empresa defende, especialmente quando se fala em “riscos existenciais para a humanidade”.
A integração do Claude na plataforma da Palantir ocorrerá dentro do ambiente Impact Level 6 (IL6), que é um sistema credenciado para defesa e lida com dados críticos para a segurança nacional, até o nível de classificação “secreto”. Essa movimentação se alinha a uma tendência crescente entre empresas de tecnologia, que estão cada vez mais buscando contratos com o setor de defesa. Por exemplo, a Meta também está oferecendo seus modelos Llama para parceiros de defesa, enquanto a OpenAI está buscando estreitar laços com o Departamento de Defesa.
Essa nova fase da Anthropic levanta questões importantes sobre o futuro da inteligência artificial e seu papel em contextos de segurança. À medida que as empresas de tecnologia se envolvem mais com o setor militar, é essencial que continuemos a discutir e avaliar as implicações éticas e sociais dessas decisões. Afinal, a tecnologia deve servir ao bem comum, e não apenas a interesses específicos.
Redação Confraria Tech.
Referências:
Claude AI to process secret government data through new Palantir deal