OpenAI promete fornecer ao governo dos EUA acesso antecipado ao seu próximo modelo de IA.


0

OpenAI fornecerá ao US AI Safety Institute acesso antecipado ao seu próximo modelo como parte de seus esforços de segurança, revelou Sam Altman em um tweet. Aparentemente, a empresa tem trabalhado com o consórcio “para impulsionar a ciência das avaliações de IA.” O Instituto Nacional de Padrões e Tecnologia (NIST) estabeleceu formalmente o Instituto de Segurança da Inteligência Artificial no início deste ano, embora a Vice-Presidente Kamala Harris tenha anunciado isso em 2023 na Cúpula de Segurança da IA no Reino Unido. Com base na descrição do NIST do consórcio, o objetivo é “desenvolver diretrizes e padrões baseados em ciência e empiricamente comprovados para a medição e política de IA, estabelecendo as bases para a segurança da IA em todo o mundo.”

A empresa, juntamente com a DeepMind, também se comprometeu a compartilhar modelos de IA com o governo do Reino Unido no ano passado. Segundo o TechCrunch, cresceram as preocupações de que a OpenAI esteja tornando a segurança menos prioritária à medida que busca desenvolver modelos de IA mais poderosos. Houve especulações de que o conselho decidiu afastar Sam Altman da empresa — ele foi rapidamente reintegrado — devido a preocupações com segurança. No entanto, a empresa informou aos membros da equipe em um memorando interno naquela época que foi devido a “uma falha na comunicação.”

Em maio deste ano, a OpenAI admitiu que dissolveu a equipe de Superalignamento que criou para garantir que a humanidade permanecesse segura à medida que a empresa avança em seu trabalho de inteligência artificial generativa. Antes disso, o co-fundador da OpenAI e cientista-chefe Ilya Sutskever, que era um dos líderes da equipe, deixou a empresa. Jan Leike, que também era um dos líderes da equipe, saiu também. Ele disse em uma série de tweets que vinha discordando da liderança da OpenAI sobre as prioridades principais da empresa há bastante tempo e que “a cultura e os processos de segurança foram deixados de lado em prol de produtos atraentes.” A OpenAI criou um novo grupo de segurança no final de maio, mas é liderado por membros do conselho que incluem Altman, o que levanta preocupações sobre autocontrole.

algumas atualizações rápidas sobre segurança na openai:

como dissemos em julho passado, estamos comprometidos em alocar pelo menos 20% dos recursos de computação para esforços de segurança em toda a empresa.

nossa equipe tem trabalhado com o US AI Safety Institute em um acordo no qual forneceríamos…
— Sam Altman (@sama) 1 de agosto de 2024

Redação Confraria Tech

Referências:
OpenAI vows to provide the US government early access to its next AI model


Like it? Share with your friends!

0
admin