A empresa, juntamente com a DeepMind, também se comprometeu a compartilhar modelos de IA com o governo do Reino Unido no ano passado. Segundo o TechCrunch, cresceram as preocupações de que a OpenAI esteja tornando a segurança menos prioritária à medida que busca desenvolver modelos de IA mais poderosos. Houve especulações de que o conselho decidiu afastar Sam Altman da empresa — ele foi rapidamente reintegrado — devido a preocupações com segurança. No entanto, a empresa informou aos membros da equipe em um memorando interno naquela época que foi devido a “uma falha na comunicação.”
Em maio deste ano, a OpenAI admitiu que dissolveu a equipe de Superalignamento que criou para garantir que a humanidade permanecesse segura à medida que a empresa avança em seu trabalho de inteligência artificial generativa. Antes disso, o co-fundador da OpenAI e cientista-chefe Ilya Sutskever, que era um dos líderes da equipe, deixou a empresa. Jan Leike, que também era um dos líderes da equipe, saiu também. Ele disse em uma série de tweets que vinha discordando da liderança da OpenAI sobre as prioridades principais da empresa há bastante tempo e que “a cultura e os processos de segurança foram deixados de lado em prol de produtos atraentes.” A OpenAI criou um novo grupo de segurança no final de maio, mas é liderado por membros do conselho que incluem Altman, o que levanta preocupações sobre autocontrole.
algumas atualizações rápidas sobre segurança na openai:
como dissemos em julho passado, estamos comprometidos em alocar pelo menos 20% dos recursos de computação para esforços de segurança em toda a empresa.
nossa equipe tem trabalhado com o US AI Safety Institute em um acordo no qual forneceríamos…
— Sam Altman (@sama) 1 de agosto de 2024
Redação Confraria Tech
Referências:
OpenAI vows to provide the US government early access to its next AI model