OpenAI e Anthropic concordam em compartilhar seus modelos com o Instituto de Segurança de IA dos EUA


0

OpenAI e Anthropic concordaram em compartilhar modelos de IA – antes e depois do lançamento – com o Instituto de Segurança de IA dos EUA. A agência, estabelecida por meio de uma ordem executiva do Presidente Biden em 2023, oferecerá feedback de segurança às empresas para melhorar seus modelos. O CEO da OpenAI, Sam Altman, deu indícios do acordo no início deste mês.

“A segurança é essencial para impulsionar a inovação tecnológica revolucionária. Com esses acordos em vigor, esperamos iniciar nossas colaborações técnicas com a Anthropic e a OpenAI para avançar a ciência da segurança da IA”, escreveu Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA, em um comunicado. “Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a orientar de forma responsável o futuro da IA.”

O Instituto de Segurança de IA dos EUA faz parte do Instituto Nacional de Padrões e Tecnologia (NIST). Ele cria e publica diretrizes, testes de referência e melhores práticas para testar e avaliar sistemas de IA potencialmente perigosos. “Assim como a IA tem o potencial de fazer um bem profundo, também tem o potencial de causar um dano profundo, desde ciberataques habilitados por IA em uma escala além de tudo o que já vimos antes até bioweapons formulados por IA que poderiam colocar em perigo a vida de milhões”, disse a vice-presidente Kamala Harris no final de 2023, após a criação da agência.

O acordo pioneiro é por meio de um Memorando de Entendimento (formal, mas não vinculativo). A agência terá acesso aos “principais novos modelos” de cada empresa antes e após o lançamento público. A agência descreve os acordos como pesquisas colaborativas de mitigação de riscos que avaliarão capacidades e segurança. O Instituto de Segurança de IA dos EUA também colaborará com o Instituto de Segurança de IA do Reino Unido.

O Instituto de Segurança de IA dos EUA não mencionou outras empresas que lidam com IA. O Engadget enviou um e-mail para o Google, que começou a lançar modelos atualizados de chatbot e gerador de imagens nesta semana, para comentar sobre sua omissão. Atualizaremos esta história se recebermos uma resposta.

Isso acontece à medida que reguladores federais e estaduais tentam estabelecer diretrizes para a IA, enquanto a tecnologia avança rapidamente e ainda está em fase inicial. Na quarta-feira, a assembleia estadual da Califórnia aprovou um projeto de lei de segurança de IA (SB 10147) que exige testes de segurança para modelos de IA que custam mais de US$ 100 milhões para desenvolver ou requerem uma quantidade definida de poder computacional. O projeto de lei exige que as empresas de IA tenham interruptores de desligamento que possam desativar os modelos se ficarem “incontroláveis ou incontroláveis”.

Ao contrário do acordo não vinculativo com o governo federal, o projeto de lei da Califórnia teria mais força para a aplicação. Ele dá licença ao procurador-geral do estado para processar os desenvolvedores de IA que não cumprirem, especialmente durante eventos de nível de ameaça. No entanto, ainda requer mais um voto de processo – e a assinatura do governador Gavin Newsom, que terá até 30 de setembro para decidir se dará o aval.

Redação Confraria Tech

Referências:
OpenAI and Anthropic agree to share their models with the US AI Safety Institute


Like it? Share with your friends!

0
admin