“A segurança é essencial para impulsionar a inovação tecnológica revolucionária. Com esses acordos em vigor, esperamos iniciar nossas colaborações técnicas com a Anthropic e a OpenAI para avançar a ciência da segurança da IA”, escreveu Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA, em um comunicado. “Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a orientar de forma responsável o futuro da IA.”
O Instituto de Segurança de IA dos EUA faz parte do Instituto Nacional de Padrões e Tecnologia (NIST). Ele cria e publica diretrizes, testes de referência e melhores práticas para testar e avaliar sistemas de IA potencialmente perigosos. “Assim como a IA tem o potencial de fazer um bem profundo, também tem o potencial de causar um dano profundo, desde ciberataques habilitados por IA em uma escala além de tudo o que já vimos antes até bioweapons formulados por IA que poderiam colocar em perigo a vida de milhões”, disse a vice-presidente Kamala Harris no final de 2023, após a criação da agência.
O acordo pioneiro é por meio de um Memorando de Entendimento (formal, mas não vinculativo). A agência terá acesso aos “principais novos modelos” de cada empresa antes e após o lançamento público. A agência descreve os acordos como pesquisas colaborativas de mitigação de riscos que avaliarão capacidades e segurança. O Instituto de Segurança de IA dos EUA também colaborará com o Instituto de Segurança de IA do Reino Unido.
O Instituto de Segurança de IA dos EUA não mencionou outras empresas que lidam com IA. O Engadget enviou um e-mail para o Google, que começou a lançar modelos atualizados de chatbot e gerador de imagens nesta semana, para comentar sobre sua omissão. Atualizaremos esta história se recebermos uma resposta.
Isso acontece à medida que reguladores federais e estaduais tentam estabelecer diretrizes para a IA, enquanto a tecnologia avança rapidamente e ainda está em fase inicial. Na quarta-feira, a assembleia estadual da Califórnia aprovou um projeto de lei de segurança de IA (SB 10147) que exige testes de segurança para modelos de IA que custam mais de US$ 100 milhões para desenvolver ou requerem uma quantidade definida de poder computacional. O projeto de lei exige que as empresas de IA tenham interruptores de desligamento que possam desativar os modelos se ficarem “incontroláveis ou incontroláveis”.
Ao contrário do acordo não vinculativo com o governo federal, o projeto de lei da Califórnia teria mais força para a aplicação. Ele dá licença ao procurador-geral do estado para processar os desenvolvedores de IA que não cumprirem, especialmente durante eventos de nível de ameaça. No entanto, ainda requer mais um voto de processo – e a assinatura do governador Gavin Newsom, que terá até 30 de setembro para decidir se dará o aval.
Redação Confraria Tech
Referências:
OpenAI and Anthropic agree to share their models with the US AI Safety Institute