A Califórnia está debatendo um projeto de lei que visa regular a segurança dos grandes modelos de inteligência artificial. O projeto, conhecido como “Lei de Inovação Segura e Segura para Modelos de Inteligência Artificial de Fronteira” (também conhecido como SB-1047), levantou discussões sobre a segurança desses modelos. No entanto, críticos estão preocupados com o foco exagerado do projeto nas ameaças existenciais de futuros modelos de IA, o que poderia limitar severamente a pesquisa e desenvolvimento para usos mais comuns e não ameaçadores da IA hoje.
O SB-1047, apresentado pelo Senador Estadual Scott Wiener, foi aprovado no Senado da Califórnia em maio com uma votação de 32 a 1 e parece bem posicionado para uma votação final na Assembleia Estadual em agosto. O texto do projeto exige que as empresas por trás de modelos de IA suficientemente grandes (atualmente definidos em custos de treinamento de $100 milhões e o poder computacional aproximado implícito por esses custos hoje) implementem procedimentos e sistemas de teste para prevenir e responder a “incidentes de segurança”.
O projeto estabelece uma definição legalista desses incidentes de segurança, que por sua vez se concentra em definir um conjunto de “danos críticos” que um sistema de IA possa possibilitar. Isso inclui danos que resultem em “vítimas em massa ou pelo menos $500 milhões de danos”, como “a criação ou uso de armas químicas, biológicas, radiológicas ou nucleares” (olá, Skynet?) ou “instruções precisas para conduzir um ciberataque… em infraestrutura crítica”. O projeto também faz alusão a “outros danos graves à segurança pública e à segurança que sejam de gravidade comparável” aos explicitamente mencionados.
Redação Confraria Tech
Referências:
From sci-fi to state law: California’s plan to prevent AI catastrophe