O SB 1047 teria tornado os desenvolvedores de modelos de IA responsáveis por adotar protocolos de segurança que impediriam usos catastróficos de sua tecnologia. Isso inclui medidas preventivas como testes e avaliações de risco externas, bem como uma “parada de emergência” que desligaria completamente o modelo de IA. Uma primeira violação custaria no mínimo US$ 10 milhões e US$ 30 milhões para infrações subsequentes. No entanto, o projeto de lei foi revisado para eliminar a capacidade do procurador-geral do estado de processar empresas de IA com práticas negligentes se um evento catastrófico não ocorresse. As empresas só estariam sujeitas a medidas cautelares e poderiam ser processadas se seu modelo causasse danos críticos.
Essa lei se aplicaria a modelos de IA que custassem pelo menos US$ 100 milhões para usar e 10^26 FLOPS para treinamento. Também abrangeria projetos derivados nos casos em que uma terceira parte tivesse investido US$ 10 milhões ou mais no desenvolvimento ou modificação do modelo original. Qualquer empresa que fizesse negócios na Califórnia estaria sujeita às regras se atendesse aos outros requisitos. Abordando o foco do projeto de lei em sistemas em larga escala, Newsom disse: “Não acredito que esta seja a melhor abordagem para proteger o público das ameaças reais apresentadas pela tecnologia.” A mensagem de veto acrescenta:
Ao focar apenas nos modelos mais caros e em grande escala, o SB 1047 estabelece um quadro regulatório que poderia dar ao público uma falsa sensação de segurança sobre o controle dessa tecnologia em rápida evolução. Modelos menores e especializados podem surgir como igualmente ou até mais perigosos do que os modelos visados pelo SB 1047 – com o potencial custo de restringir a inovação que impulsiona o avanço em prol do bem público.
A versão anterior do SB 1047 teria criado um novo departamento chamado Divisão de Modelos de Fronteira para supervisionar e fazer cumprir as regras. Em vez disso, o projeto de lei foi alterado antes de uma votação do comitê para colocar a governança nas mãos de um Conselho de Modelos de Fronteira dentro da Agência de Operações do Governo. Os nove membros serão nomeados pelo governador do estado e pelo legislativo.
O projeto de lei enfrentou um caminho complicado até a votação final. O SB 1047 foi redigido pelo Senador Estadual da Califórnia, Scott Wiener, que disse ao TechCrunch: “Temos uma história com a tecnologia de esperar por danos acontecerem e depois lamentar. Não vamos esperar por algo ruim acontecer. Vamos apenas antecipar.” Pesquisadores notáveis de IA, como Geoffrey Hinton e Yoshua Bengio, apoiaram a legislação, assim como o Centro de Segurança de IA, que tem alertado sobre os riscos da IA ao longo do último ano.
Mas o SB 1047 também enfrentou forte oposição em todo o setor de tecnologia. A pesquisadora Fei-Fei Li criticou o projeto de lei, assim como o cientista-chefe de IA da Meta, Yann LeCun, por limitar o potencial de explorar novos usos da IA. O grupo de comércio que representa gigantes da tecnologia como Amazon, Apple e Google afirmou que o SB 1047 limitaria novos desenvolvimentos no setor de tecnologia do estado. A empresa de capital de risco Andreeson Horowitz e várias startups também questionaram se o projeto de lei impunha ônus financeiros desnecessários aos inovadores de IA. A Anthropic e outros opositores do projeto de lei original pressionaram por emendas que foram adotadas na versão do SB 1047 que passou pelo Comitê de Alocações da Califórnia em 15 de agosto.
Redação Confraria Tech.
Referências:
California Gov. Newsom vetoes bill SB 1047 that aims to prevent AI disasters