Especificamente, Adobe, Anthropic, Cohere, Common Crawl, Microsoft e OpenAI disseram que irão:
“obter de forma responsável seus conjuntos de dados e protegê-los contra abuso sexual com base em imagens”
Todos os mencionados acima, exceto Common Crawl, também concordaram em:
“incorporar loops de feedback e estratégias iterativas de teste de estresse em seus processos de desenvolvimento, para proteger contra modelos de IA que geram abuso sexual baseado em imagens”
E “remover imagens nuas de conjuntos de dados de treinamento de IA”, quando apropriado.
Trata-se de um compromisso voluntário, portanto, o anúncio de hoje não cria novas etapas acionáveis ou consequências para o descumprimento dessas promessas. No entanto, vale a pena aplaudir o esforço de boa fé para enfrentar esse sério problema. As notáveis ausências no anúncio da Casa Branca de hoje são Apple, Amazon, Google e Meta.
Muitas grandes empresas de tecnologia e IA têm feito avanços para facilitar que as vítimas de imagens íntimas não consensuais interrompam a disseminação de deepfakes separadamente desse esforço federal. A StopNCII fez parceria com várias empresas para uma abordagem abrangente na remoção desse conteúdo, enquanto outras empresas estão lançando ferramentas proprietárias para relatar abuso sexual baseado em imagens geradas por IA em suas plataformas.
Se você acredita ser vítima de compartilhamento de imagens íntimas não consensuais, pode abrir um caso com a StopNCII aqui; se tiver menos de 18 anos, pode fazer uma denúncia ao NCMEC aqui.
Redação Confraria Tech
Referências:
White House gets voluntary commitments from AI companies to curb deepfake porn