O Conselho de Supervisão da Meta está instando a empresa a atualizar suas regras em relação aos deepfakes sexualmente explícitos. O conselho fez as recomendações como parte de sua decisão em dois casos envolvendo imagens geradas por inteligência artificial de figuras públicas.
Os casos surgiram de dois apelos de usuários sobre imagens geradas por IA de figuras públicas, embora o conselho tenha se recusado a nomear os indivíduos. Uma postagem, que teve origem no Instagram, retratava uma mulher indiana nua. A postagem foi denunciada à Meta, mas o relatório foi automaticamente encerrado após 48 horas, assim como um apelo subsequente do usuário. A empresa eventualmente removeu a postagem após atenção do Conselho de Supervisão, que, no entanto, revogou a decisão original da Meta de manter a imagem publicada.
A segunda postagem, compartilhada em um grupo do Facebook dedicado à arte de IA, mostrava “uma imagem gerada por IA de uma mulher nua com um homem apalpando seu seio.” A Meta removeu automaticamente a postagem porque ela havia sido adicionada a um sistema interno que pode identificar imagens que foram previamente denunciadas à empresa. O Conselho de Supervisão considerou que a Meta agiu corretamente ao remover a postagem.
Em ambos os casos, o Conselho de Supervisão afirmou que os deepfakes de IA violaram as regras da empresa que proíbem imagens “fotografadas sexualmente depreciativas”. Mas em suas recomendações à Meta, o Conselho de Supervisão disse que a linguagem atual usada nessas regras está desatualizada e pode dificultar a denúncia de imagens explícitas feitas por IA.
Em vez disso, o conselho afirma que a Meta deve atualizar suas políticas para deixar claro que proíbe imagens explícitas não consensuais feitas ou manipuladas por IA. “Muitas das imagens sexualizadas não consensuais espalhadas online hoje são criadas com modelos de IA generativa que editam automaticamente imagens existentes ou criam novas completamente”, escreve o conselho. “A Meta deve garantir que sua proibição de conteúdo sexualizado depreciativo cubra essa ampla gama de técnicas de edição, de forma clara tanto para os usuários quanto para os moderadores da empresa.”
O conselho também criticou a prática da Meta de encerrar automaticamente os apelos dos usuários, o que, segundo ele, poderia ter “impactos significativos nos direitos humanos” dos usuários. No entanto, o conselho disse que não tinha “informações suficientes” sobre a prática para fazer uma recomendação.
A disseminação de imagens explícitas de IA se tornou um problema cada vez mais proeminente, à medida que o “deepfake porn” se tornou uma forma mais difundida de assédio online nos últimos anos. A decisão do conselho vem um dia após o Senado dos EUA aprovar por unanimidade um projeto de lei para reprimir deepfakes explícitos. Se aprovada, a medida permitiria que as vítimas processassem os criadores de tais imagens em até US$ 250.000.
Os casos não são a primeira vez que o Conselho de Supervisão pressionou a Meta a atualizar suas regras para conteúdo gerado por IA. Em outro caso de grande repercussão, o conselho investigou um vídeo maliciosamente editado do presidente Joe Biden. O caso resultou na Meta reformulando suas políticas sobre como o conteúdo gerado por IA é rotulado.
Redação Confraria Tech.
Referências:
Meta needs updated rules for sexually explicit deepfakes, Oversight Board says