Quando uma vítima abre um “caso” com a StopNCII, o banco de dados cria uma impressão digital digital, também chamada de “hash”, de uma imagem ou vídeo íntimo armazenado no dispositivo da pessoa sem a necessidade de fazer upload do arquivo. O hash é então enviado para parceiros da indústria participantes, que podem procurar correspondências para o original e removê-las de sua plataforma se violarem suas políticas de conteúdo. O processo também se aplica a deepfakes gerados por inteligência artificial de uma pessoa real.
Várias outras empresas de tecnologia concordaram em trabalhar com a StopNCII para remover imagens íntimas compartilhadas sem permissão. O Meta ajudou a construir a ferramenta e a utiliza em suas plataformas Facebook, Instagram e Threads; outros serviços que se associaram ao esforço incluem TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse e Redgifs.
Ausente dessa lista está, estranhamente, o Google. A gigante da tecnologia possui seu próprio conjunto de ferramentas para relatar imagens não consensuais, incluindo deepfakes. No entanto, a falta de participação em um dos poucos lugares centralizados para remover pornografia de vingança e outras imagens privadas coloca, sem dúvida, um fardo adicional sobre as vítimas para adotar uma abordagem fragmentada para recuperar sua privacidade.
Além de esforços como o da StopNCII, o governo dos EUA deu alguns passos este ano para abordar especificamente os danos causados pelo lado dos deepfakes das imagens não consensuais. O Escritório de Direitos Autorais dos EUA pediu nova legislação sobre o assunto, e um grupo de senadores se moveu para proteger as vítimas com o NO FAKES Act, introduzido em julho.
Se você acredita ter sido vítima de compartilhamento não consensual de imagens íntimas, pode abrir um caso com a StopNCII aqui e com o Google aqui; se você tem menos de 18 anos, pode fazer um relatório com o NCMEC aqui.
Redação Confraria Tech
Referências:
Microsoft joins coalition to scrub revenge and deepfake porn from Bing