Organização de segurança infantil lança modelo de IA treinado com imagens reais de abuso sexual infantil.


0

Nos últimos anos, a tecnologia de hashing tem sido uma aliada poderosa na luta contra a disseminação de materiais de abuso sexual infantil (CSAM). Essa tecnologia permite que plataformas detectem automaticamente conteúdos conhecidos, ajudando a proteger crianças de serem retraumatizadas online. No entanto, o grande desafio ainda era a detecção rápida de novos ou desconhecidos CSAM, uma vez que novos casos de vitimização continuam a surgir. Agora, a inteligência artificial (IA) pode estar prestes a transformar essa realidade.

Recentemente, a organização de segurança infantil Thorn, em colaboração com a fornecedora de soluções de IA baseada em nuvem, Hive, anunciou o lançamento de um modelo de IA inovador, projetado para identificar CSAM desconhecido no momento do upload. Essa tecnologia representa um avanço significativo, sendo uma das primeiras a tentar expor CSAM não reportados em grande escala.

A nova funcionalidade, chamada “Predict”, é uma expansão da ferramenta de detecção de CSAM da Thorn, conhecida como Safer. O “Predict” utiliza modelos avançados de classificação de aprendizado de máquina (ML) para detectar novos casos de CSAM e comportamentos de exploração sexual infantil (CSE), gerando uma pontuação de risco que facilita e acelera a tomada de decisões humanas.

Com essa inovação, espera-se que a detecção de conteúdos prejudiciais se torne mais eficiente, permitindo que as plataformas ajudem a proteger as crianças de forma mais efetiva. A combinação da tecnologia de hashing com a inteligência artificial promete não apenas identificar conteúdos já conhecidos, mas também aqueles que ainda não foram reportados, criando um ambiente online mais seguro para todos.

Essa evolução na tecnologia de detecção de CSAM é um passo significativo na luta contra a exploração infantil na internet. Com a ajuda da IA, as plataformas estão se tornando mais capacitadas para responder rapidamente a novas ameaças, garantindo que as crianças permaneçam protegidas em um espaço digital cada vez mais complexo.

A inovação trazida pela parceria entre Thorn e Hive é um exemplo de como a tecnologia pode ser usada para o bem, mostrando que, quando bem utilizada, a inteligência artificial pode ser uma ferramenta poderosa na proteção das crianças e na identificação de abusos que precisam ser combatidos.

Redação Confraria Tech.

Referências:
Child safety org launches AI model trained on real child sex abuse images


Like it? Share with your friends!

0
Marcos Baião