Recentemente, a organização de segurança infantil Thorn, em colaboração com a fornecedora de soluções de IA baseada em nuvem, Hive, anunciou o lançamento de um modelo de IA inovador, projetado para identificar CSAM desconhecido no momento do upload. Essa tecnologia representa um avanço significativo, sendo uma das primeiras a tentar expor CSAM não reportados em grande escala.
A nova funcionalidade, chamada “Predict”, é uma expansão da ferramenta de detecção de CSAM da Thorn, conhecida como Safer. O “Predict” utiliza modelos avançados de classificação de aprendizado de máquina (ML) para detectar novos casos de CSAM e comportamentos de exploração sexual infantil (CSE), gerando uma pontuação de risco que facilita e acelera a tomada de decisões humanas.
Com essa inovação, espera-se que a detecção de conteúdos prejudiciais se torne mais eficiente, permitindo que as plataformas ajudem a proteger as crianças de forma mais efetiva. A combinação da tecnologia de hashing com a inteligência artificial promete não apenas identificar conteúdos já conhecidos, mas também aqueles que ainda não foram reportados, criando um ambiente online mais seguro para todos.
Essa evolução na tecnologia de detecção de CSAM é um passo significativo na luta contra a exploração infantil na internet. Com a ajuda da IA, as plataformas estão se tornando mais capacitadas para responder rapidamente a novas ameaças, garantindo que as crianças permaneçam protegidas em um espaço digital cada vez mais complexo.
A inovação trazida pela parceria entre Thorn e Hive é um exemplo de como a tecnologia pode ser usada para o bem, mostrando que, quando bem utilizada, a inteligência artificial pode ser uma ferramenta poderosa na proteção das crianças e na identificação de abusos que precisam ser combatidos.
Redação Confraria Tech.
Referências:
Child safety org launches AI model trained on real child sex abuse images
