A nova funcionalidade, chamada de Comunicação Segura, utiliza aprendizado de máquina diretamente no dispositivo para detectar e desfocar conteúdos nus. Quando uma imagem ou vídeo é identificado como sensível, o sistema automaticamente aplica um desfoque e exibe um aviso, alertando que o conteúdo pode ser inapropriado. Além disso, oferece opções para que a criança possa sair da conversa, bloquear o remetente ou acessar recursos de segurança online.
Para crianças com menos de 13 anos, a situação é ainda mais rigorosa: elas não podem continuar a visualizar o conteúdo sem inserir o código de acesso do Tempo de Uso do dispositivo. Isso garante que os pais ou responsáveis tenham um controle maior sobre o que os pequenos estão acessando.
Se o conteúdo for detectado, a funcionalidade não apenas desfoca a imagem, mas também tranquiliza a criança, informando que não há problema em não visualizar o material ou deixar a conversa. Para adolescentes a partir de 13 anos, eles ainda podem optar por continuar a conversa após receber os avisos, mas são lembrados de que podem desistir e que ajuda está disponível.
A análise de fotos e vídeos ocorre em várias plataformas da Apple, incluindo Mensagens, AirDrop, Cartões de Contato e mensagens de vídeo do FaceTime. Além disso, a funcionalidade também se estende a alguns aplicativos de terceiros, caso a criança escolha compartilhar conteúdo através deles.
A Apple planeja expandir essa funcionalidade globalmente após o teste na Austrália, um país que está implementando novas regulamentações que exigem que grandes empresas de tecnologia monitorem conteúdos de abuso infantil e terrorista. Essas novas regras foram elaboradas de forma a não comprometer a segurança dos usuários, evitando a necessidade de quebrar a criptografia.
A questão da privacidade e segurança foi central na controvérsia em torno da tentativa anterior da Apple de monitorar conteúdos relacionados a abuso sexual infantil. Em 2021, a empresa havia planejado um sistema que escaneava imagens de abuso, mas a pressão de especialistas em privacidade levou à desistência dessa abordagem. Agora, com a nova funcionalidade, a Apple parece ter encontrado um equilíbrio mais adequado entre segurança e privacidade.
Quando a funcionalidade estiver disponível globalmente, os usuários poderão ativá-la facilmente nas configurações do dispositivo, garantindo que a proteção esteja sempre ao alcance. Essa mudança representa um passo significativo para a segurança das crianças no ambiente digital, refletindo a responsabilidade da Apple em criar um espaço mais seguro para os jovens usuários.
Redação Confraria Tech.
Referências:
iOS 18.2 has a child safety feature that can blur nude content and report it to Apple