O iOS 18.2 tem um recurso de segurança infantil que pode desfocar conteúdo nu e reportá-lo para a Apple.


0

A Apple está prestes a lançar uma nova funcionalidade no iOS 18.2 que promete trazer um ar de segurança e proteção para as crianças que utilizam seus dispositivos. Essa novidade, que será inicialmente disponibilizada na Austrália, visa resgatar parte da intenção por trás dos planos de monitoramento de conteúdo relacionado a abuso infantil, mas sem comprometer a criptografia de ponta a ponta ou abrir brechas para governos.

A nova funcionalidade, chamada de Comunicação Segura, utiliza aprendizado de máquina diretamente no dispositivo para detectar e desfocar conteúdos nus. Quando uma imagem ou vídeo é identificado como sensível, o sistema automaticamente aplica um desfoque e exibe um aviso, alertando que o conteúdo pode ser inapropriado. Além disso, oferece opções para que a criança possa sair da conversa, bloquear o remetente ou acessar recursos de segurança online.

Para crianças com menos de 13 anos, a situação é ainda mais rigorosa: elas não podem continuar a visualizar o conteúdo sem inserir o código de acesso do Tempo de Uso do dispositivo. Isso garante que os pais ou responsáveis tenham um controle maior sobre o que os pequenos estão acessando.

Se o conteúdo for detectado, a funcionalidade não apenas desfoca a imagem, mas também tranquiliza a criança, informando que não há problema em não visualizar o material ou deixar a conversa. Para adolescentes a partir de 13 anos, eles ainda podem optar por continuar a conversa após receber os avisos, mas são lembrados de que podem desistir e que ajuda está disponível.

A análise de fotos e vídeos ocorre em várias plataformas da Apple, incluindo Mensagens, AirDrop, Cartões de Contato e mensagens de vídeo do FaceTime. Além disso, a funcionalidade também se estende a alguns aplicativos de terceiros, caso a criança escolha compartilhar conteúdo através deles.

A Apple planeja expandir essa funcionalidade globalmente após o teste na Austrália, um país que está implementando novas regulamentações que exigem que grandes empresas de tecnologia monitorem conteúdos de abuso infantil e terrorista. Essas novas regras foram elaboradas de forma a não comprometer a segurança dos usuários, evitando a necessidade de quebrar a criptografia.

A questão da privacidade e segurança foi central na controvérsia em torno da tentativa anterior da Apple de monitorar conteúdos relacionados a abuso sexual infantil. Em 2021, a empresa havia planejado um sistema que escaneava imagens de abuso, mas a pressão de especialistas em privacidade levou à desistência dessa abordagem. Agora, com a nova funcionalidade, a Apple parece ter encontrado um equilíbrio mais adequado entre segurança e privacidade.

Quando a funcionalidade estiver disponível globalmente, os usuários poderão ativá-la facilmente nas configurações do dispositivo, garantindo que a proteção esteja sempre ao alcance. Essa mudança representa um passo significativo para a segurança das crianças no ambiente digital, refletindo a responsabilidade da Apple em criar um espaço mais seguro para os jovens usuários.

Redação Confraria Tech.

Referências:
iOS 18.2 has a child safety feature that can blur nude content and report it to Apple


Like it? Share with your friends!

0
admin