A Apple é acusada de subnotificar o suposto CSAM em suas plataformas.


0


A Apple foi acusada de subnotificar a prevalência de material de abuso sexual infantil (CSAM) em suas plataformas. A Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC), uma instituição de caridade de proteção à criança no Reino Unido, afirma que a Apple relatou apenas 267 casos suspeitos de CSAM em todo o mundo ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) no ano passado.

Isso é insignificante em comparação com os 1,47 milhão de casos potenciais relatados pelo Google e 30,6 milhões de relatórios do Meta. Outras plataformas que relataram mais casos potenciais de CSAM do que a Apple em 2023 incluem TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) e PlayStation/Sony Interactive Entertainment (3.974). Toda empresa de tecnologia sediada nos EUA é obrigada a repassar quaisquer casos possíveis de CSAM detectados em suas plataformas para o NCMEC, que encaminha os casos para as agências de aplicação da lei relevantes em todo o mundo.

A NSPCC também afirmou que a Apple esteve implicada em mais casos de CSAM (337) na Inglaterra e no País de Gales entre abril de 2022 e março de 2023 do que relatou em todo o mundo em um ano. A instituição de caridade usou pedidos de liberdade de informação para reunir esses dados das forças policiais.

Como apontado pelo The Guardian, que primeiro divulgou a alegação da NSPCC, os serviços da Apple, como iMessage, FaceTime e iCloud, têm criptografia de ponta a ponta, o que impede a empresa de visualizar o conteúdo compartilhado pelos usuários. No entanto, o WhatsApp também possui E2EE e relatou quase 1,4 milhão de casos suspeitos de CSAM ao NCMEC em 2023.

“Há uma discrepância preocupante entre o número de crimes de imagens de abuso infantil no Reino Unido ocorrendo nos serviços da Apple e o número quase negligenciável de relatos globais de conteúdo de abuso que eles fazem às autoridades”, disse Richard Collard, chefe de política de segurança infantil online da NSPCC. “A Apple está claramente atrás de muitos de seus pares na luta contra o abuso sexual infantil, quando todas as empresas de tecnologia deveriam estar investindo em segurança e se preparando para a implementação da Lei de Segurança Online no Reino Unido.”

Em 2021, a Apple anunciou planos para implantar um sistema que escanearia imagens antes de serem carregadas no iCloud e as compararia com um banco de dados de imagens de CSAM conhecidas do NCMEC e de outras organizações. No entanto, após críticas de defensores da privacidade e direitos digitais, a Apple adiou o lançamento de suas ferramentas de detecção de CSAM antes de finalmente encerrar o projeto em 2022.

A Apple se recusou a comentar a acusação da NSPCC, em vez disso, direcionou o The Guardian para uma declaração que fez quando suspendeu o plano de escaneamento de CSAM. A Apple afirmou que optou por uma estratégia diferente que “prioriza a segurança e privacidade de seus usuários”. A empresa disse à Wired em agosto de 2022 que “as crianças podem ser protegidas sem que as empresas vasculhem dados pessoais.”

Redação Confraria Tech

Referências:
WordPress Homepage


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win
admin

Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format