Apple processada por não implementar ferramentas que detectariam CSAM no iCloud.


0

Recentemente, a Apple se viu envolvida em uma controvérsia significativa, sendo processada por vítimas de abuso sexual infantil. O motivo? A empresa teria falhado em cumprir suas promessas de implementar uma ferramenta que permitisse a detecção de materiais relacionados a abuso sexual infantil (CSAM) em seu serviço de armazenamento em nuvem, o iCloud.

Em 2021, a Apple havia anunciado sua intenção de criar uma ferramenta que identificaria imagens de abuso e alertaria o National Center for Missing and Exploited Children, uma organização dedicada à proteção de crianças. No entanto, essa proposta gerou uma onda de críticas, principalmente em relação às implicações de privacidade que a tecnologia poderia acarretar. Como resultado, a Apple decidiu abandonar o plano, frustrando aqueles que esperavam que a empresa tomasse medidas efetivas para combater esse problema.

Agora, com um processo movido na Califórnia do Norte, os autores buscam mais de 1,2 bilhão de dólares em danos, representando um grupo de aproximadamente 2.680 vítimas. O processo alega que a Apple não só falhou em implementar as ferramentas de segurança prometidas, mas também não tomou medidas para identificar e limitar a disseminação de CSAM em seus dispositivos, contribuindo para o sofrimento das vítimas, enquanto as imagens continuavam a ser compartilhadas.

Em resposta ao processo, um porta-voz da Apple, Fred Sainz, destacou a repulsa da empresa em relação ao material de abuso sexual infantil e reafirmou seu compromisso em combater essas atrocidades, sem comprometer a segurança e a privacidade de seus usuários. O timing do processo é especialmente relevante, uma vez que, há poucos meses, a empresa já havia sido acusada de subnotificar casos de CSAM pela National Society for the Prevention of Cruelty to Children do Reino Unido.

A situação levanta questões importantes sobre a responsabilidade das empresas de tecnologia em proteger os usuários, especialmente os mais vulneráveis, e o equilíbrio delicado entre segurança e privacidade. O desfecho desse caso poderá ter implicações significativas não apenas para a Apple, mas para toda a indústria de tecnologia, que deve enfrentar constantemente esses dilemas éticos e legais.

Redação Confraria Tech.

Referências:
Apple sued for failing to implement tools that would detect CSAM in iCloud


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win
admin

0 Comments

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format