A Apple foi processada em US$ 1,2 bilhão após cancelar ferramenta controversa de detecção de CSAM.


0

Nos últimos tempos, um assunto delicado e de grande relevância tem ganhado destaque nas notícias: milhares de vítimas de abuso infantil processaram a Apple. O motivo? A alegação de que a gigante da tecnologia falhou em detectar e reportar a pornografia infantil, também conhecida como materiais de abuso sexual infantil (CSAM).

Esse movimento legal surge após a Apple ter decidido descontinuar uma ferramenta controversa de escaneamento de CSAM no ano passado. Essa ferramenta tinha como objetivo reduzir significativamente a disseminação de conteúdo ilegal em seus produtos. No entanto, a decisão da Apple de retirar a ferramenta foi motivada por preocupações levantadas por diversos grupos de direitos digitais. Esses grupos temiam que a funcionalidade fosse utilizada pelo governo para vigiar ilegalmente os usuários da Apple por outros motivos. Além disso, a empresa estava preocupada com a possibilidade de que pessoas mal-intencionadas pudessem explorar essa funcionalidade para prejudicar seus usuários, levando a Apple a optar por proteger os inocentes de falsas acusações.

As vítimas de abuso infantil que processam a Apple acusam a empresa de usar a defesa de cibersegurança como uma forma de ignorar suas obrigações legais de reportar casos de CSAM. Se elas tiverem sucesso em sua ação judicial, a Apple poderá enfrentar multas que ultrapassam a impressionante cifra de 1,2 bilhões de dólares. Mas o impacto pode ir além das penalidades financeiras. Para os defensores da privacidade, um resultado favorável para as vítimas pode resultar em uma ordem judicial obrigando a Apple a “identificar, remover e reportar CSAM no iCloud”, além de implementar políticas e práticas para evitar a disseminação contínua de CSAM ou o tráfico infantil em seus dispositivos e serviços.

Isso poderia significar a reinstauração da ferramenta controversa ou a criação de uma alternativa que atenda aos padrões da indústria para a detecção em massa de CSAM. A situação levanta questões importantes sobre a responsabilidade das empresas de tecnologia em proteger seus usuários e a complexidade de equilibrar a privacidade com a segurança.

Enquanto o desfecho desse caso ainda está por vir, ele nos faz refletir sobre os desafios que a tecnologia enfrenta em um mundo onde a segurança e a privacidade devem coexistir. A luta por justiça para as vítimas de abuso infantil continua, e a responsabilidade das grandes empresas de tecnologia em agir de forma ética e responsável se torna cada vez mais evidente.

Redação Confraria Tech.

Referências:
Apple hit with $1.2B lawsuit after killing controversial CSAM-detecting tool


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win
admin

0 Comments

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format