Em 2021, a Apple havia anunciado sua intenção de criar uma ferramenta que identificaria imagens de abuso e alertaria o National Center for Missing and Exploited Children, uma organização dedicada à proteção de crianças. No entanto, essa proposta gerou uma onda de críticas, principalmente em relação às implicações de privacidade que a tecnologia poderia acarretar. Como resultado, a Apple decidiu abandonar o plano, frustrando aqueles que esperavam que a empresa tomasse medidas efetivas para combater esse problema.
Agora, com um processo movido na Califórnia do Norte, os autores buscam mais de 1,2 bilhão de dólares em danos, representando um grupo de aproximadamente 2.680 vítimas. O processo alega que a Apple não só falhou em implementar as ferramentas de segurança prometidas, mas também não tomou medidas para identificar e limitar a disseminação de CSAM em seus dispositivos, contribuindo para o sofrimento das vítimas, enquanto as imagens continuavam a ser compartilhadas.
Em resposta ao processo, um porta-voz da Apple, Fred Sainz, destacou a repulsa da empresa em relação ao material de abuso sexual infantil e reafirmou seu compromisso em combater essas atrocidades, sem comprometer a segurança e a privacidade de seus usuários. O timing do processo é especialmente relevante, uma vez que, há poucos meses, a empresa já havia sido acusada de subnotificar casos de CSAM pela National Society for the Prevention of Cruelty to Children do Reino Unido.
A situação levanta questões importantes sobre a responsabilidade das empresas de tecnologia em proteger os usuários, especialmente os mais vulneráveis, e o equilíbrio delicado entre segurança e privacidade. O desfecho desse caso poderá ter implicações significativas não apenas para a Apple, mas para toda a indústria de tecnologia, que deve enfrentar constantemente esses dilemas éticos e legais.
Redação Confraria Tech.
Referências:
Apple sued for failing to implement tools that would detect CSAM in iCloud
0 Comments