Notebookcheck Logo

Apple demandado por no implementar la detección de CSAM en iCloud

Apple demandado por no implementar la detección de CSAM en iCloud (Fuente de la imagen: Foto de Tayyab Ejaz en Unsplash)
Apple demandado por no implementar la detección de CSAM en iCloud (Fuente de la imagen: Foto de Tayyab Ejaz en Unsplash)
Apple se enfrenta a una demanda en el norte de California por no haber encontrado la forma de implementar la detección de CSAM en iCloud. La demanda, presentada por una víctima, alega que el abandono del programa por parte de Apple no impidió que sus imágenes se compartieran en línea.

En 2021, Apple anunció y luego rápidamente se retractó un controvertido sistema de iCloud que habría escaneado las fotos de iMessage y iCloud en busca de cualquier Material de Abuso Sexual Infantil (CSAM).

El sistema habría permitido a Apple analizar las fotos de los dispositivos Apple utilizados por niños, pero la empresa se encontró en el ojo del huracán debido a las preocupaciones sobre la privacidad planteadas por expertos y grupos de defensa. Apple abandonó el sistema, afirmando que "se tomaría más tiempo en los próximos meses para recoger opiniones y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica."

En los años transcurridos desde entonces, Apple ha permanecido en silencio sobre cualquier característica relativa al CSAM. Ahora (vía Engadget), una demanda de una víctima, presentada ante el Tribunal de Distrito de EE.UU. en el norte de California, alega que el hecho de que Apple no haya incorporado medidas de seguridad ha provocado que imágenes suyas circulen inapropiadamente por Internet.

Informada por primera vez https://www.nytimes.com/2024/12/08/technology/apple-child-sexual-abuse-material-lawsuit.html por The New York Times, la joven de 27 años dijo que ella y su madre recibían notificaciones constantes de varios individuos acusados de posesión. La demanda exige una compensación económica para 2680 víctimas que han visto filtradas sus imágenes en Internet.

Apple el portavoz de la compañía, Fred Sainz, declaró a Engadget que el CSAM "es aborrecible, y estamos comprometidos a luchar contra las formas de los depredadores que ponen en peligro a los niños" Sainz dijo que la empresa estaba buscando "urgente y activamente" formas de "combatir estos delitos sin comprometer la seguridad y la privacidad de todos nuestros usuarios."

Fuente(s)

Engadget, The New York Times

Fuente de la imagen: Foto de Tayyab Ejaz en Unsplash

Please share our article, every link counts!
Mail Logo
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)