Apple demandada por West Virginia por presunta falta de prevención de CSAM


Manzana fue continuado por el estado de Virginia Occidental por lo que considera una falla en la prevención del contenido de abuso sexual infantil (CSAM) en servicios de iCloud como iMessage y Photos. Aquí están los detalles.

La demanda afirma que otras empresas de tecnología están haciendo un mejor trabajo en la lucha contra el CSAM

Lora Kolodny escribe a CNBC:

El fiscal general de Virginia Occidental presentó una demanda contra Apple, alegando que no impidió el almacenamiento y el intercambio de materiales de abuso sexual infantil a través de dispositivos iOS y servicios iCloud.

John «JB» McCuskey, un republicano, ha acusado a Apple de priorizar la privacidad y sus propios intereses comerciales sobre la seguridad infantil, mientras que otras grandes empresas tecnológicas, incluidas Google, Microsoft y Dropbox, han sido más proactivas y han utilizado sistemas como PhotoDNA para combatir este tipo de contenido.

En 2021, Apple anunció una serie de nuevos esfuerzos para detener la propagación de CSAM en sus dispositivos. Sin embargo, uno de estos anuncios nunca llegó a concretarse.

Apple había planeado introducir un sistema de detección de CSAM en la aplicación Fotos que, después de importantes preocupaciones de privacidad planteadas por los investigadores, fue posteriormente descartado.

El temor era que la creación de este nuevo sistema permitiera a los gobiernos exigir acceso a los datos de los usuarios privados.

Apple ha proporcionado otras funciones de seguridad infantil destinadas a detener la propagación de CSAM, sobre todo con iOS 26. Sin embargo, Virginia Occidental claramente siente que la compañía no ha hecho lo suficiente.

Apple compartió lo siguiente con CNBC:

En una declaración enviada por correo electrónico, un portavoz de Apple dijo a CNBC que «proteger la seguridad y la privacidad de nuestros usuarios, especialmente los niños, es el núcleo de lo que hacemos».

La compañía destacó los controles parentales y funciones como Communication Safety que «intervienen automáticamente en los dispositivos de los niños cuando se detecta desnudez en mensajes, fotos compartidas, AirDrop e incluso llamadas FaceTime en vivo» como una indicación de su compromiso de brindar «seguridad y privacidad» a los usuarios.

«Innovamos todos los días para combatir las amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños», añadió el portavoz.

Lo mantendremos informado sobre cualquier actualización importante en el caso.

Los mejores accesorios para iPhone

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente