Meta y TikTok no lograron proteger a los niños, dice la UE


La Unión Europea descubrió que Meta y TikTok no protegieron adecuadamente a los niños, lo que incluyó dificultar la denuncia de la presencia de material de abuso sexual infantil (CSAM) en sus aplicaciones.

Por otra parte, Meta se enfrentó a un revés en su defensa contra las demandas presentadas por varios estados de EE.UU., acusando a la empresa de hacer deliberadamente adictivas sus aplicaciones, a pesar de saber que eran perjudiciales para los adolescentes…

Tanto Meta como TikTok son culpables de violar las normas de protección infantil contenidas en la Ley de Servicios Digitales (DSA), según lo que la UE describió como conclusiones preliminares.

Específicamente, se descubrió que ambas empresas habían colocado barreras ilegalmente que impedían a los investigadores buscar datos sobre si los niños estaban expuestos a contenido ilegal o dañino.

Hoy, la Comisión Europea llegó a una conclusión preliminar de que TikTok y Meta no habían cumplido su obligación de conceder a los investigadores un acceso adecuado a los datos públicos en virtud de la Ley de Servicios Digitales (DSA) (…)

Las conclusiones preliminares de la Comisión muestran que Facebook, Instagram y TikTok pueden haber implementado procedimientos y herramientas engorrosos que permiten a los investigadores solicitar acceso a datos públicos. Esto a menudo les deja con datos parciales o poco confiables, lo que afecta su capacidad para realizar investigaciones, por ejemplo, si los usuarios, incluidos los menores, están expuestos a contenido ilegal o dañino.

También se descubrió que Meta dificultaba a los usuarios denunciar contenido ilegal, como CSAM.

Ni Facebook ni Instagram parecen ofrecer un mecanismo de «aviso y acción” fácil de usar y de fácil acceso para que los usuarios denuncien contenidos ilegales, como pornografía infantil y contenido terrorista.

Peor aún, Meta ha sido acusada de utilizar los llamados patrones oscuros para hacer deliberadamente que la presentación de dichos informes sea compleja y confusa.

Facebook e Instagram parecen utilizar los llamados «patrones oscuros”, o diseños de interfaz engañosos, cuando se trata de mecanismos de «notificar y actuar”.

Ambas empresas ahora tendrán la oportunidad de revisar el informe y presentar respuestas. Si las respuestas se consideran inaceptables, las empresas pueden ser multadas con hasta el 6% de su facturación anual total global.

En 2021, Meta fue acusada de eliminar una investigación interna que demostraba que Instagram era tóxico para las adolescentes. Cuando los informes se hicieron públicos tras una El diario de Wall Street investigación, la empresa afirmó que los hallazgos fueron sacados de contexto.

Varios estados de EE.UU. han presentado demandas contra la empresa, acusándola de intentar deliberadamente hacer que sus aplicaciones sean adictivas, a pesar de saber que eran perjudiciales para los adolescentes.

Se dijo que los abogados de la empresa aconsejaron a Meta que mantuviera los hallazgos en secreto y la red social intentó argumentar que ese consejo no podía ser escuchado en los tribunales porque estaba sujeto al privilegio abogado-cliente.

Ley Bloomberg (a través de Engadget) informa que el juez rechazó este argumento.

La jueza Yvonne Williams dictaminó que Meta no podía utilizar el privilegio abogado-cliente para impedir que el fiscal general de Washington utilizara los documentos internos de Meta en la demanda del distrito sobre abuso de salud mental de adolescentes.

Williams, fallo del Tribunal Superior del Distrito de Columbia, concluyó que la comunicación contenida en los documentos entraba dentro de la excepción de fraude penal al privilegio abogado-cliente porque Meta buscó asesoramiento legal para ocultar una posible responsabilidad o participar en fraude.

«El Tribunal señala que el abogado de Meta aconsejó explícitamente a los investigadores de Meta que ‘eliminaran’, ‘bloquearan’, ‘botonaran’, ‘limitaran’ y ‘actualizaran’ sus búsquedas», dijo Williams. «El abogado de Meta ofreció asesoramiento legal para limitar específicamente la responsabilidad potencial de Meta».

Se espera que la primera de las demandas se conozca el próximo año.

Accesorios destacados

Foto por Cristóbal Ryan seguro desempaquetar

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente