Se pedirá a Apple y Google que bloqueen fotos de desnudos a menos que se verifique la edad


Un nuevo informe dice que el gobierno del Reino Unido pedirá a Apple y Google que bloqueen la toma y el intercambio de fotografías de desnudos a menos que el usuario haya sido verificado como adulto.

Además, el informe afirma que el gobierno quiere que iOS y Android incluso impidan que se muestren imágenes de desnudos en el dispositivo a menos que el usuario haya sido verificado como adulto…

Propuestas de verificación de edad

Hemos informado de un creciente apoyo a la idea de que las tiendas de aplicaciones, en lugar de los desarrolladores individuales, deberían ser legalmente responsables de verificar las edades de los usuarios. En Estados Unidos, esto dio lugar a un nuevo proyecto de ley, la Ley de Responsabilidad de la App Store.

En lugar de que los usuarios tengan que demostrar su edad a un grupo completo de desarrolladores individuales cada vez que descargan una aplicación con un requisito de edad mínima, la idea es que lo haríamos una vez ante Apple o Google, y la empresa luego limitaría la edad de las aplicaciones cuando corresponda.

Apple ha presionado contra esta solución hasta ahora, pero la semana pasada argumentamos que en realidad sería la mejor solución.

Apple y Google pedirán que bloqueen fotos de desnudos

En el último desarrollo, el Tiempos financieros informa que el gobierno británico pedirá a Apple y Google que protejan a los niños de tomar y ver fotografías de desnudos.

Los ministros quieren que empresas como Apple y Google integren algoritmos de detección de desnudez en el sistema operativo de sus dispositivos para evitar que los usuarios tomen fotografías o compartan imágenes de genitales a menos que estén verificados como adultos (…)

(Además,) el Ministerio del Interior quiere ver sistemas operativos que impidan que se muestre cualquier desnudez en la pantalla a menos que el usuario haya verificado que es un adulto mediante métodos como controles biométricos o identificación gubernamental.

El informe dice que se espera que se haga un anuncio en los próximos días. La redacción sugiere que se tratará de una solicitud más que de un requisito legal, al menos por ahora.

Apple ofrece actualmente algunas protecciones en la aplicación Mensajes. Si un niño en un grupo familiar de iCloud recibe una imagen sexualmente explícita, inicialmente aparecerá borrosa y aparecerá un mensaje de advertencia. Si el niño presiona el botón Ver foto, verá una ventana emergente que explica por qué el mensaje se considera confidencial y le pide que confirme que quiere verlo. La ventana emergente también explica que se notificará al padre establecido como administrador del grupo.

Tomar de 9to5Mac

Esta es la propuesta de verificación de edad más controvertida que jamás hayamos visto. La idea de que Apple y Google espíen tanto las fotos como cualquier contenido visto en cualquier aplicación parece completamente inútil desde una perspectiva de privacidad, incluso si se hace en el dispositivo.

Al mismo tiempo, existe un problema creciente con los delincuentes sexuales que preparan a los niños para que compartan pornografía infantil, particularmente haciéndose pasar por adolescentes para alentar a adolescentes reales a compartir fotos y videos comprometedores. El patrón típico aquí es una escalada en la que las víctimas son chantajeadas con imágenes existentes para que envíen imágenes cada vez más explícitas. Varios suicidios de adolescentes están relacionados con esto.

Parece útil que esta propuesta al menos genere una discusión sobre el problema para determinar si se pueden encontrar soluciones más realistas y razonables.

Accesorios destacados

Foto por Logan Voss seguro desempaquetar

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente