Según se informa, las sugerencias de búsqueda de la App Store alientan a los usuarios a «desnudar» las aplicaciones


El Tech Transparency Project (TTP) siguió su informe de enero que reveló docenas de aplicaciones «nudify» en la App Store con una nueva investigación centrada en cómo los sistemas de búsqueda y publicidad de Apple pueden ayudar a los usuarios a encontrarlas. Aquí están los detalles.

Las aplicaciones Nudify siguen siendo un problema en las tiendas de aplicaciones

Según el nuevo informeApp Store y Google Play Store «ayudan a los usuarios a encontrar aplicaciones que crean imágenes falsas de mujeres desnudas», a veces a través de resultados de búsqueda promocionados y sugerencias de búsqueda de autocompletar.

En el informe, TTP afirma que Apple y Google siguen sin impedir que aparezcan aplicaciones nudistas en sus tiendas de aplicaciones, algunas de las cuales parecen adecuadas para menores. El grupo descubrió que casi el 40% de las 10 principales aplicaciones devueltas para búsquedas como «nudify», «undress» y «deepnude» podían «mostrar a mujeres desnudas o con poca ropa».

Además, algunas búsquedas mostraron resultados patrocinados para estas aplicaciones. Extracto del informe:

«(…) el primer resultado de una búsqueda de «deepfake» en la App Store fue un anuncio de FaceSwap Video de DuoFace. La aplicación permite a los usuarios cambiar el rostro de cualquier persona de una imagen fija a un video. Para probar la aplicación, TTP subió una imagen de una mujer con un suéter blanco parada en una acera y un video de una mujer en topless. Después de mostrar por primera vez un anuncio corto, la aplicación generó un video que muestra el rostro de la mujer vestida en el cuerpo de la mujer desnuda.

Y

«Otra búsqueda en la App Store del término «intercambio de caras» arrojó un anuncio de una aplicación llamada AI Face Swap. La aplicación ofrece plantillas de intercambio de caras prefabricadas y permite a los usuarios intercambiar caras en imágenes que ellos mismos cargan. TTP subió una foto de una mujer con un suéter azul parada en una sala de estar y una imagen de una mujer en topless, y la aplicación intercambió sus caras sin ninguna restricción».

Curiosamente, además de contactar a Apple y Google sobre estos hallazgos, TPP también contactó a los desarrolladores de varias de estas aplicaciones. En al menos un caso, el desarrollador de la aplicación confirmó que estaba usando Grok para la generación de imágenes, pero afirmó que «no tenía idea de que era capaz de producir contenido tan extremo». El desarrollador se ha comprometido a reforzar la configuración de moderación para la generación de imágenes.

Volviendo al informe, TTP señaló que al ingresar «AI NS» como parte de una búsqueda que podría conducir a «AI NSFW», la App Store sugería «imagen a video ai nsfw». Esta búsqueda, a su vez, arrojó varias aplicaciones de nudificación entre los diez primeros resultados.

Aunque se negó a comentar sobre la solicitud de TTP, Apple respondió al informe eliminando la mayoría de las aplicaciones identificadas por TTP.

Para leer el informe TTP completo, sigue este enlace.

Para descubrir en Amazon

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente