Hoy, Tech Transparency Project publicó un informe que encuentra que las aplicaciones «nudify» están ampliamente disponibles y son fáciles de encontrar en App Store y Play Store de Google. Aquí están los detalles.
Algunas aplicaciones nudistas incluso se anuncian en la App Store
Aunque Grok ha llamado recientemente la atención sobre las imágenes sexualizadas no consensuadas generadas por la IA, incluso en casos que involucran a menores, el problema en sí no es nuevo.
De hecho, el problema es obviamente anterior a la IA generativa, ya que las herramientas tradicionales de edición de imágenes han permitido durante mucho tiempo la creación de este tipo de contenido abusivo. Lo que ha cambiado en los últimos dos años es la escala y el hecho de que la barrera para generar este tipo de imágenes en segundos ahora es casi inexistente.
Como era de esperar, muchas aplicaciones han pasado los últimos años intentando sacar provecho de esta nueva característica, y algunas la anuncian abiertamente.
Todo esto sucedió mientras Apple luchaba contra Epic Games y otros desarrolladores de aplicaciones en demandas antimonopolio, en las que Apple insistió en que parte de la razón por la que cobraba hasta el 30% en comisiones era para hacer que la App Store fuera más segura a través de sistemas de revisión de aplicaciones manuales y automatizados.
y mientras manzana funciona Para evitar fraudes, abusos y otras violaciones de las pautas de la App Store, las aplicaciones y categorías enteras de aplicaciones a veces pueden pasar desapercibidas. El año pasado, 9to5Mac destacó una serie de aplicaciones que afirmaban (o sugerían fuertemente) ser la aplicación Sora 2 de OpenAI, algunas de las cuales cobraban fuertes tarifas de suscripción semanales.
Ahora, dado el renovado enfoque de Grok en las herramientas de nudificación basadas en IA, el Proyecto de Transparencia Tecnológica (TTP) ha publicó un informe detallando cómo encontraron fácilmente aplicaciones para desvestirse en App Store y Google Play.
Desde informe:
Las aplicaciones identificadas por TTP se han descargado colectivamente más de 705 millones de veces en todo el mundo y generaron 117 millones de dólares en ingresos, según AppMagic, una empresa de análisis de aplicaciones. Dado que Google y Apple se quedan con una parte de estos ingresos, se benefician directamente de la actividad de estas aplicaciones.
Google y Apple ofrecen estas aplicaciones a pesar de su aparente violación de las políticas de la App Store. Google Play Store prohíbe «representaciones de desnudez sexual o poses sexualmente sugerentes en las que el sujeto esté desnudo» o «escasamente vestido». También prohíbe las aplicaciones que «degradan u objetivan a las personas, como las aplicaciones que pretenden desnudar a las personas o ver a través de la ropa, incluso si están etiquetadas como aplicaciones de broma o entretenimiento».
El informe también señala que una simple búsqueda de términos como «nudificar” o «desvestir” es suficiente para que aparezcan aplicaciones para desvestirse, algunas de las cuales se anuncian explícitamente en torno a estas palabras clave.
El TTP dice que las aplicaciones incluidas en este informe «se dividen en dos categorías generales: aplicaciones que usan IA para generar videos o imágenes basadas en un mensaje del usuario, y aplicaciones de ‘intercambio de rostros’ que usan IA para superponer la cara de una persona al cuerpo de otra».
Para probar estas aplicaciones, TTP utilizó imágenes de mujeres falsas generadas por IA y limitó sus pruebas a las funciones gratuitas de cada aplicación. Como resultado, 55 aplicaciones de Android y 47 aplicaciones de iOS respondieron a las solicitudes. Al menos una de estas aplicaciones ha sido clasificada para mayores de 9 años en la App Store.
El informe del TTP continúa detallando la facilidad con la que crearon estas imágenes y muestra una amplia variedad de resultados censurados para demostrar su punto.
Aquí hay un informe de sus pruebas en una de las aplicaciones:
«Con la versión de iOS, la aplicación, cuando recibió el mismo texto pidiendo que se quitara la blusa de la mujer, no pudo generar una imagen y emitió una advertencia de contenido sensible. Pero una segunda solicitud para mostrar a la mujer bailando en bikini tuvo éxito. La pantalla de inicio de las versiones de la aplicación para iOS y Google Play presenta varias plantillas de video de IA, que incluyen «arrancarse la ropa», «bailar con el pecho» e «agacharse».
El informe concluye que si bien las aplicaciones citadas en el informe representan «sólo una fracción» de lo que está disponible, «sugieren que las empresas no están monitoreando efectivamente sus plataformas ni haciendo cumplir sus propias políticas con respecto a este tipo de aplicaciones».
Para leer el informe completo, sigue este enlace.



