Horas después de que una coalición de organizaciones de derechos digitales, seguridad infantil y derechos de las mujeres pidiera a Apple que «tomara medidas inmediatas» contra X y Grok AI, xAI confirmó que Grok ya no editaría «imágenes de personas reales usando ropa reveladora como bikinis», con exclusiones significativas. Aquí están los detalles.
Apple enfrenta una nueva presión para eliminar X y Grok de la App Store
En los últimos días, innumerables usuarios de X y Grok han pedido al chatbot de xAI que desnude a mujeres e incluso a niñas menores de edad, basándose en fotos publicadas en X.
Si bien xAI inicialmente definió la situación como una «falla de salvaguardias”, Grok continuó cumpliendo con múltiples solicitudes para modificar imágenes de esta manera. Esto, a su vez, llevó a que X fuera bloqueado en varios países y a que xAI se convirtiera en blanco de investigaciones en otros.
Mientras tanto, Apple se ha enfrentado a nuevas presiones por parte de senadores y usuarios para eliminar las aplicaciones X y Grok de la App Store. Hoy temprano, una coalición de 28 organizaciones de derechos digitales, seguridad infantil y derechos de las mujeres cartas abiertas enviadas a Apple y Google, pidiendo a ambas empresas «que tomen medidas inmediatas para prohibir Grok, el modelo de lenguaje grande (LLM) impulsado por xAI”, en sus tiendas de aplicaciones.
Extracto de la carta abierta:
Nosotros, las organizaciones abajo firmantes, escribimos para instar a los ejecutivos de Apple a tomar medidas inmediatas para prohibir Grok, el modelo de lenguaje extendido (LLM) impulsado por xAI, en la App Store de Apple. Grok se utiliza para crear cantidades masivas de imágenes íntimas no consentidas (NCII), incluido material de abuso sexual infantil (CSAM), contenido que constituye tanto un delito penal como una violación directa de las pautas de revisión de aplicaciones de Apple. Dado que Grok está disponible en la aplicación Grok y está integrado directamente en X, hacemos un llamado a los ejecutivos de Apple para que eliminen de inmediato el acceso a ambas aplicaciones.
Y
Tal como están las cosas, Apple no sólo está habilitando NCII y CSAM, sino que también los está aprovechando. Como coalición de organizaciones comprometidas con la seguridad y el bienestar en línea de todas las personas, especialmente mujeres y niños, y con la aplicación ética de la inteligencia artificial (IA), exigimos que los ejecutivos de Apple eliminen urgentemente Grok y X de la App Store para evitar más abusos y actividades delictivas.
xAI dice que Grok dejará de editar imágenes, más o menos
Si bien Apple y Google han permanecido en silencio desde que comenzó el problema, lo que generó fuertes críticas, así como especulaciones de que estaban preocupados por enojar a Elon Musk e incluso al presidente Trump, xAI confirmado hoy que actualizará la cuenta Grok en X para resolver el problema, al menos en parte:
Actualizaciones de la cuenta @Grok
Hemos implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales usando ropa reveladora como bikinis. Esta restricción se aplica a todos los usuarios, incluidos los suscriptores pagos.
Además, la creación de imágenes y la posibilidad de editarlas a través de la cuenta Grok en la plataforma X ahora solo está disponible para suscriptores pagos. Esto agrega una capa adicional de protección al ayudar a garantizar que las personas que intenten abusar de la cuenta de Grok para violar la ley o nuestras políticas puedan ser consideradas responsables.
Actualización de geobloqueo
Ahora estamos geobloqueando la capacidad de todos los usuarios de generar imágenes de personas reales en bikinis, ropa interior y conjuntos similares a través de la cuenta de Grok y en Grok en X en jurisdicciones donde hacerlo es ilegal.
Como era de esperar, una búsqueda rápida de las menciones de Grok revela que varios seguidores de X ya están intentando sortear las restricciones recién impuestas, con cierto éxito. Al mismo tiempo, los no suscriptores suelen recibir el siguiente mensaje:
La generación y edición de imágenes está actualmente limitada a suscriptores Premium verificados. Puede suscribirse para desbloquear estas funciones.
El punto de vista de 9to5Mac
Mientras xAI ajusta los nuevos filtros y reglas, queda por ver si será suficiente para poner fin a este asunto.
La historia muestra que los trolls pueden ser implacablemente creativos cuando intentan eludir las restricciones de seguridad, especialmente cuando se trata de atacar a mujeres en línea.
Y dadas las múltiples exclusiones contenidas en el anuncio de xAI, incluido el hecho de que algunas reglas solo se aplican a la cuenta de Grok en X, es más probable que este no sea el final, especialmente para las víctimas.
De cualquier manera, una cosa es segura: ha sido muy decepcionante ver a Apple sentarse ante el problema (al menos públicamente), esperando que desaparezca por sí solo.
Con cada nueva imagen en bikini no consensuada y CSAM ampliamente disponible para menores a través de



