📂 Categoría: AI,elon-musk,grok,x-ai,deepfakes | 📅 Fecha: 1773704511
🔍 En este artículo:
Una nueva demanda contra xAI de Elon Musk alega que su chatbot insignia, Grok, se utilizó para crear imágenes sexualizadas falsas de tres menores, lo que, según la denuncia, equivale a material de abuso sexual infantil.
La demanda colectiva propuesta, presentada el lunes en un tribunal federal de California, acusa a la startup de inteligencia artificial de beneficiarse de la «depredación sexual de personas reales, incluidos niños».
«Casi todas las empresas que crean, comercializan y venden IA han reconocido los peligros de dicha herramienta y han optado por adoptar salvaguardias estándar de la industria que impedirían el uso de sus productos por parte de un grupo extremadamente peligroso: los depredadores sexuales infantiles. XAI no lo ha hecho», afirma la demanda.
Los representantes de Musk y xAI no respondieron de inmediato a una solicitud de comentarios de Business Insider kshp.
Musk dijo anteriormente en una publicación de enero en X que «no tenía conocimiento de ninguna imagen de mineros desnudos generada por Grok. Literalmente cero».
Grok genera imágenes basándose en las indicaciones del usuario, escribió.
«Cuando se le pide que genere imágenes, se negará a producir nada ilegal, porque el principio operativo de Grok es obedecer las leyes de un país o estado determinado», dijo Musk. «Puede haber ocasiones en las que el pirateo de los mensajes de Grok por parte de adversarios haga algo inesperado. Si esto sucede, solucionaremos el error de inmediato».
La demanda contra xAI dice que los demandantes de Tennessee son «tres de las víctimas menores de la conocida producción, posesión y distribución de material de abuso sexual infantil generado por IA» que los representan.
Los demandantes, identificados en los documentos judiciales únicamente como Jane Doe 1, Jane Doe 2 y Jane Doe 3, alegan que las herramientas de inteligencia artificial de xAI se utilizaron para crear imágenes y videos de desnudos. Jane Doe 1, una adulta reciente, era menor de edad en el momento de los presuntos incidentes, mientras que los otros dos demandantes aún eran menores de edad, según la demanda.
En diciembre de 2025, Jane Doe 1 recibió un mensaje de una cuenta anónima de Instagram advirtiéndole que alguien que conocía había generado «fotos» de ella y publicadas en la plataforma de chat grupal Discord.
«A través de una serie de mensajes, el usuario anónimo explicó que el perpetrador había subido una carpeta a Discord que contenía archivos de imágenes y videos que la representaban a ella y a otras mujeres menores», afirma la demanda.
El usuario anónimo finalmente envió a Jane Doe 1 varias imágenes y videos sexualizados generados por IA de ella y otras niñas menores de edad, según la demanda.
«Al menos cinco de estos archivos, un vídeo y cuatro imágenes, mostraban su rostro y cuerpo reales en entornos que le eran familiares, pero transformados en poses sexualmente explícitas», afirma la demanda. «Las imágenes mostraban todo su cuerpo, incluidos sus genitales, sin ropa alguna. El vídeo la mostraba desnudándose hasta quedar completamente desnuda».
Jane Doe 1 alertó a los demás menores de las imágenes, así como a sus familias, y se abrió una investigación criminal en Tennessee, según la demanda. Agrega que la policía local arrestó a un sospechoso vinculado a este caso en diciembre de 2025.
El mes pasado, Jane Doe 2 se enteró a través de la investigación de que al menos dos de sus imágenes también se habían utilizado para producir contenido sexualmente explícito generado por IA utilizando las herramientas de xAI, dice la demanda.
Las autoridades locales dijeron a la niña y a su madre que una imagen tomada de la niña en la playa con un bikini azul había sido «transformada para representarla sin ropa», afirma la demanda.
Las autoridades también informaron a Jane Doe 3 que las imágenes generadas por IA recuperadas del teléfono del sospechoso incluían una que había sido «transformada para representarla completamente desnuda», según la demanda.
Vanessa Baehr-Jones, abogada de los demandantes, dijo a Business Insider que sus clientes habían soportado una «pesadilla».
«Sus imágenes y vídeos de CSAM que los representan como menores ahora están disponibles para siempre en Internet en estos mundos oscuros de depredadores sexuales infantiles», dijo Baehr-Jones. «El daño resultante es grave».
La abogada dijo que esperaba que la demanda trajera «rendición de cuentas» a xAI y que «lo más importante es que esto nunca debería sucederle a ninguna otra víctima».
La demanda busca daños y perjuicios no especificados y acusa a xAI de producir con la intención de distribuir pornografía infantil, distribuir pornografía infantil y poseer pornografía infantil, entre otras reclamaciones.
«En nuestro sistema legal, el dinero es la forma en que hacemos que las empresas paguen por el daño que han causado», dijo Annika Martin, otra abogada de los demandantes. «Dado que las corporaciones son entidades con fines de lucro, golpearlas en la billetera es la única manera de influir en su toma de decisiones».
A principios de este año, Grok de xAI provocó una reacción masiva después de que se utilizara el generador de imágenes de IA para crear imágenes sexualizadas no consensuadas de personas reales.
En respuesta, X, el sitio de redes sociales que Musk vendió a xAI en marzo, dijo que Grok ya no podría generar imágenes de IA de personas reales usando ropa sexualizada o reveladora.
Ashley St Clairequien dio a luz a uno de los hijos de Elon Musk en 2024, xAI presentó una demanda en enero, alegando que Grok generó deepfakes sexualmente explícitos de él a petición de los usuarios.
Las autoridades francesas también están investigando a Grok por deepfakes sexualizados.
Una nueva demanda contra xAI de Elon Musk alega que su chatbot insignia, Grok, se utilizó para crear imágenes sexualizadas falsas de tres menores, lo que, según la denuncia, equivale a material de abuso sexual infantil.
La demanda colectiva propuesta, presentada el lunes en un tribunal federal de California, acusa a la startup de inteligencia artificial de beneficiarse de la «depredación sexual de personas reales, incluidos niños».
«Casi todas las empresas que crean, comercializan y venden IA han reconocido los peligros de dicha herramienta y han optado por adoptar salvaguardias estándar de la industria que impedirían el uso de sus productos por parte de un grupo extremadamente peligroso: los depredadores sexuales infantiles. XAI no lo ha hecho», afirma la demanda.
Los representantes de Musk y xAI no respondieron de inmediato a una solicitud de comentarios de Business Insider kshp.
Musk dijo anteriormente en una publicación de enero en X que «no tenía conocimiento de ninguna imagen de mineros desnudos generada por Grok. Literalmente cero».
Grok genera imágenes basándose en las indicaciones del usuario, escribió.
«Cuando se le pide que genere imágenes, se negará a producir nada ilegal, porque el principio operativo de Grok es obedecer las leyes de un país o estado determinado», dijo Musk. «Puede haber ocasiones en las que el pirateo de los mensajes de Grok por parte de adversarios haga algo inesperado. Si esto sucede, solucionaremos el error de inmediato».
La demanda contra xAI dice que los demandantes de Tennessee son «tres de las víctimas menores de la conocida producción, posesión y distribución de material de abuso sexual infantil generado por IA» que los representan.
Los demandantes, identificados en los documentos judiciales únicamente como Jane Doe 1, Jane Doe 2 y Jane Doe 3, alegan que las herramientas de inteligencia artificial de xAI se utilizaron para crear imágenes y videos de desnudos. Jane Doe 1, una adulta reciente, era menor de edad en el momento de los presuntos incidentes, mientras que los otros dos demandantes aún eran menores de edad, según la demanda.
En diciembre de 2025, Jane Doe 1 recibió un mensaje de una cuenta anónima de Instagram advirtiéndole que alguien que conocía había generado «fotos» de ella y publicadas en la plataforma de chat grupal Discord.
«A través de una serie de mensajes, el usuario anónimo explicó que el perpetrador había subido una carpeta a Discord que contenía archivos de imágenes y videos que la representaban a ella y a otras mujeres menores», afirma la demanda.
El usuario anónimo finalmente envió a Jane Doe 1 varias imágenes y videos sexualizados generados por IA de ella y otras niñas menores de edad, según la demanda.
«Al menos cinco de estos archivos, un vídeo y cuatro imágenes, mostraban su rostro y cuerpo reales en entornos que le eran familiares, pero transformados en poses sexualmente explícitas», afirma la demanda. «Las imágenes mostraban todo su cuerpo, incluidos sus genitales, sin ropa alguna. El vídeo la mostraba desnudándose hasta quedar completamente desnuda».
Jane Doe 1 alertó a los demás menores de las imágenes, así como a sus familias, y se abrió una investigación criminal en Tennessee, según la demanda. Agrega que la policía local arrestó a un sospechoso vinculado a este caso en diciembre de 2025.
El mes pasado, Jane Doe 2 se enteró a través de la investigación de que al menos dos de sus imágenes también se habían utilizado para producir contenido sexualmente explícito generado por IA utilizando las herramientas de xAI, dice la demanda.
Las autoridades locales dijeron a la niña y a su madre que una imagen tomada de la niña en la playa con un bikini azul había sido «transformada para representarla sin ropa», afirma la demanda.
Las autoridades también informaron a Jane Doe 3 que las imágenes generadas por IA recuperadas del teléfono del sospechoso incluían una que había sido «transformada para representarla completamente desnuda», según la demanda.
Vanessa Baehr-Jones, abogada de los demandantes, dijo a Business Insider que sus clientes habían soportado una «pesadilla».
«Sus imágenes y vídeos de CSAM que los representan como menores ahora están disponibles para siempre en Internet en estos mundos oscuros de depredadores sexuales infantiles», dijo Baehr-Jones. «El daño resultante es grave».
La abogada dijo que esperaba que la demanda trajera «rendición de cuentas» a xAI y que «lo más importante es que esto nunca debería sucederle a ninguna otra víctima».
La demanda busca daños y perjuicios no especificados y acusa a xAI de producir con la intención de distribuir pornografía infantil, distribuir pornografía infantil y poseer pornografía infantil, entre otras reclamaciones.
«En nuestro sistema legal, el dinero es la forma en que hacemos que las empresas paguen por el daño que han causado», dijo Annika Martin, otra abogada de los demandantes. «Dado que las corporaciones son entidades con fines de lucro, golpearlas en la billetera es la única manera de influir en su toma de decisiones».
A principios de este año, Grok de xAI provocó una reacción masiva después de que se utilizara el generador de imágenes de IA para crear imágenes sexualizadas no consensuadas de personas reales.
En respuesta, X, el sitio de redes sociales que Musk vendió a xAI en marzo, dijo que Grok ya no podría generar imágenes de IA de personas reales usando ropa sexualizada o reveladora.
Ashley St Clairequien dio a luz a uno de los hijos de Elon Musk en 2024, xAI presentó una demanda en enero, alegando que Grok generó deepfakes sexualmente explícitos de él a petición de los usuarios.
Las autoridades francesas también están investigando a Grok por deepfakes sexualizados.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre AI,elon-musk,grok,x-ai,deepfakes
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Natalie Musumeci |
| 📅 Fecha Original: | 2026-03-16 22:54:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



