Las estudiantes de secundaria, que buscan proceder bajo seudónimos, presentaron la demanda en California, donde xAI —la empresa de inteligencia artificial de Musk— tiene su sede. Buscan que el caso sea certificado como demanda colectiva para representar a lo que, según la demanda, son miles de víctimas como ellas que son menores de edad o que eran menores cuando se crearon imágenes sexualmente explícitas de ellas.
Según la demanda, a Jane Doe 1 le avisaron de forma anónima en diciembre que alguien estaba distribuyendo imágenes sexualmente explícitas de ella en un sitio web de redes sociales.
“Al menos cinco de estos archivos, un video y cuatro imágenes, mostraban su rostro y cuerpo reales en entornos que le resultaban familiares, pero transformados en poses sexualmente explícitas”, señala la demanda.
Sostiene que la persona que distribuía las imágenes conocía a Doe y usó las herramientas de generación de imágenes de xAI para convertir fotos reales de ella en imágenes sexualmente abusivas. Una de las imágenes se tomó de una foto del baile de bienvenida. Otra se tomó de un anuario escolar de secundaria.
La persona que distribuía las imágenes también creó imágenes explícitas de al menos otras 18 menores, dos de las cuales son codemandantes en el caso. A finales de diciembre, la policía local arrestó al responsable y confiscó su teléfono. Encontraron que había subido las imágenes a varias plataformas donde las intercambiaba por imágenes sexualmente explícitas de otras menores.
Otras empresas de IA han prohibido que sus generadores de imágenes produzcan cualquier contenido sexualmente explícito, incluso de adultos. Musk vio esto como una oportunidad de negocio y promovió la capacidad del chatbot Grok de xAI para crear contenido “picante”, según la demanda.
Sin embargo, actualmente no existe una forma de impedir la generación de imágenes explícitas de adultos y, al mismo tiempo, bloquear por completo la generación de imágenes de menores, afirma la demanda. También sostiene que xAI sabía que Grok podría producir imágenes sexualmente explícitas de menores, pero aun así lo lanzó.
La demanda afirma que la persona que distribuyó imágenes de las demandantes usó una aplicación que tenía licencia de la tecnología de xAI o que “de otro modo compró su acceso a Grok, y se utilizó como pantalla o intermediario”.
XAI no respondió a un correo electrónico de The Associated Press en el que se solicitaban comentarios. Pero una publicación del 14 de enero sobre la controversia en la plataforma de redes sociales X decía: “Seguimos comprometidos con hacer de X una plataforma segura para todos y continuamos con tolerancia cero ante cualquier forma de explotación sexual infantil, desnudez sin consentimiento y contenido sexual no deseado.
“Actuamos para eliminar contenido infractor de alta prioridad, incluido material de abuso sexual infantil (CSAM, por sus siglas en inglés) y desnudez sin consentimiento, tomando las medidas apropiadas contra las cuentas que violen nuestras Reglas de X. También denunciamos, cuando es necesario, a las autoridades policiales las cuentas que buscan materiales de explotación sexual infantil”.
Por su parte, las estudiantes que presentaron la demanda dijeron que les preocupa que las imágenes creadas de ellas permanezcan para siempre en internet. Temen ser acosadas porque sus nombres reales y el nombre de su escuela están adjuntos a los archivos. Les preocupa que sus amigos y compañeros hayan visto las fotos y los videos, que parecen reales, y les inquieta quién los verá en el futuro.
Jane Doe 1 dijo que ha sufrido ansiedad, depresión y estrés. “Tiene dificultades para comer y dormir y sufre pesadillas recurrentes”, indica la demanda. Jane Doe 2 “ha comenzado a aislarse y a evitar estar en el campus de su escuela, e incluso teme asistir a su propia graduación”. Jane Doe 3 sufre un miedo y una ansiedad constantes de que alguien vea las imágenes generadas por IA y reconozca su rostro, según la demanda. ___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.
FUENTE: AP