CDXM. Una joven de Estados Unidos ha presentado una denuncia contra la empresa responsable de la aplicación de inteligencia artificial ClothOff, una herramienta capaz de generar imágenes falsas de desnudos a partir de fotografías reales sin consentimiento. La afectada acusa a la compañía de facilitar de manera intencionada la creación y distribución de material sexual explícito de personas reales, incluidas menores de edad, lo que ha desatado un debate sobre los límites éticos y legales del uso de la inteligencia artificial.

Según detalla la demanda, presentada el pasado 16 de octubre y citada por el medio especializado Ars Technica, la joven tenía 15 años cuando fue víctima de la aplicación. Compañeros de su escuela utilizaron una fotografía suya en bañador —tomada por un familiar durante las vacaciones— para generar una versión manipulada en la que aparecía desnuda. Otras compañeras del mismo centro educativo también fueron afectadas por esta práctica.

El documento judicial sostiene que el sistema de ClothOff fue diseñado “para producir imágenes sexualmente explícitas de personas reales, incluidas menores de edad, sin su consentimiento”, lo que convierte el caso en un ejemplo alarmante de explotación tecnológica con fines abusivos. Desde que descubrió la imagen alterada, la víctima ha sufrido ansiedad, insomnio, pérdida de apetito y aislamiento social, además de un temor constante a que el contenido siga circulando en internet. Su familia ha tenido que recurrir a apoyo psicológico debido a las secuelas emocionales.

Vive con el miedo permanente de que el material producido por ClothOff permanezca en posesión de la empresa o vuelva a ser publicado en cualquier momento”, señala la denuncia.

El texto también acusa a la compañía de haber utilizado las imágenes generadas para entrenar su propio sistema de inteligencia artificial, lo que, según la demanda, “multiplica el daño” al permitir que se produzcan imágenes falsas similares de otras víctimas. Por ello, se solicita al tribunal el cierre definitivo de la aplicación y la eliminación completa de todas las fotografías generadas sin consentimiento, así como cualquier material íntimo almacenado en sus bases de datos.

La denuncia asegura que ClothOff produce diariamente unas 200.000 imágenes falsas y acumula alrededor de 27 millones de visualizaciones, cifras que reflejan el enorme alcance de esta tecnología.

Además, la demanda incluye a la plataforma Telegram como corresponsable, al considerar que permitió la difusión del contenido manipulado generado por ClothOff a través de bots y canales sin supervisión adecuada. De acuerdo con Ars Technica, la aplicación de mensajería ya eliminó el bot vinculado a ClothOff y busca desvincularse del proceso judicial.

Un portavoz de Telegram declaró al diario The Wall Street Journal que “la pornografía no consensuada y las herramientas para crearla están explícitamente prohibidas por los términos de servicio de Telegram y se eliminan cuando se descubren”.

El caso ha reavivado el debate global sobre la urgencia de establecer leyes que regulen el uso de la inteligencia artificial y protejan la privacidad de las personas frente a la manipulación digital, especialmente en contextos de violencia sexual y abuso tecnológico.

Con información de Más Información.