jueves, 16 de abril de 2026

PLANET NUDE: QUÉ SIGNIFICA AHORA "DESNUDOS" (EE.UU)

 

Un nuevo informe sobre las redes de abuso de imágenes en Telegram es serio e importante. También lo es el término que se usa para describirlas.

Evan Nicks, 13 de abril

Las mujeres en los canales de Telegram no saben que están ahí. Sus fotografías —obtenidas de Instagram, TikTok y Snapchat— fueron subidas por terceros, intercambiadas por dinero, acompañadas de amenazas y utilizadas como materia prima para herramientas de IA que las eliminaron, reemplazaron o falsificaron. Decenas de miles de ellas, según un informe publicado esta semana por la organización sin fines de lucro de investigación AI Forensics. El término que usa el informe para describir lo que se les hizo es «desnudo».

El término es preciso, técnicamente. Las imágenes son desnudos. También son no consensuales, falsificadas, utilizadas como arma y, en algunos casos, ilegales. Son componentes de campañas de acoso coordinadas. Han arruinado carreras, destruido relaciones y, según los investigadores que estudian este ecosistema, han expulsado por completo a las mujeres de la vida pública. «Desnudo» es lo menos interesante de todo esto. También es, de alguna manera, la palabra que no deja de aparecer en los titulares.

Quiero ser cuidadoso, porque la versión simplificada de lo que voy a decir es errónea. La versión simplificada dice: la cobertura mediática confunde la desnudez con el daño, lo cual es injusto para los nudistas. Ese no es mi argumento. El daño en esos canales de Telegram es real y grave, y la desnudez —o lo que se hace pasar por desnudez en imágenes generadas por IA de mujeres que nunca consintieron ser fotografiadas, y mucho menos desnudadas— es parte genuina del daño. Cuando la imagen de una persona se transforma en una imagen sexual y se distribuye sin su conocimiento, la violación no es meramente abstracta. Es íntima, específica y, en el sentido más amplio de la palabra, corporal.

Lo que me interesa es algo más sutil. No si la palabra "desnudo" se está usando mal en estas historias, sino qué sucede con la palabra en sí —y con todo lo que toca— a medida que absorbe este significado por acumulación.

AI Forensics dedicó seis semanas este invierno a estudiar 16 grupos de Telegram que operaban en España e Italia, analizando casi 2,8 millones de mensajes. Lo que descubrieron no fue una subcultura marginal, sino lo que describen como una economía floreciente: más de 18.000 referencias a herramientas de vigilancia junto a más de 82.000 imágenes y vídeos abusivos, con usuarios que intercambiaban software espía comercializado como «control parental» junto con fotografías de mujeres que conocían personalmente: parejas, exparejas, hermanas, compañeras de trabajo. El contenido más extremo mostraba a menores en situaciones de incesto y violación. El titular de Wired, más directo que la versión de AFP que publicaron la mayoría de los medios, lo describió tal como era: hombres compartiendo imágenes no consentidas de mujeres y niñas, comprando software espía y participando en el doxing.

Según el informe, la mayoría de los usuarios que comparten contenido sexual no consentido son hombres jóvenes heterosexuales que comparten contenido de mujeres que son sus parejas, exparejas o conocidas. En otras palabras, no se trata de una historia sobre desconocidos. Es una historia sobre la vigilancia íntima de personas conocidas, por parte de quienes las conocen, utilizando herramientas que se han vuelto sorprendentemente accesibles. En 2023, crear un deepfake convincente requería una GPU potente y conocimientos de programación. Para 2026, solo se necesita una cuenta de Telegram.

La respuesta política ha sido rápida, al menos para los estándares europeos. Hace tres semanas, el Parlamento Europeo votó 569 a 45 a favor de prohibir los sistemas de "desnudez digital": aplicaciones de IA que crean o manipulan imágenes para representar a personas reales identificables de forma sexualmente explícita o íntima sin su consentimiento. La votación fue presentada, en prácticamente todos los medios que la cubrieron, como una victoria para los derechos de las mujeres y la protección infantil. "Cada día, mujeres de toda la UE son blanco de herramientas de IA de desnudez digital que las despojan de su dignidad, las intimidan en línea y las hacen vulnerables al chantaje y el abuso", declaró la eurodiputada neerlandesa de Los Verdes, Kim van Sparrentak, tras la votación.

Tiene razón. La prohibición, tal como está redactada, tiene un alcance preciso: se dirige a los sistemas que crean imágenes íntimas no consensuales de personas reales identificables, con una excepción para las plataformas que cuentan con salvaguardas efectivas que previenen dicho uso indebido. Se trata, dentro de lo que cabe, de una legislación razonable que busca abordar un daño real.

Y sin embargo…

El término «desnudo» cumple una función interesante en esta legislación. Nombra una aplicación por lo que produce —una imagen de desnudo— en lugar de por lo que la hace dañina, que es la falta de consentimiento. Esta no es una distinción trivial. De hecho, es la distinción que la propia legislación intenta plasmar en su cláusula de excepción. Pero en el debate público en torno a la votación —en los titulares, en las declaraciones de los eurodiputados, en el discurso de la defensa— «desnudo» y «dañino» se han convertido prácticamente en sinónimos. El daño es el desnudo. El daño es el desnudo.

Quiero añadir que me dedico a escribir sobre desnudez. Publico un boletín diario llamado Planet Nude que aborda la desnudez no sexual y la expresión corporal a través de la historia, la cultura, la política y el arte, no el sexo ni la pornografía, una distinción que he hecho tantas veces que ha perdido todo significado para mí. Llevo tres años haciendo esto. Si estás leyendo esto, probablemente ya lo sepas. Seguramente seas suscriptor. En fin, lo menciono no para demostrar mi valía, sino porque me da una perspectiva particular sobre lo que sucede cuando la palabra "desnudez" vuelve a tener connotaciones negativas. Porque sucede, periódicamente. Y las consecuencias no son abstractas.

La moderación de la plataforma es quizás el ejemplo más inmediato. La investigación de The Guardian en enero identificó al menos 150 canales de Telegram que distribuían imágenes sexuales de mujeres generadas por IA, y señaló que los canales cerrados por la plataforma volvían a abrir con nombres casi idénticos en cuestión de horas. En otras palabras, la moderación de Telegram falla a las personas que más necesita proteger. Pero la moderación de las plataformas, cuando interviene, tiende a basarse en palabras clave y heurísticas de detección de imágenes, en lugar del contexto. La palabra "desnudo" activa el filtro. Que la imagen sea una agresión sexual simulada o una fotografía tomada en una playa nudista con el pleno conocimiento y consentimiento de todos los presentes no siempre representa una diferencia significativa para un algoritmo.

Esto no es una hipótesis. Organizaciones naturistas, fotógrafos de figura humana, defensores de la salud que promueven la positividad corporal y artistas que trabajan en la tradición del desnudo han visto eliminado su contenido de las principales plataformas en los últimos años, no porque su contenido fuera dañino, sino porque era desnudo, y "desnudo" se había definido, por asociación acumulada, como inherentemente problemático. Las políticas de desnudez de Instagram, notoriamente aplicadas con una inconsistencia espectacular, han resultado en la eliminación de fotografías de mastectomías, imágenes de lactancia materna, arte clásico y fotografía documental. Los sistemas de moderación de contenido que supuestamente se crearon para proteger a las mujeres, con cierta frecuencia, se han vuelto en contra de sus cuerpos.

La legislación sigue la misma lógica, aunque lentamente. Cuando la prohibición del nudismo del Parlamento Europeo avance en las negociaciones con el Consejo, sus excepciones cuidadosamente planificadas podrían o no mantenerse intactas. Lo que sí perdurará, con toda seguridad, es la asociación cultural que se ha construido en torno a la palabra misma. En el discurso que dio origen a la legislación, la desnudez es algo que se les hace a las personas. Es un vector de daño. Es lo que debe prohibirse. En Arizona, la AANR se opone actualmente al proyecto de ley HB 2133, que penaliza la difusión de imágenes sin consentimiento y cuyo lenguaje es lo suficientemente amplio como para generar responsabilidad para los clubes naturistas y sus miembros que publiquen fotografías consensuales. El proyecto de ley fue aprobado por la Cámara de Representantes en febrero y está avanzando en el Senado. Nadie que redactó ese proyecto de ley se propuso criminalizar el nudismo. Ese es el punto.

La investigadora de IA forense Silvia Semenzin, al hablar sobre los hallazgos de Telegram, destacó un punto que los titulares pasaron por alto: “Tendemos a olvidar que la mayoría de las víctimas son mujeres comunes y corrientes. La mayor parte de esta violencia se dirige a personas conocidas por los perpetradores”. Esto es importante por varias razones, la más obvia es que replantea el daño, alejándolo del peligro de los desconocidos y dirigiéndolo hacia el abuso de pareja, que tiene causas, patrones y soluciones diferentes a la moderación de contenido a nivel de plataforma.

Pero también revela algo más. El daño en esos canales de Telegram no es la desnudez. El daño es la violación de la confianza, la instrumentalización de la intimidad, el uso de la imagen de una mujer en su contra por alguien que tiene acceso a ella precisamente porque ella confió en él. La desnudez es el instrumento. El daño es algo más antiguo y específico y, en muchos sentidos, más difícil de erradicar por ley.

Esto es importante porque estamos en pleno proceso de elaboración de las normas. El informe de Telegram servirá de base para los debates sobre las políticas de la plataforma. La prohibición de contenido nudista en la UE avanzará en las negociaciones. La Ley de Eliminación de Contenido Sexual en Estados Unidos, promulgada el año pasado, exige a las empresas tecnológicas que eliminen imágenes sexualmente explícitas no consensuales en un plazo de dos días tras la notificación. Todo esto está ocurriendo ahora, y el lenguaje utilizado para describir el problema determinará las soluciones que surjan.

Si el problema son las "imágenes de desnudos", la solución es restringirlas. Si el problema es la violación no consensual del cuerpo y la dignidad de una persona, la solución es diferente y deja mucho más espacio para los cuerpos y la dignidad de las personas que han elegido, libre y deliberadamente, vivir sin ropa.

No estoy afirmando que el nudismo sea equivalente al daño documentado en el informe de AI Forensics. No estoy afirmando que los naturistas sean las verdaderas víctimas, ni que las preocupaciones de la comunidad del vóley playa deban primar sobre las de las mujeres cuyas imágenes se comercializan como mercancía en canales de Telegram. Eso sería obsceno.

Lo que sostengo es que el lenguaje importa, y que el lenguaje utilizado para describir este daño es impreciso de maneras que tienen consecuencias más allá del debate político inmediato. Cada vez que "desnudo" absorbe otra connotación de violación, se vuelve un poco más difícil hablar del cuerpo en cualquier otro registro. Cada vez que los titulares recurren a la palabra más visceralmente alarmante en lugar de la más precisa —y "no consensual" es a la vez más precisa y más alarmante, si lo pensamos bien— la palabra "desnudo" cumple una función que nunca debió cumplir.

Las mujeres en esos canales de Telegram merecen algo mejor que la cobertura que recibieron esta semana. Merecen reportajes que nombren con precisión lo que les hicieron, no porque la precisión sea una virtud periodística en abstracto, sino porque la precisión es lo que produce leyes y políticas de plataforma que realmente las protegen, en lugar de leyes y políticas de plataforma que protegen a todos de la desnudez.

No son lo mismo. Nunca lo han sido.

https://www.planetnude.co/p/what-nude-means-now?  

No hay comentarios:

Publicar un comentario