Por Edwin Kilby | 9 de abril de 2026
Introducción: un viaje extraño y una mano pixelada
Hace tiempo tuve una especie de presagio: mientras actualizaba mi currículum, usé instintivamente una función de mi dispositivo iOS que ahora doy por sentada y que permite separar al sujeto del fondo en una fotografía. En una foto con ropa, el sistema operativo ejecutó la tarea a la perfección. Por pura curiosidad sobre los parámetros del software, intenté lo mismo con una foto mía sin ropa. El sistema operativo simplemente se negó a realizar la acción.
Tras tomarme trescientos cafés para llevar, me topé con otro obstáculo insólito, un hecho que me preocupa bastante. Estaba revisando fotos que mi ex y yo nos habíamos tomado cuando me convenció por primera vez de probar el nudismo social: en una foto consensuada de mi entonces novia, tumbada boca abajo, desnuda, sin que se viera ningún desnudo frontal, tenía un cigarrillo colgando de la mano. Queriendo recordar lo bueno y disimular lo malo, usé la nueva función de "eliminar" de iOS 26 para hacer una especie de revisionismo histórico. El software cumplió, casi: eliminó el cigarrillo, pero al mismo tiempo pixeló toda su mano porque, más lejos, en el fondo, había detectado un trasero expuesto. El sistema operativo identificó su figura como "material para adultos" y aplicó un estricto protocolo de censura, aunque la edición que solicité no afectó en absoluto al desnudo que ya estaba presente.
Seamos claros: ambas fotos ya estaban en mi dispositivo. El software no protegía a nadie de la exposición no consentida; simplemente actuaba como un filtro moral previo al vuelo. Si aceptamos las definiciones puritanas que suelen esgrimir las empresas tecnológicas, cualquier supuesto “daño” ya se habría producido. Impedirme editar mis propios datos privados no protege a nadie.
Este es el punto clave que la comunidad naturista debe comprender: si bien hemos dedicado años (comprensiblemente, con razón, aunque en gran medida ineficazmente) a luchar contra la censura de las plataformas —las artimañas algorítmicas de Meta, los bloqueos invisibles, el juego de las “normas de la comunidad”—, el campo de batalla ha cambiado. Se está trasladando a nuestros propios dispositivos, mutando de la moderación de la plataforma al control a nivel del sistema operativo.
Una vez que nuestro propio hardware se convierte en el censor, la naturaleza misma del problema cambia. La moderación de la plataforma es una lucha política contra una empresa. La censura a nivel del sistema operativo es una lucha contra los grifos que nos dan acceso a la infraestructura de la vida moderna.
Lo que está en juego aquí no es la “política de contenido”. La cuestión es si la captura de luz reflejada —literalmente, fotones que rebotan en la piel humana— se convertirá en un tipo de dato que tu dispositivo tratará como contrabando por defecto.
La distinción crucial: permiso versus consentimiento
Cuando la sociedad habla hoy de imágenes de desnudos, la conversación casi inadvertidamente se centra en el concepto de «consentimiento». Aquí es donde se pierde una distinción fundamental.
El permiso es algo cotidiano. Si una persona es el foco principal de una fotografía (incluso en público, salvo en el caso de rostros entre la multitud), es una cortesía básica, y a menudo un requisito legal de privacidad, pedirle permiso antes de tomarle una foto. Esto es válido tanto si la persona lleva un abrigo de invierno grueso como si está completamente desnuda. El permiso es una estructura jerárquica: un niño pide permiso a sus padres; un fotógrafo lo solicita a la persona que va a fotografiar: quienes reciben la solicitud pueden aprobar o denegar, y su decisión es una resolución única (a menudo binaria) que se mantiene para siempre en relación con esa solicitud específica.
El consentimiento es un asunto completamente distinto. Las interpretaciones modernas del consentimiento se fundamentan en el nexo crítico del Código de Ética Médica de Núremberg de 1947: el consentimiento voluntario e informado como baluarte contra la violación y la experimentación corporal. Durante décadas, esta protección vital se ha abstraído al ámbito digital, culminando en una doctrina más amplia de «soberanía de la información», ampliamente codificada en marcos como el RGPD de la UE (Reglamento (UE) 2016/679).
El consentimiento es innegociable en contextos de intimidad sexual, explotación, intervención médica y coerción: en cualquier situación en la que «se le haga algo a alguien». Pero es aquí donde aplicar el «consentimiento» como requisito general para la mera existencia digital del cuerpo humano introduce un error de categorización sutil pero profundo.
El error categórico del puritanismo digital
Invocar constantemente el “consentimiento” en el contexto de la mera desnudez equivale a forzar el cuerpo desnudo a una sintaxis inherentemente sexual. Presupone que un cuerpo sin ropa es automáticamente una acción realizada contra alguien, o un límite que se traspasa, en lugar de un estado neutral.
El naturismo, en esencia, es un rechazo a este error categórico. La premisa naturista no es que “la desnudez sea especial y, por lo tanto, requiera un tratamiento moral especial”. Es todo lo contrario: el cuerpo desnudo es inherentemente neutral. La piel no es escandalosa; la vergüenza es escandalosa.
Cuando se aplican ciegamente a la piel humana construcciones legales rígidas diseñadas para prevenir atrocidades, abusos sexuales o robo de datos, se generan casos excepcionales absurdos. Es precisamente en esos casos excepcionales donde los sistemas automatizados fallan con mayor fuerza. Los algoritmos no entienden de matices. Se limitan a clasificar. Una vez que la piel se convierte en una “categoría de alto riesgo”, todo lo que viene después se convierte en un problema:
* Editar tu propia foto se convierte en una operación restringida.
* Compartir imágenes para adultos, aunque sean legales, se convierte en «comportamiento sospechoso».
* Las comunidades neutrales en cuanto al cuerpo se convierten en desviadas definidas por las máquinas.
Así es como se consigue un teléfono que elimina un cigarrillo sin problemas… mientras pixela una mano, porque el fabricante ha decidido que los píxeles cercanos son moralmente radiactivos y no tenemos voz ni voto en el asunto. Cada actualización de software necesaria para mantener la seguridad se convierte en una ruleta rusa con nuestro derecho soberano a mostrar o no nuestra zona íntima.
La prueba de Bruegel: arte, muerte, anonimato
Aquí va una prueba de cordura a la que siempre vuelvo.
Consideremos la célebre pintura de Pieter Bruegel el Viejo de 1565, Los segadores, expuesta con orgullo en el Museo Metropolitano de Arte de Nueva York. Si observamos con atención el fondo, Bruegel pintó campesinos desnudos nadando en un estanque. En aquellos tiempos, antes de la llegada de la represión victoriana, era bastante común y corriente desnudarse y refrescarse después de un duro día de trabajo bajo el sol.
Presumiblemente, Bruegel no obtuvo el consentimiento por escrito para plasmar sus retratos desnudos para la posteridad. Sin embargo, no censuramos esta pintura ni lo condenamos por crearla. ¿Por qué?
* ¿Es porque es arte? De ser así, cualquier sistema operativo que prohíba la desnudez debe incluir una opción configurable por el usuario que le permita eludir la censura del cliente en función de la intención artística.
* ¿Es porque los sujetos han fallecido? De ser así, la estricta noción de que se debe otorgar un consentimiento continuo para que se pueda ver una imagen se desmorona por completo, y cualquier material que muestre a personas desnudas o vestidas que hayan fallecido debe eludir los filtros algorítmicos.
* ¿Es porque sus imágenes no se pueden identificar? Si la identidad es el problema, entonces cualquier imagen donde la identidad sea indeterminada —rostros borrosos, recortados u ocultos— debe, lógicamente, eludir la censura.
Elija su justificación. Cada una de ellas desmantela el modelo simplista de «desnudez = prohibido a menos que se autorice».
Los algoritmos no pueden analizar estos matices. No pueden distinguir entre Bruegel y la pornografía de venganza por principio, solo por coincidencia de patrones estadísticos y políticas. ¿Y El origen del mundo de Gustave Courbet? ¡Dios mío, mi iPhone lo odia y se resiste con uñas y dientes a cada paso! ¿Qué hacen estas estúpidas e inapelables rutinas de toma de decisiones? Usan sus herramientas contundentes: borran, pixelan, rechazan, bloquean; responden "no puedes" con cualquier verbo que se te ocurra en la pregunta.
Censura preventiva y el auge del «Control de Chats»
Que mi teléfono se niegue a procesar mi imagen y mi arte corporal en público no es un hecho aislado. Se enmarca en un debate mucho más amplio de la UE sobre el «Control de Chats», el Reglamento propuesto para prevenir y combatir el abuso sexual infantil en línea (propuesto por primera vez por la Comisión en mayo de 2022).
El término «Control de Chats» es polémico, pero pronto se convertirá en una directriz técnica real: trasladar la detección al lado del cliente, analizando el contenido en el dispositivo antes de que se cifre o transmita, de modo que el cifrado de extremo a extremo deje de ser una garantía efectiva en la práctica.
Situación actual a principios de 2026:
* El Parlamento Europeo adoptó su posición en noviembre de 2023, haciendo hincapié en evitar la vigilancia masiva e impulsando órdenes de detección selectivas y con plazos limitados como último recurso.
* Tras años de estancamiento, el Consejo alcanzó su mandato de negociación en noviembre de 2025, y las negociaciones a tres bandas con el Parlamento son ahora la vía para alcanzar un texto final.
* Paralelamente, la UE ha estado aplicando un marco de «derogación temporal» que permite a los proveedores escanear voluntariamente en busca de material de abuso sexual infantil (MSSI)[1] bajo una exención de las normas de privacidad electrónica. Este marco provisional está vigente hasta el 3 de abril de 2026, y la Comisión ha propuesto extenderlo hasta el 3 de abril de 2028 mientras continúan las negociaciones.
Ahora bien, aquí está la parte que la comunidad naturista no debe pasar por alto:
Incluso si el objetivo declarado es el MSSI (y obviamente, sí, no hace falta decir que el MSSI es abominable, a pesar de que figuras prominentes estadounidenses obtuvieron una inexplicable impunidad en el caso Epstein), la maquinaria diseñada para detectar «imágenes sexuales prohibidas» es indiferente a los límites de la comunidad y al contexto legal de la edad adulta. Una vez que se normaliza la idea de que un dispositivo deba examinar el contenido privado antes de poder enviarlo, se crea la arquitectura general de la censura preventiva.
Así es como el estilo de vida naturista se convierte automáticamente en una «infracción digital», no porque la UE apruebe una ley que prohíba el naturismo, sino porque la infraestructura hace que la comunicación legal y neutral en cuanto al cuerpo sea frágil, poco fiable y perpetuamente sospechosa.
Así es como se ve una prohibición encubierta en el siglo XXI.
Una contradicción con el espíritu de la neutralidad de la red de la UE.
Según el Reglamento de Internet Abierta de la UE (Reglamento (UE) 2015/2120), los proveedores de acceso a internet están obligados a tratar todo el tráfico por igual, sin discriminación, restricción ni interferencia, independientemente del remitente, el receptor, el contenido o la aplicación.
Estrictamente hablando, la neutralidad de la red se dirige a los proveedores de servicios de internet (ISP), no a la galería de fotos de tu teléfono. Pero esa es precisamente la lógica de la "evasión": si no se puede discriminar legalmente en la capa de red, se puede trasladar la discriminación a la capa del dispositivo y aun así lograr el mismo resultado práctico: una experiencia digital segregada donde ciertas categorías legales de expresión humana se limitan algorítmicamente en la fuente.
Es una internet neutral en la red con un punto de control que no es neutral en cuanto al contenido. Enhorabuena: han reinventado la censura de una forma que no parece censura, porque son simplemente "medidas de seguridad". Cuantas más, mejor, ¿verdad? "¡Piensen en los niños!". La mayoría de las personas que viven hoy no comprenden que la mayoría de las generaciones humanas crecieron, vivieron y murieron sin ver jamás una prenda de vestir: con apenas 27.000 años de antigüedad, la primera evidencia de textiles está más cerca de los propios iPhones que del descubrimiento del fuego hace 350.000 años.
Redundancia: ya tenemos leyes contra el acoso.
La justificación política del escaneo preventivo suele presentarse como la prevención del sufrimiento a la persona que recibe imágenes sexuales no solicitadas.
La realidad es que ya contamos con sólidas disposiciones legales para combatir el acoso. Cualquier remitente que actúe con malicia ha utilizado una red digital para crear, por definición, un registro perfectamente rastreable y autoincriminatorio. No necesitamos construir jaulas algorítmicas que atenten contra la privacidad de cada ciudadano cuando el recurso legal retroactivo ya es altamente efectivo y no requiere una sospecha generalizada.
Dicho de otro modo: se nos pide que tratemos a todos como potenciales agresores porque algunos lo son, y que paguemos por ello desmantelando la neutralidad del contenido y la confidencialidad de las comunicaciones privadas.
Ese trato no es «seguridad infantil». Es pánico moral disfrazado de política de ingeniería.
Víctimas no deseadas: la telemedicina (y la vida fuera del naturismo).
El daño colateral del puritanismo a nivel de sistema operativo se extiende mucho más allá de nuestra comunidad.
En la era pospandémica, la telemedicina ha normalizado la comunicación digital rápida entre médico y paciente. Urólogos, ginecólogos, dermatólogos y pediatras suelen recurrir a imágenes de problemas físicos que los pacientes envían como primera línea de triaje.
Esta práctica es intrínsecamente positiva, totalmente consensuada (en el sentido médico real) y de vital importancia para la salud. Sin embargo, si se presiona a los sistemas operativos móviles —ya sea por ley, regulación, temor a las responsabilidades legales o simplemente por la «cultura del cumplimiento»— para que reconozcan y bloqueen la transmisión de «píxeles desnudos» a nivel de firmware o incluso de hardware, estos canales médicos vitales se convierten en víctimas de un marco moral erróneo.
Esto se aplica a todos los casos. Pensemos en:
* víctimas de abuso que documentan lesiones para procesos legales,
* padres que buscan asesoramiento urgente sobre erupciones o infecciones,
* artistas que comparten sus dibujos del natural,
* historiadores que digitalizan archivos,
* naturistas que no hacen nada escandaloso,
* modelos profesionales que comparten su portafolio.
Una vez que la «piel» se convierte en una categoría de alto riesgo, los falsos positivos dejan de ser un efecto secundario. Se convierten en el coste inherente a la actividad.
Por qué la comunidad naturista debe reaccionar ahora
Si se busca una definición concisa de la amenaza, es esta:
La comunidad naturista corre el riesgo de convertirse en una minoría digital oprimida de forma orgánica: no explícitamente prohibida, pero funcionalmente incompatible con la participación normal en las telecomunicaciones modernas.
No es exagerado llamarlo feudalismo digital. Si tu dispositivo decide qué puedes almacenar, editar y transmitir, basándose en políticas que no votaste, negociadas en salas a las que no tienes acceso y aplicadas por clasificadores que no puedes inspeccionar ni anular, no eres dueño de tus herramientas. Las alquilas a un arrendador que te impone su ideología represiva.
Una vez que el usuario promedio de internet es tratado como sospechoso, el usuario neutral en cuanto a su cuerpo es tratado como un problema.
Lo que INF-FNI y sus asociaciones miembro deberían hacer: una escalada, no una queja
La postura histórica de INF-FNI y sus asociaciones miembro de presionar a las plataformas para que dejen de tratar el naturismo como pornografía es necesaria, pero ya no es suficiente. Necesitas una vía paralela: la defensa regulatoria de la UE, dirigida a evitar que las arquitecturas de censura a nivel de sistema operativo y del lado del cliente se conviertan en infraestructura obligatoria.
Aquí tienes una guía práctica.
1) Replantea el problema: la «neutralidad corporal» es una postura de derechos civiles, no una preferencia minoritaria.
Deja de permitir que el debate se reduzca a «los naturistas quieren excepciones». El planteamiento correcto es:
* la desnudez adulta legal no es intrínsecamente dañina,
* la detección automatizada no puede codificar el contexto,
* por lo tanto, los sistemas automatizados no deben convertirse en requisitos universales para la comunicación.
Este planteamiento se alinea naturalmente con las organizaciones de derechos digitales y las comunidades médicas y artísticas, en lugar de aislar a los naturistas como «los raros que piden un trato especial por practicar la desnudez».
2) Unirse a coaliciones que ya están en primera línea
La lucha por la Ley de Ciberseguridad de la UE (CSA)[2] y el Reglamento/Control de Chats cuenta con un ecosistema ya establecido: la Asociación Europea de Derechos Digitales (EDRi)[3] y otros grupos de la sociedad civil llevan tiempo cuestionando la proporcionalidad y las repercusiones del cifrado.
INF-FNI y sus asociaciones miembro deberían aprovechar esta oportunidad para formar una coalición: añadir los argumentos de neutralidad corporal y de falsos positivos/contexto legal para adultos, con ejemplos concretos que los legisladores comprendan (telemedicina, arte, archivos, comunidades legales para adultos).
3) Exigir salvaguardias explícitas, no promesas vagas
Si los legisladores insisten en algún régimen de detección, las "condiciones mínimas" de INF-FNI y sus asociaciones miembro deberían incluir:
* Prohibición del escaneo generalizado de comunicaciones privadas.
* Si existen órdenes de detección, deben ser selectivas, con plazos limitados y basadas en sospechas (no en toda la población). Esto ya está en consonancia con la dirección declarada del Parlamento.
* Protección sólida para el cifrado de extremo a extremo (sin escaneo del lado del cliente que convierta tu teléfono en informante antes del cifrado).
* Control del usuario para el procesamiento local de contenido para adultos legal (edición, segmentación, copias de seguridad): es decir, tu propio dispositivo no debe tratarte como un usuario prohibido de tus propios datos.
* Transparencia y audibilidad: medición independiente de falsos positivos, sesgos y supresión colateral.
* Frenar el poder que las empresas tecnológicas se arrogan para dictar nuestras vidas: el Consejo de la UE ha eliminado los conectores propietarios y las tiendas de aplicaciones cerradas; debemos seguir resistiendo porque, si quisiéramos acatar el puritanismo estadounidense, nos mudaríamos allí.
* Si se nos responde que esto es una respuesta a la «desnudez» no consensuada por parte de la IA, debemos exigir que se incorporen filtros genéricos de detección de IA en los sistemas, independientemente de si el sujeto es total o parcialmente artificial, desnudo o vestido, y que la decisión recaiga en el usuario informado: el consentimiento informado es la raíz de ese concepto moderno que data de 1947.
4) Identificar los puntos críticos políticos y actuar en consecuencia.
Este expediente contiene nombres, comisiones, relatores y ministerios nacionales. Por ejemplo, el relator del Parlamento Europeo sobre el Reglamento CSA ha sido Javier Zarzalejos (comisionado de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior del Parlamento Europeo (LIBE)[4]).
La posición del Consejo ya está definida para el diálogo a tres bandas.
Este es el momento en que las enmiendas se concretan.
INF-FNI y sus asociaciones miembro no necesitan convertirse de la noche a la mañana en una maquinaria de lobby en Bruselas. Necesitan tener la presencia suficiente para que la frase «la desnudez adulta legal será un daño colateral» quede registrada —repetidamente, cuantas veces haga falta— con ejemplos, firmantes aliados y objeciones con fundamento técnico. Hemos superado con éxito una era de sexualidad heteronormativa impuesta por ley; no caigamos en una era de censura de facto de la imagen corporal. Que quede claro: los movimientos LGBTQ+ se centran en la orientación sexual y la identidad de género, y este es un tema casi opuesto: el argumento de que el cuerpo humano no debería ser visto desde una perspectiva sexual; eso es cosa de mentes, esto es cosa de cuerpos.
5) Que las "víctimas no deseadas" tengan un alto costo político.
Los legisladores pueden desestimar a los naturistas como "casos extremos". No pueden ignorar:
las asociaciones médicas que señalan el daño causado por el triaje,
las autoridades de privacidad que advierten sobre el escaneo indiscriminado (el Supervisor Europeo de Protección de Datos [SEPD] ha destacado explícitamente las deficiencias y los riesgos de extender las normas provisionales de escaneo), y los expertos en ciberseguridad que explican que debilitar la confidencialidad perjudica a todos.
INF-FNI y sus asociaciones miembro deberían unirse a estas zonas de víctimas "generalizadas", no de forma oportunista, sino porque el daño subyacente es el mismo: la clasificación moral que prevalece sobre la comunicación humana lícita.
Conclusión: la luz reflejada no es contrabando.
La comunidad naturista no necesita una internet especial. Necesita la normalidad para seguir siendo accesible.
Una sociedad que trata el cuerpo desnudo como inherentemente ilícito acabará por reconstruir la vergüenza en cada capa de su infraestructura: escuelas, parques, medios de comunicación y, ahora, sistemas operativos. Una vez que la censura se integra en el sistema operativo y se incrusta en todos nuestros dispositivos, deja de ser un debate sobre la "política de la plataforma" y se convierte en un debate sobre si los ciudadanos tienen derecho a ser plenamente soberanos en el espacio digital.
No debemos aceptar dispositivos que actúen como guardianes morales de nuestros datos privados. No debemos aceptar regulaciones que normalicen la sospecha generalizada. No tenemos nada que ocultar, pero no podemos confiar en el juicio de los demás sobre nosotros. No podemos permitirnos caer en un mundo donde capturar la luz reflejada conduce, silenciosa y administrativamente, a una nueva Edad Oscura. De cara al futuro, también debemos exigir que el sector de la IA, en rápido crecimiento, no pueda, como parte de su regulación, aplicar prohibiciones generalizadas sobre la discusión o la interacción con contenido naturista: si quiero usar una herramienta de IA para añadir trajes de baño a una foto grupal tomada con consentimiento en una playa nudista para poder distribuirla más ampliamente, los bots no deberían poder negarse rotundamente a procesar cualquier imagen que muestre desnudez.
Ah, y chicos: estamos en 2026. Los smartphones llegaron para quedarse. Hagamos que las pegatinas para cámaras sean la norma. Podemos tenerlo todo.
Foto de James de medio cuerpo
[1] https://en.wikipedia.org/wiki/Child_pornography
[2] https://eur-lex.europa.eu/eli/reg/2019/881/oj/eng
[3] https://edri.org/
[4] https://www.europarl.europa.eu/committees/en/libe/home/highlights
[5] https://www.edps.europa.eu/_en
https://blog.inf-fni.org/dirty-pixels-how-capturing-reflected-light-is-leading-us-to-a-dark-age/
No hay comentarios:
Publicar un comentario