Así era el fin del mundo: madres frente a la inteligencia artificial y los nativos patriarcales
Los magnates de las grandes tecnológicas piden regular la IA porque amenaza el futuro de la humanidad, mientras unas mujeres defienden a sus hijas de los daños que ya provoca hoy
“Inventar el velero es inventar el naufragio. Inventar el tren es inventar el accidente ferroviario por descarrilamiento”, escribía el filósofo Paul Virilio para expresar que todo desarrollo tecnológico genera, además de avances, sus propios accidentes. Mientras políticos, magnates y medios de comunicación todavía nos preguntamos qué es la inteligencia artificial (IA), un tren ha descarrilado en el patio de un instituto extremeño. “¿Puede ser el fin del mundo?”, refle...
“Inventar el velero es inventar el naufragio. Inventar el tren es inventar el accidente ferroviario por descarrilamiento”, escribía el filósofo Paul Virilio para expresar que todo desarrollo tecnológico genera, además de avances, sus propios accidentes. Mientras políticos, magnates y medios de comunicación todavía nos preguntamos qué es la inteligencia artificial (IA), un tren ha descarrilado en el patio de un instituto extremeño. “¿Puede ser el fin del mundo?”, reflexionamos, mientras la vida de varias niñas de Almendralejo quedaba al borde del precipicio, con sus falsos desnudos circulando de dispositivo en dispositivo.
Ha sido una coincidencia formidable la que hemos vivido. El mismo día en que la “realeza tecnológica” en pleno acudía encorbatada al Senado de EE UU para debatir sobre los peligros existenciales de las máquinas inteligentes, las madres de Almendralejo se organizaban contra la vileza que acosaba a sus hijas. Justo cuando los hombres más ricos del planeta pontificaban a puerta cerrada sobre el futuro de la humanidad, estas mujeres articulaban un grupo de autodefensa frente al accidente ferroviario que golpeaba sus vidas. Elon Musk (X), Sam Altman (OpenAI), Mark Zuckerberg (Meta), Satya Nadella (Microsoft) y Sundar Pichai (Google) se reunieron para regular la IA mirando al horizonte; sus consecuencias reales, dolorosas y tangibles están ya en los grupos de WhatsApp de una localidad pacense de poco más de 30.000 habitantes. De momento, que sepamos.
En los últimos meses, los desarrolladores de esta tecnología y los magnates que la impulsan han firmado cartas y manifiestos hablando de poner freno a los peligros de las máquinas pensantes. En ellas hablan de “mentes poderosas” fuera de control, de “cambio profundo en la historia de la vida en la Tierra”, de “riesgo de extinción” a la altura de las guerras nucleares. Ni una palabra sobre los millones de mujeres pornificadas contra su voluntad. Uno de los padres de esta ciencia, Geoffrey Hinton, abandonó Google para dedicarse a alertar de los riesgos abstractos de su creación; cuando le preguntaron por estos otros peligros tangibles, les restó importancia.
Pero el problema no es menor, ni tampoco es nuevo. En 2019, el Pleistoceno en términos tecnológicos, Barack Obama advertía del peligro que suponían para la democracia los deepfakes (recreaciones manipuladas de una persona real), que se habían popularizado precisamente con un vídeo falso en el que él mismo insultaba a Donald Trump. También ese año, los desarrolladores de la app Deepnude (juego de palabras con nude, desnudo en inglés) decidían sacarla del mercado, a pesar de que se estaban forrando después de generar cientos de miles de imágenes: “La probabilidad de que la gente haga un mal uso es demasiado alta. No queremos ganar dinero de esta manera”. Se trataba de un arrepentimiento forzado por la prensa, que había denunciado esa app “terrorífica que desnuda a una mujer en un solo clic”.
Parece poco creíble que no imaginaran, al desarrollar la herramienta, que se iba a usar para destrozarle la vida a mujeres. Entre el 90% y el 95% de todos los deepfakes son “porno no consentido” y el 90% afecta a mujeres, según un trabajo que realizó la compañía Sensity AI en 2019. Ya es llamativo que sea de ese año el último dato que tenemos, con todo lo que ha evolucionado este campo: en aquellos momentos las manipulaciones eran muy burdas, pero el realismo actual es atroz. Y lo es gracias en parte al desarrollo de modelos de IA generativa como Dall-E (de OpenAI, como ChatGPT), Midjournay y Stable Diffusion.
Paternalismo y servidores
Esta última, Stable Diffusion, apuesta por el código abierto, es decir, permite reusar libremente su arquitectura básica, lo que ha liberado al genio de la lámpara de los deepfakes que sexualizan a mujeres sin su consentimiento. La Red está inundada de foros en los que explican cómo aprovechar sus capacidades, de aplicaciones y canales en los que pornificar a mujeres, gratis o no. Emad Mostaque, responsable de esta empresa millonaria, tiene una respuesta para los críticos, según explicó al medio especializado TechCrunch: “Un porcentaje de personas son simplemente desagradables y raras, pero así es la humanidad. De hecho, creemos que esta tecnología prevalecerá, y la actitud paternalista y algo condescendiente de muchos aficionados a la IA es un error al no confiar en la sociedad”.
Sin embargo, su empresa mandó este mensaje a sus usuarios para defenderse de las críticas: “No generes nada que te avergonzaría mostrarle a tu madre”. Critica el paternalismo, pero usa el comodín de las madres, que bastante tienen con proteger a sus hijas frente a los desalmados. No es de extrañar que, por lo general, en todas las encuestas las mujeres recelen de las nuevas tecnologías mucho más que los hombres.
Pero esas herramientas dependen del músculo tecnológico de los grandes: Google (Pichai), Amazon (Jeff Bezos), X (Musk) y Microsoft (Nadela) poseen herramientas y plataformas que impulsan el reciente aumento de la pornografía deepfake, como denuncia Bloomberg: “Google, por ejemplo, es el principal impulsor de tráfico hacia sitios deepfake ampliamente utilizados, mientras que los usuarios de X, antes conocido como Twitter, hacen circular regularmente ese contenido. Amazon, Cloudflare y GitHub de Microsoft brindan servicios de alojamiento cruciales para estos sitios”.
Estos días ha coincidido otra tercera noticia: unos canteranos del Real Madrid que compartían vídeos sexuales de al menos dos chicas contra su voluntad. Quienes difundían los deepfakes en Almendralejo y estos aspirantes a futbolistas tienen al menos un par de cosas en común: la cosificación de las chicas que les rodean y la juventud. Supuestamente, se manejan a la perfección con herramientas tecnológicas porque son nativos digitales, un término que en los medios compramos durante años. Ahora ya nos consta que estas herramientas hay que aprender a usarlas, que nadie nace sabiendo wasapear, photoshopear o pornificar.
A toda esa generación, que tiene tecnologías en su mano que sus progenitores incluso desconocen, hay que enseñarles a usarlas y cómo usarlas: no solo qué botón apretar para editar una foto, sino qué comportamientos son tóxicos, indeseables, imperdonables. En línea y en persona. Los chavales viven en ese entorno tecnológico, pero no son nativos digitales, sino nativos patriarcales, por su cosificación y desprecio por las chicas. Hay que instruirles en el uso de las tecnologías y hacerlo implica enseñarles valores, humanidad y respeto a las mujeres. Educar a los críos que difunden estas imágenes, sí, pero también a quienes monetizan estas herramientas, desarrollan las apps y se lavan las manos con sus consecuencias cuando descarrila el tren y solo se lleva por delante a unas adolescentes.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.