Viaje a la caja negra de la inteligencia artificial
Con la IA sabes la información que le metes y la que te devuelve, pero la forma en que ha convertido la una en la otra está en la parte opaca del proceso
[Esta pieza es una versión de uno de los envíos de la newsletter semanal de Tendencias de EL PAÍS, que sale todos los martes. Si quiere suscribirse, puede hacerlo a través de este enlace].
En un viejo relato de Isaac Asimov, los científicos le preguntan al superordenador más avanzado de su tiempo: “¿Cómo revertir el aumento de entropía del universo?”. Ya sabes, veraneante lector, que la entropía mide el desorden de un sistema, y que la segunda ley de la termodinámica es una especie de maldición divina por la que la entropía está condenada a crecer para siempre, y, por lo tanto, el cosmos se acabará disipando en un perfecto desorden incompatible con la vida. Los científicos de Asimov querían impedir esa muerte térmica del universo y, como no sabían hacerlo, le preguntaron a la máquina. No hubo respuesta.
Pero pasaron los milenios y los billones de años, los científicos que hicieron la pregunta se habían extinguido como toda la vida que habitaba en la galaxia y, sin embargo, la máquina seguía computando y computando hasta que, ya en un universo helado, disperso y oscuro, encontró por fin la solución y dijo: “Hágase la luz”.
Imaginemos ahora que le preguntamos a la máquina cómo demonios ha hecho eso, y ella responde: “Mis razonamientos han sido tan largos y sofisticados que no encuentro una forma de explicárselos; en cierto modo, ni yo misma los entiendo”. La máquina tiene razón, porque, en cierto modo, nosotros tampoco entendemos nuestros propios pensamientos. La inmensa mayoría de nuestra actividad mental es inconsciente, y no tenemos ni idea de lo que todo ese enjambre de neuronas está haciendo mientras nosotros pensamos en otra cosa.
Lo mismo ocurre con la máquina. Los modelos grandes de lenguaje (large language models, LLM), como ChatGPT, Claude, Gemini y varios otros, no han averiguado cómo revertir la entropía del cosmos, pero han desconcertado a los expertos, incluidos sus propios creadores, por sus chocantes capacidades lingüísticas, bioquímicas y matemáticas.
Los científicos de la computación utilizan estos sistemas para escribir nuevos programas, y conocen muy bien sus grandes ventajas. AlphaFold, un sistema de Google DeepMind, predice de una tacada la estructura tridimensional de 200 millones de proteínas solo a partir de su secuencia, que es un texto. El uso de los LLM en los centros de investigación y los hospitales es ya una realidad y va a crecer como la espuma, por la sencilla razón de que funciona muy bien.
Pero no le preguntes a un LLM cómo ha alcanzado esos logros. No te responderá, porque ni él mismo lo sabe, igual que nosotros no sabemos de dónde vienen nuestras ideas. Por eso se dice que la inteligencia artificial (IA) es una caja negra: sabes la información que le metes y la que te devuelve, pero la forma en que ha convertido la una en la otra está en la parte opaca del proceso, la caja negra. No se trata de un complot de Silicon Valley, sino de una propiedad intrínseca del sistema. Nadie le ha preparado para explorar sus propias tripas y explicar sus estrategias.
Esto no es solo un problema académico —que lo es, y bien importante—, sino que va a afectar a cuestiones muy delicadas de la vida de todo el mundo. Las empresas utilizan cada vez más LLMs para seleccionar a sus empleados. Y para despedirlos. Algunos juzgados en Países Bajos y Estados Unidos los han usado para predecir si una persona con antecedentes va a volver a delinquir, o para sentenciar sobre los impagos a una empresa. Los médicos se apoyan en la IA para sus diagnósticos, y los bancos para decidir a quién conceden una hipoteca. Y la máquina no sabe explicar cómo ha tomado esas decisiones vitales. Una caja negra es justo lo contrario de la transparencia exigible a estas actividades.
Por fortuna, hay algunas investigaciones interesantes que pretenden echar un vistazo dentro de la caja negra, como un trabajo de Joshua Batson y sus colegas del MIT (Massachusetts Institute of Thechnology) y de Anthropic, una startup de inteligencia artificial. El título de su paper promete “extraer rasgos interpretables de Claude 3 Sonnet”, un LLM de la propia Anthropic.
Al igual que ocurre en nuestro cerebro, las expectativas más simples sobre su funcionamiento fracasan estrepitosamente. No tenemos una neurona que codifique una palabra, sino toda una red de ellas que establece conexiones tanto locales como de larga distancia. En Claude pasa igual, que no hay una neurona artificial que signifique una palabra, sino toda una red neural. Una neurona artificial es una pieza de código que procesa la información inspirándose en la neurona natural: con muchos inputs (dendritas) y un solo output (axón), y modificando la fuerza de esas conexiones según la experiencia. En este sentido, las neuronas artificiales resultan tan frustrantes como las naturales. No significan nada en sí mismas, solo son parte de una red que significa algo.
Por ejemplo, una sola palabra se asocia (dentro de Claude) a un enjambre de neuronas activas, y una sola neurona se activa por muchas palabras distintas. Pero los científicos de Anthropic han visto una forma de identificar grupos de neuronas activas muy pequeños, y han comprobado que se asocian con rasgos como una ciudad concreta, una persona, un animal, un elemento químico e incluso con conceptos de alto nivel como “secreto”. Han reconocido 34 millones de rasgos en su último trabajo. La caja negra no parece ser tan negra después de todo. Esto no ha hecho más que empezar.
Puedes apuntarte aquí para recibir la newsletter semanal de EL PAÍS Tendencias, que se publica los martes.