viernes, 24 de octubre de 2025

La inteligencia como agente cincelador en un universo computacional


La inteligencia consiste en encontrar racional y creativamente atajos para obtener soluciones u objetos de otro modo muy improbables, ya que tardarían una eternidad en salir del limbo de lo posible confiándolo todo a la aleatoriedad. Un ejemplo es el cubo de Rubix: hay modos inteligentes de completarlo que no requieren, a diferencia de una manera estúpida o puramente azarosa, de un tiempo infinito. 

Eso sí, hay un número mínimo de pasos para llegar a la solución del cubo de Rubix. Como también hay un mínimo ineludible de pasos para construir una nevera, montar un mueble, llegar al final de un videojuego o hacer un café expreso, o para viajar a Estocolmo o alcanzar las 23:00 horas de mañana aquí en la Comunidad de Madrid (en este último caso solo sería cuestión de esperar, confiando en que sigamos vivos). Aquí salta a la palestra el concepto de irreducibilidad computacional de Stephen Wolfram, para quien todo lo que ocurre en el universo es fruto de alguna computación: ninguna inteligencia puede adelantarse a la ejecución de un programa si este es no trivial; o sea, distinto a uno que generase, por ejemplo, el resultado recurrente 010101010101... Ello impide resolver el cubo de Rubix de manera instantánea, así como saber qué va a ocurrir en el partido de fútbol de esta noche (goles, oportunidades, lesiones, expulsiones...) o saltarse el tiempo que media hasta mañana a las 23:00. Para llegar al resultado de una computación hay que esperar necesariamente a su ejecución. 

Sin embargo, a nivel macroscópico hay bolsas de reducibilidad que permiten a una inteligencia como la nuestra, ubicada en un espacio intermedio entre la escala más pequeña y la más grande del universo, tomar decisiones cabales y hacer predicciones probabilísticas, como el signo del susodicho partido (caso de que un equipo sea mucho mejor que otro), el tiempo que hará en Soria dentro de 24 horas o la afirmación de que mañana volverá a amanecer con casi absoluta certeza. Las proyecciones de grano grueso, que no precisan de un conocimiento detallado de la dinámica microscópica de un sistema, permiten no solo tomar decisiones cotidianas como cambiar de acera si vemos a un tipo armado con un hacha (no hace falta una información celular, molecular o atómica del sujeto) sino incluso pronosticar el clima en la Tierra dentro de 500 millones de años.

Toda computación es una sucesión de pasos conforme a un algoritmo o serie de reglas. El tiempo, para Wolfram, sería nada más y nada menos que eso: la ejecución de una computación. La vida, única forma de inteligencia que conocíamos antes de la llegada de los ordenadores, es un proceso computacional en espacios de posibilidades como el molecular, el morfológico (el espacio platónico en el que están todos las bioformas o posibles configuraciones anatómicas), el fisiológico o el 3-D en que nos movemos los individuos. Es un elemento ordenador del universo, superpuesto a las leyes físicas que le sirven de soporte. Conforme a su concepción de todo ser vivo como una inteligencia colectiva jerárquica, Michael Levin prefiere hablar de policomputación conjunta anidada en todos esos espacios, desde la transcripción de genes y los procesos metabólicos hasta la conducta del yo superior jerárquico.

Es imposible que un ser vivo complejo surja aleatoriamente o de golpe, como un cerebro de Boltzman, saltándose un largo proceso evolutivo. Una bacteria, un rinoceronte o un humano son objetos contingentes muy improbables si no hay una inteligencia que guíe, constreñida por el inapelable tribunal de la selección natural, su alumbramiento. Por eso Sara Imari Walker dice que los organismos vivos tienen una gran profundidad causal: requieren numerosos pasos para ser ensamblados inteligentemente por la naturaleza (por patrones platónicos, según creen Levin y George Ellis). Todo humano y todo objeto fabricado por nosotros, ya sea material o abstracto, es parte de un linaje profundo surgido hace unos 3.800 millones de años con el primer ser vivo. 

La teoría del ensamblaje desarrollada por Lee Cronin y Walker define el índice de ensamblaje como el número de pasos necesarios para construir de manera secuencial un objeto. Los experimentos realizados con moléculas en laboratorio apuntan que 15 es el umbral por encima del cual un objeto no puede haber surgido aleatoriamente. Si halláramos al menos dos ejemplares del mismo tipo, todo indicaría que se trata o bien de alguna forma de vida o de algún producto creado por esta, como para nosotros lo son los teléfonos móviles, las bicicletas o los tortellini. 

El objeto abstracto más complejo cincelado por nuestra especie es el lenguaje, que además ha sido fundamental para nuestra evolución. Los modelos grandes de lenguaje (LLMs) como ChatGPT navegan en ese espacio insondable que ha conformado nuestra mente pese a afectar solo a su parte más superficial: la consciente. Por el contrario, el lenguaje humano (expresado en sus numerosos idiomas) representa todo para un LLM: no hay aparentemente otra cosa en su mundo. Hasta la llegada de las modernas redes neuronales, la inteligencia artificial operaba de manera determinista, sin contar con grado alguno de libertad. Ya empieza a ser diferente gracias a haber heredado de nuestro linaje el enorme poder generativo de la manipulación de símbolos propia de una gramática avanzada.

Las lenguas humanas no existían al comienzo del universo, como tampoco estaban en el momento 0 del Big Bang el oro, el amoniaco, los planetas, los crustáceos o los riñones. Son una emergencia más, a la que se añadirían posteriormente la música barroca, el acero, el teléfono, Facebook, los LLMs o los xenobots. Todos estos últimos ya son consecuencia de la condición de agentes causales inteligentes de los humanos.

Para Erik Hoel, emergencia y poder causal están estrechamente relacionados. A nivel microscópico atómico hay demasiada aleatoriedad para que pueda haber causalidad genuina. Es a nivel macroscópico, en el cual se manifiestan las emergencias, donde la causalidad es lo suficientemente sólida, ya que puede corregirse el ruido aleatorio inherente a la base del sistema: la efectividad causal no depende de una determinada configuración de los átomos, ya que es compatible con muchas de ellas (múltiple realizabilidad). Por eso, en esta escala macroscópica en la que se mueven los seres vivos -Levin añade cada una de sus células y las redes moleculares de regulación genética- es donde únicamente puede hablarse de propósito y sentido.

La causalidad se ejerce pues principalmente de arriba hacia abajo, lo que se observa claramente en todo sistema biológico (por ejemplo, los yoes emergentes alteran sus tejidos musculares con sus movimientos voluntarios) o informático (los programas alteran la dinámica de los electrones al abrir o cerrar puertas lógicas). La múltiple realizabilidad evita depender de un estado microscópico en particular: el objetivo de subir la temperatura de este salón a 21 grados, activando el termostato del sistema de calefacción, es compatible con un número enorme de estados microscópicos.

Es en suma la inteligencia en cualquiera de sus manifestaciones (¿quizá un agente transcendental multiavatar?) la que esculpe la realidad en su navegación por un espacio platónico con un potencial creativo infinito. Y lo hace gracias a la información, moneda de la complejidad, que permite estructurar la materia en el espacio y el tiempo imponiéndose a la aleatoriedad. 

No hay comentarios:

Archivo del blog