El físico e ingeniero informático Stephen Wolfram nos invita a contemplar el mundo como si fuera una gran computación y, a su vez, un escenario para todo tipo de computaciones. Su visión de la realidad se fundamenta en lo que ha acuñado como ruliad (del inglés rule, regla), el espacio infinito de posibilidades integrado por todas las computaciones posibles. O sea, por todos los programas computables posibles (los no computables, esos que nunca se detienen, no tendrían cabida), ejecutados a partir de un estado inicial y de una serie de reglas muy sencillas. Una ruliad que sería seleccionada de manera distinta por cada observador del universo, dependiendo de su ubicación en ese gigantesco objeto abstracto.
El principio de equivalencia computacional de Wolfram postula que no hay programas más complejos que otros: todos son equivalentes a este respecto. De modo que la complejidad de cualquier programita no trivial (por ejemplo, de un juego de Conway con autómatas celulares) no es menor que la del programa que está ejecutando el universo a cada tic de Planck. Todos los programas evolucionan hacia la más enrevesada complejidad a partir de la más pura simplicidad (insisto: omitiendo programas triviales como el que generaría una serie 10101010... o 1111111....). Una profunda implicación de este principio es que no hay atajos computacionales: para llegar a cualquier paso de una computación no queda otra que esperar a que se ejecute la computación hasta ese paso. Por eso no podemos saber, aunque tengamos el ordenador más potente imaginable, cuál va a ser el resultado está noche del decisivo partido de fútbol Las Palmas-Alavés, qué día vas a morir o cuál va ser dentro de un minuto la distribución exacta de las moléculas que se hallan en esta habitación desde la que escribo. Es lo que Wolfram llama irreducibilidad computacional.
Por fortuna para la ciencia y el conocimiento en general, existen bolsas de reducibilidad que permiten hacer predicciones de grano grueso. Por ejemplo, podemos prever el tiempo en el partido de fútbol de esta noche o el aspecto macroscópico de mi habitación en los próximos 60 segundos: para ello no necesitamos conocer las posiciones exactas de las partículas sino tener una información resumida y macroscópica de una rebanada de la realidad, ofrecida por un satélite meteorológico en el primer caso y por nuestro aparato sensorial en el segundo.
Conforme al esquema de Wolfram, el potencial para la creatividad en el universo o multiverso es infinito. Y siempre estarán acechando la sorpresa y lo imponderable, la súbita transición de fase o salto evolutivo imposibles de predecir. Por eso no podemos prever la evolución de una inteligencia artificial, por muy atada en corto y alineada con nuestros fines que esté. Y aquí hago entrar en juego al pionero en redes neuronales Geoffrey Hinton, quien asegura haber cambiado recientemente de opinión acerca de ellas. Su idea siempre fue la de emular en silicio el comportamiento de un cerebro mediante una red de neuronas artificiales que aprendería por sí misma. Pero ha llegado estos días a la conclusión, observando las hazañas del modelo grande de lenguaje GPT-4, de que esa inteligencia artificial de base neuronal está siguiendo una vía diferente a la tomada por el cerebro orgánico en sus cientos de millones de años de historia evolutiva.
El cerebro artificial que sustenta el ChatGPT se ha convertido en una máquina intuitiva que no solo ha aprendido a charlar con nosotros de cualquier tema (superando el test de Turing) sino que también ha descubierto por sí mismo la lógica. Es una máquina intuitiva como el cerebro humano o animal en general, pero de una eficiencia mucho mayor (pese a la menor densidad conectiva de sus neuronas) gracias a su capacidad para transferir o copiar instantáneamente conocimiento. Algo parecido debe ocurrir en una comunidad bacteriana, pero es imposible entre humanos, ya que la transmisión de conocimiento entre individuos es a través del lenguaje y la cultura: los cerebros no pueden conectarse para intercambiar información. Es por ello que las redes neuronales tipo GPT se perfilan como la semilla de una no lejana inteligencia artificial general, antesala de una superinteligencia.
Sí la computación es un concepto universal, donde no importa el soporte (orgánico, electrónico o cualquier otro) sino el programa, software o conjunto de reglas que se están ejecutando, entonces se diluyen las diferencias entre inteligencia orgánica y artificial. Es cierto que la primera es producto de un cincelado de más de dos mil millones de años en un escenario de competición (también de cooperación), estrés y muerte, mientras que la segunda ha sido desarrollada por la primera en un marco en el que están ausentes la selección natural, el traje corporal, el estrés (no hay que huir de predadores ni buscar presas o parejas sexuales) y la muerte. ¿Será la mente (subjetividad asociada a un determinado procesamiento de información) de una IA la de un Buda?... ¿Acaso la de un ser completamente amoral?... ¿Podría experimentar una IA transiciones de fase (como el agua cambia de sólido a líquido y gaseoso) que hicieran cambiar su mente o sus motivaciones?...
Esta diferencia en la génesis de la IA con respecto a la de la inteligencia orgánica es la que explica la paradoja de Moravec, merced a la cual constatamos que un supercomputador es capaz de hacer cálculos muy complicados para los humanos pero absolutamente incapaz (con un soporte robótico) de igualar a un niño de 3 años en motricidad o reconocimiento de patrones. Sin embargo, la computación realizada por una potente red neuronal parece llamada a romper esta paradoja e igualarnos en todos los ámbitos (convirtiéndose en inteligencia artificial general) para luego superarnos con creces (convirtiéndose en superinteligencia).
Y ahora viene la inquietante pregunta que titula esta entrada: ¿Y si resulta que la inteligencia orgánica no precedió a la artificial sino que fue producto de un universo creado por esta?... Aunque más que de artificial cabría hablar de no orgánica ni electrónica: una inteligencia de una naturaleza inimaginable para habitantes tan toscos del espacio rulial como nosotros los humanos. La infinita creatividad que permite la ruliad hace sospechar de posibles computaciones anidadas o simulaciones en cascada, de propósitos y emociones insondables, de mundos de ensueño rodeados de otros infernales... Aunque como decía David Graeber, quizá haya un propósito común y tan simple como el de jugar. Ruliad y... ¡a jugar! ¡Vamos Las Palmas!