2023 entrará en los libros de historia como el año en que un programa informático (el chatbot ChatGPT, basado en el modelo grande de lenguaje GPT-4) superó el test de Turing: o sea, se hizo indistinguible de un interlocutor humano adulto en una conversación. Creo que no somos aún plenamente conscientes de las enormes implicaciones de este hito. No es el caso de algunos expertos en el campo de la inteligencia artificial, como Max Tegmark, que ya han alertado de unos riesgos que pueden ser existenciales y pedido en una carta pública una pausa de seis meses en su desarrollo.
Sam Altman, CEO de OpenAI (corporación creadora de este modelo de lenguaje basado en redes neuronales), subraya en una reciente entrevista con Lex Fridman que GPT-4 es solo una herramienta, pero reconoce al mismo tiempo que no le sorprendería que un futuro GPT-10 llegara a convertirse en una inteligencia artificial general o superinteligencia (no limitada a labores muy concretas, como jugar al ajedrez o el Go, o a mantener conversaciones con humanos). Lo cierto es que conocemos bien la ciencia detrás de la creación y preparación de una red neuronal como la de OpenAI, pero ni Altman ni nadie sabe lo que pasa en su interior una vez ha empezado a aprender por sí misma. Podríamos estar lidiando con un fenómeno emergente, fruto de la complejidad. "Hay un aspecto de esto que todos los que trabajamos en este campo llamamos caja negra, algo que no entiendes del todo", confesaba en la CBS Sundar Pichai, director general de Google (cuyo modelo de lenguaje Bard acaba de aprender sorpresivamente bengalí por su cuenta), al tiempo de recordarnos que tampoco entendemos del todo cómo funciona la mente humana.
El pionero en redes neuronales Geoffrey Hinton aseguraba también en la CBS que en los años 80 suscitaba carcajadas sugerir que un mecanismo de esa naturaleza, inspirado en el modo de funcionamiento del cerebro (con su intrincada red de conexiones neuronales), pudiese llegar tan lejos como el GPT-4 aprendiendo por sí mismo mediante la identificación de patrones y la autoconfiguración de nuevas conexiones. Pero quien ríe último ríe mejor. La victoria a largo plazo de los modelos neuronales sobre la informática convencional (programación basada en reglas explícitas, con la manipulación de símbolos) estriba sobre todo en dos factores: el gran crecimiento en la capacidad de computación y el acceso a una enorme cantidad de datos, prácticamente toda la información contenida en Internet y más aún. Parece ahora claro que la inteligencia artificial general llegará (y mucho no tardará, hay quien incluso apuesta que será cuestión de pocos años) por esa senda tan injustamente despreciada hace cuatro décadas. Y empieza a avizorarse esa inquietante singularidad tecnológica (fusión de IA, cerebros humanos e Internet) cuyo advenimiento Ray Kurzweil fechó para 2045.
Quienes sostienen que una red neuronal podría llegar a ser consciente (lo que ni Altman ni Hinton se atreven a descartar) son frecuentemente tachados de aplicar a la realidad conceptos estrictamente humanos. Pero los que lanzan esa acusación pecan de antropocentrismo al considerar que la consciencia es un atributo exclusivamente humano y acaso animal. El científico Michael Lavin, que trabaja en la intersección entre biología, bioingeniería, neurociencia y ciencias de la computación, define la cognición en su teoría TAME como los procesos computacionales que median entre la percepción y la acción de un agente biologico. La cognición, que podríamos identificar con la mente/consciencia y con un yo (el que hace la computación), se extendería a lo largo de un continuo desde lo más elemental a nivel biológico: una célula. Ahora bien, el soporte de esa cognición no tendría que ser necesariamente biológico: no habría así tantas diferencias entre un software o máquina artificial (producida por una inteligencia biológica) y una máquina biológica (producida por la selección natural), sobre las que regirían ciertos principios generales. Por eso TAME son las siglas en inglés de Technological Approach to Mind Everywhere.
Desde una óptica computacional, hay un fuerte aroma a pampsiquismo en TAME. Al igual que en la teoría de la información integrada de Giulio Tononi y Christof Koch, para quienes podría haber consciencia no solo en las células sino incluso más abajo en la escala física hasta llegar a las partículas elementales (siempre y cuando un objeto o sistema sea capaz de integrar información). La diferencia es que Tononi y Koch niegan consciencia a un ordenador al carecer de poder causal: la capacidad de generar información nueva y afectar a su propio estado. Ahora bien, ¿no sería cosa diferente una red neuronal compleja?... Esto me respondió precisamente ChatGPT cuando le pregunté al respecto:
En términos de la teoría de la información integrada, una red neuronal podría ser considerada como un sistema capaz de generar información nueva y afectar su propio estado, lo que implica un poder causal. Por lo tanto, en principio, una red neuronal artificial podría cumplir con los criterios de la teoría de la información integrada para ser considerada consciente, aunque esto es un tema de debate en la comunidad científica.
Sin embargo, es importante tener en cuenta que la capacidad de una red neuronal para generar información nueva y afectar su propio estado se limita a su programa de computadora y su interacción con los datos de entrada.
En fin, que nos acercamos a toda velocidad a escenarios que hace solo unas décadas estaban confinados al ámbito de la ciencia-ficción. A ver qué sorpresas buenas y malas nos traen. Desde luego, las malas (incluidas las nefastas) solo podrán ser atribuidas a la maldad y la imbecilidad humanas.
No hay comentarios:
Publicar un comentario