sábado, 10 de septiembre de 2016

Inteligencia Artificial, ¿una inteligencia no inteligente?


Cada vez que alguien consigue que un ordenador o robot desempeñe o resuelva una nueva tarea o problema, mucha gente sale al paso recordándonos que la actividad de la máquina no es inteligencia genuina (o sea, supuestamente como la nuestra): se trataría de una simple computación realizada gracias a la capacidad humana de programar algo que no deja de ser un cacharro de silicio, chapa y cables. Esto se llama "efecto Inteligencia Artificial" y está muy extendido. Da igual la gesta conseguida por la máquina: si ésta derrota al ajedrez a un campeón mundial, pues se despacha nada más que como una computación (notable, eso sí, pero nada ver con la inteligencia de verdad). No admitimos que haya inteligencia con mayúsculas mientras nosotros entendamos cómo funciona la máquina para hacer una cosa o dar respuesta a un problema. Ya no hablemos de atribuirle conciencia a un superordenador o de suponer que este podría llegar a sufrir enfermedades mentales (sería lo suyo si tuviera una mente).

Curiosamente, ocurre algo parecido cuando se juzga la conducta de los animales. Cada vez que se descubre en una especie alguna proeza cognitiva que se nos había pasado por alto, muchos legos en ciencia lo atribuyen al puro instinto: porque, faltaría más, los animales no tendrían inteligencia... ¡y ni por asomo conciencia! Es tan improbable que un humanista inculto (de esos que pueden recitar de memoria a Góngora pero creen que los toros no sufren en la plaza y no conciben que 0,11 sea menor que 0,2) diga "cultura animal" como que un torero exclame "¡Disonancia cognitiva!" en medio de una faena en Las Ventas. Aunque, le guste o no a Savater o al académico más lustroso, la cultura también existe en los animales.

La tesis de la Inteligencia Artificial (IA) fuerte, a la que se adscriben filósofos y neurocientíficos como el estadounidense Daniel Dennet, sostiene que si un ordenador desarrolla acciones inteligentes (relacionarse con el medio, razonar, resolver problemas, planear, aprender, comunicar, etc.) puede ser considerado a todos los efectos inteligente. La diferencia entre la inteligencia de una máquina y la de un humano sería solo de grado. Nuestros ordenadores siguen siendo menos inteligentes que nuestros cerebros, pero eso no significa que algún día acaso no lejano puedan alcanzarnos y, en el camino, cobrar así conciencia.

El filósofo John Searle ideó un curioso experimento mental, llamado la "habitación china", para refutar el planteamiento de la IA fuerte. Imaginémonos que él está encerrado en una habitación y no tiene la más remota idea de lengua china, pero cuenta con una serie de reglas en inglés (diccionarios, libros de gramática, etc.) que le permiten poner en correspondencia un conjunto de símbolos formales con otro (en este caso, los caracteres chinos) y así responder correctamente en chino a preguntas formuladas en esa lengua desde fuera -por ejemplo, intercambiando hojas por debajo de la puerta o a través de una ranura- por sinohablantes. De esa manera, estos últimos quedan convencidos erróneamente de que la habitación china (en realidad, el oculto Searle) entiende ese idioma asiático. Estableciendo una analogía, Searle concluye que un programa no puede otorgar comprensión o conciencia a un ordenador con independencia de lo inteligentemente que pueda hacer que se comporte.

Como explica Dennet en su libro La conciencia explicada, el argumento de Searle para demostrar que la habitación china no es en absoluto consciente ignora un factor clave: la complejidad. Un programa informático puede ser extraordinariamente flexible, con múltiples niveles, y poseer una amplísima información del mundo (lo que incluiría, según Dennet, "metaconocimiento y (...) metametaconocimiento sobre sus propias respuestas, las posibles respuestas de su interlocutor, sus propias motivaciones, las 'motivaciones' de su interlocutor y mucho, mucho más"). Si una computación compleja permite capturar y representar la misma organización o estructura abstracta de un sistema de procesamiento de información (por ejemplo, la mente emanada de un cerebro), si su entramado de conexiones o "topología causal" es similar, ¿por qué no habría de compartir sus propiedades psicológicas, como sostiene el filósofo australiano David Chalmers? ¿Por qué la conciencia habría necesariamente de tener un soporte orgánico y no de silicio o cualquier otro material? Si una conciencia es producto de la interacción de un trillón de neuronas, según el australiano no habría nada absurdo en la idea de que la interacción de un trillón de chips de silicio pudiese hacer lo mismo.

¿Y por qué la conciencia, a diferencia de la inteligencia, habría de ser una cuestión de todo o nada? Chalmers no descarta que todo objeto procesador de información (o sea, reductor de la incertidumbre, conforme a la definición de Claude Shannon) pueda ser consciente a su manera, empezando por un modesto termostato de conducta binaria: apagado-encendido, cero-uno, sí-no... Aunque pueda parecer contraintuitivo, lo cierto es que el pampsiquismo hace menos misterioso el fenómeno de la conciencia y es perfectamente compatible con una visión materialista del mundo.

4 comentarios:

Adolfo dijo...

Hola Nico. Yo creo que en realidad, todo depende de lo que cada uno entienda por "inteligencia" o "conciencia".

Para mí la clave está en lo que dijiste por el final. Al fin y al cabo ¿qué es un cerebro sino un ordenador con su programa básico y su capacidad de almacenaje de información y de uso de la misma?.

Sí es de componentes orgánicos, pero ¿Y qué?. La diferencia está en el origen de la materia prima y que el ordenador ha sido creado por humanos, lo demás, es cuestión de grado.

Lo que trato de hacer, no es equiparar los ordenadores a los humanos sino al revés. Somos máquinas biológicas.

Nicolás Fabelo dijo...

Exacto. El sustrato sería igual de relevante (o sea, nada) que en el caso de una película: esta es la misma en rollo de cine, en un DVD o almacenada en un ordenador en formato digital.

Unknown dijo...

Pues a mí me parece que hay una cuestión 'etica' que trasciende la pura cuestión 'mecánica', si se me permite la intromisión así en corto. Pero muy interesante el planteamiento. Saludos Nico!

MCharte dijo...

Casi me convences Nico, pero me has perdido a mitad de texto: cuando tus argumentos sobre la "inteligencia artificial" me estaban atrayendo, te has pasado a discutir la "conciencia artificial".

El "efecto AI", que no conocía, y su comparación con los prejuicios especistas sobre la inteligencia animal me han hecho repensar: bien, puede exitir inteligencia artificial. Sólo porque conozcamos los derroteros del razonamiento de una máquina (porque nosotros los hemos diseñado), no significa que el resultado sea menos inteligente.

Pero de ahí a la conciencia aún me queda un paso. Y no por culpa de la máquina, sino porque no tengo muy claro qué es la conciencia. Venga, para otra entrada en el blog. Salud

Archivo del blog