Nos encaminamos hacia un mundo que ni siquiera los expertos y mejor informados se atreven a predecir con seguridad. Buena parte de esta incertidumbre tiene que ver con cómo será la evolución de la inteligencia artificial en los próximos dos o tres años. El historiador israelí Yuval Harari publicó hace unos meses Nexus, un ensayo en el que alerta de que podríamos estar a las puertas de un escenario distópico pero que también da motivos para la esperanza si la humanidad hace las cosas correctamente.
Harari no comparte la visión marxista y populista de la historia de la humanidad como una lucha sin tregua por el poder a través de la fuerza bruta. A mi juicio, acierta en desmontar el manido tópico de la "ley de la jungla", algo que ni siquiera es cierto en la propia jungla. La cooperación no solo es un rasgo definitorio de la historia humana sino también de la vida en todas sus manifestaciones (¡incluidas las propias células!) desde sus inicios hace 3.500 millones de años. Si solo existiera la predación, la "naturaleza roja en colmillo y garra" de la que hablaba el poeta Alfred Tennyson, no estaríamos aquí para contarlo. Ni nosotros ni cualquier otro ser vivo.
Como ya sostenía en su ensayo Sapiens, nuestras redes de información están basadas en ficciones compartidas (entidades que pudimos imaginar cuando hace 70 mil años, gracias a una mutación genética, adquirimos esa capacidad) como Dios, dólar, Coca Cola, Francia o Real Madrid que hicieron -y siguen haciendo- posible la cooperación entre muchos humanos que no se conocen personalmente. Así fue cómo realmente conquistamos el mundo, no por emplear la información para elaborar un mapa certero de la realidad sino por usarla para conectar a muchos individuos. El principal argumento de Nexus, tal como señala explícitamente su autor al comienzo del libro, es que las grandes redes de información son una enorme fuente de poder para la humanidad pero también nos predisponen a usarlo de una manera poco sabia: "Nuestro problema, por tanto, es un problema de la red". Los conflictos ideológicos y políticos no dejan de ser, para el ensayista israelí, choques entre tipos opuestos de redes de información.
Harari disiente de la creencia aparentemente razonable de que la solución a la desinformación es más información. Considera que esa es una visión ingenua, basada en una concepción errónea de este fenómeno. Porque, como bien dice, "los errores, las mentiras, las fantasías y las ficciones son también información". La ingenuidad radica en creer que la información tiene un vínculo esencial con la verdad, cuando lo que realmente hace es crear nuevas realidades ligando unas cosas con otras. El ADN y la Biblia tienen en común que son información en torno a la cual se articulan redes: una red orgánica de billones de células, en el primer caso; una red religiosa de millones de individuos, en el segundo. Tanto una red como otra pueden hacer cosas que sus partes por separado no podrían, como formar un tejido muscular o lanzar una guerra santa. La información puede o no representar la realidad, pero lo que siempre hace es conectar en redes a una multitud de entidades individuales.
En toda red informativa humana hay una perenne tensión entre orden y verdad, lo que los economistas llaman una relación de sustitución o trade off. La verdad no puede imperar del todo en una sociedad sin afectar al orden, de igual modo que este último no puede basarse en una negación total de la verdad. Cuando una información revela un hecho importante sobre el mundo pero al mismo tiempo mina la "sagrada mentira" que cohesiona a una sociedad, esta última tiende a preservar el orden y poner límite a la búsqueda de la verdad. Porque mitología y burocracia, estrechamente relacionadas (aunque tienden a tomar direcciones diferentes), son esenciales para el mantenimiento del orden.
Nuestras ficciones crean una realidad intersubjetiva, compartida por muchas mentes (a diferencia de la realidad subjetiva, como el dolor físico, que solo existe en una), en la que moran las leyes, los dioses, las naciones, las empresas... Harari vuelve a contradecir al marxismo al señalar que las identidades e intereses a gran escala en la historia humana no son objetivas sino intersubjetivas. Subraya la importancia de los mecanismos de autocorrección para afrontar los efectos perniciosos de esa realidad intersubjetiva. De hecho, considera que el motor de la revolución científica fueron estos mecanismos correctores, no la tecnología de la imprenta. El invento de Gutenberg no solo permitió la difusión del conocimiento, sino también de libelos, noticias falsas y textos incitadores del odio y la violencia (como un influyente tratado de dos frailes dominicos del siglo XV para identificar y perseguir a las brujas), de igual manera que la radio serviría de altavoz a la ideología de Hitler y la televisión y las redes sociales a la de Trump.
Una democracia es una red distribuida de información con fuertes mecanismos de autocorrección. Justo lo contrario que una dictadura: una red centralizada que no se corrige a sí misma. Por eso las democracias son más flexibles y capaces de adaptarse a los cambios, amén de más eficaces económicamente. Y también mas resistentes a sucumbir a una eventual IA maligna, ya que incluyen en su red a otros agentes como la oposición política, un sistema judicial independiente, medios de comunicación libres, ONGs... Es mucho más fácil para una IA hacerse con el control de una autocracia, ya que solo requiere manipular a un tirano que concentra toda el poder en sus manos.
Los medios de comunicación de masas hicieron posible la democracia, pero también contribuyeron a la forja de regímenes dictatoriales. Antes del telégrafo y la radio, un régimen totalitario a gran escala era imposible: había límites tecnológicos para que una autocracia pudiese convertirse en totalitaria. Una avanzada inteligencia artificial sería el sueño de todo tirano totalitario: por un lado, una AI puede procesar grandes cantidades de información de manera eficiente (de hecho, cuanto más se alimenta de datos, más eficiente es); por otro lado, le permitiría un control casi absoluto de su población. Pero podría volverse en contra del Hitler o Stalin de turno.
Harari pone al respecto, tomando el caso de Rusia, un interesante ejemplo de desalineamiento entre una IA y sus creadores. El régimen de Putin es un sistema autoritario donde los opositores son encarcelados y sufren accidentes, se violan sistemáticamente los derechos humanos y se persigue al colectivo LGTBI, pero la Constitución de la Federación Rusa es un impecable texto democrático. Una IA entrenada para defender los valores rusos podría deducir, a la vista de la incongruencia entre la realidad y lo que está escrito, que Putin está atacando esos valores. Y, en consecuencia, comunicarlo a la ciudadanía y ponerse a la labor de deponerlo. Todo ello, investida de un gran poder y sin temor a represalia alguna: no se puede torturar ni encarcelar a una IA, si acaso apagarla.
En la guerra fría tuvimos la sabiduría necesaria para evitar un desastre gracias a la doctrina de la destrucción mutua asegurada, que posibilitó la cooperación entre las entonces superpotencias norteamericana y soviética. A estas alturas del siglo XXI, la situación es más peligrosa porque una inteligencia artificial avanzada no es un objeto pasivo como una bomba atómica sino una entidad con agencia, capaz de perseguir objetivos y tomar decisiones por sí misma. Las tablillas de arcilla, las imprentas y las radios son meros conectores entre miembros de una red de información, limitándose a distribuir entre ellos los flujos informativos, pero una IA es un miembro activo más de esa red. Con la capacidad, como nosotros los Homo sapiens gracias al lenguaje, de crear realidades intersubjetivas como una religión. Y también de interpretarlas por sí misma sin el concurso de los humanos.
Harari se detiene a analizar los efectos perversos de algoritmos como los de Facebook, que están diseñados para promover ante todo las interacciones (visitas y likes) de los usuarios. Nos pone el ejemplo de Myanmar, escenario en 2016 y 2017 de la persecución y matanzas de una etnia minoritaria de religión musulmana: los rohingya. A los usuarios birmanos de Facebook les aparecían a diario en su aplicación vídeos en los que se incitaba al odio contra esa minoría, ya que esos contenidos son mucho más virales que otros más discretos, moderados o juiciosos. Facebook fue pues corresponsable involuntario de esos trágicos sucesos. Lo cierto es que las redes sociales, en buena medida por culpa de los algoritmos que emplean, se han convertido en plataformas para incitar al odio y propagar la desinformación y la conspiranoia. El historiador israelí tiene claro que para preservar una conversación democrática es necesaria una regulación: un mercado de la información completamente libre nunca producirá verdad y orden de manera espontánea.
Shane Legg, un prominente científico de Google, daba hace poco un 50% de probabilidades al logro de una Inteligencia Artificial General (AGI, en inglés) antes de tres años. Y entre un 5 y un 50% a nuestra extinción como especie justo un año después. En no mucho tiempo veremos signos inequívocos de por qué camino tiraremos finalmente. Si lo hacemos bien, será legítimo esperanzarnos con los escenarios que nos adelantan optimistas inveterados como el gurú tecnológico Ray Kurzweil (abanderado de la singularidad) y sobrevenidos como el filósofo Nick Bostrom (que en 2014 ya nos asustaba con su Superinteligencia: caminos, peligros, estrategias), quien en su último ensayo Deep Utopia nos invita a soñar con un mundo donde todas las necesidades estarán resueltas sin esfuerzo y podremos aventurarnos en un vasto espacio inexplorado de posibles experiencias. Bostrom sugiere que algunas de estas pueden "valer la pena en un grado que supera nuestros sueños y fantasías más salvajes".
No hay comentarios:
Publicar un comentario