Las recetas de Yuval Noah Harari contra el fin del mundo

 

 

El autor del best-seller de los ensayos, ‘Sàpiens’, publica ahora ‘Nexus’ (Edicions 62) para advertir de los peligros de la inteligencia artificial. El historiador y filósofo israelí Yuval Noah Harari analiza la historia de las redes de información que han utilizado los humanos en la historia (y han dado lugar a totalitarismos o democracias) y explica por qué la IA es más peligrosa que cualquier arma nuclear.

Yuval Noah Harari presenta un ensayo leedor y divulgativo con una tesis bien defendida contra lo que llama las teorías ingenuas sobre la información que se utilizan para alimentar sin freno —y sin control suficiente— la inteligencia artificial (IA).

La explicación más breve y sencilla de su teoría, tal y como la resumía Harari en una reciente rueda de prensa, es que “la información no es verdad ni es conocimiento”. Y esto implica que es falsa la teoría de quienes defienden a capa y espada la IA. No es cierto, dice Harari, que “más información nos acerque más a la verdad, sino todo lo contrario”. Por tanto, tampoco es cierto el mantra que repite el propietario de X (antes Twitter) Elon Musk que la gente necesite más y más información. Musk lo dice una y otra vez porque la IA aportará un alud de datos y son muchos los que creen que más información significará directamente progreso, conocimiento y beneficios universales.

Harari dedica más de 500 páginas a explicar por qué son falsos estos apriorismos sobre la información y lo hace repasando la historia cultural, religiosa y comunicativa de los humanos desde que los sapiens convivieron con los neandertales. Con mucho estilo, el autor llena su historia de personajes muy conocidos (Jesucristo, Stalin, Hitler, etc.) y otros que nunca esperaríamos encontrar en un libro como éste, como Cher Ami, una paloma mensajera (el pájaro de la cubierta) que, en una batalla de la Primera Guerra Mundial, tuvo un papel protagonista al llevar un mensaje que debía salvar a todo un batallón del ejército estadounidense.

La información es una selva

En el epílogo de ‘Nexus’, Harari explica que sus obras anteriores le facilitaron un acceso inesperado a empresas, instituciones y científicos que tenían o podían desempeñar un papel clave en el desarrollo o control de la IA. Pero muchos de ellos, escribe, “argumentaban que más información siempre ha significado más conocimiento y que, al aumentar nuestro conocimiento, cada revolución de la información anterior ha beneficiado mucho a la humanidad. La revolución de la imprenta, ¿no condujo a la revolución científica? ¿No provocaron los periódicos y la radio el ascenso de la democracia moderna? Lo mismo, decían, ocurrirá con la IA”.

Harari recuerda que cada uno de estos avances ha traído cosas buenas y malas, según quién y cómo lo haya utilizado: “Los resultados inmediatos de la revolución de la imprenta incluyeron cazas de brujas y guerras religiosas junto con descubrimientos científicos, mientras que los periódicos y la radio fueron explotados tanto por los regímenes totalitarios como por las democracias”.

En la rueda de prensa internacional que realizó por videoconferencia el 16 de septiembre, Harari fue más contundente: “¿Por qué la IA nos pone en peligro más que otros inventos humanos aún más diabólicos (explosivos, bombas atómicas, etc.)? Porque la IA es diferente: es un agente independiente. Las anteriores, las armas nucleares, tenían un ingente poder de destrucción, pero la decisión estaba en manos de los humanos”. Según este historiador y filósofo israelí que ahora investiga en la Universidad de Cambridge, “una bomba atómica no podía crear la bomba de hidrógeno, pero la IA sí puede inventar una IA más inteligente. Y esto lo hace diferente a cualquier crisis previa”.

Harari hace una reflexión igual de inquietante sobre el momento en el que nos encontramos, sobre la inteligencia artificial actual más conocida (ChatGPT) y sobre el futuro inmediato. “Esto está empezando. Si lo comparamos con la evolución biológica, ChatGPT sólo representaría una ameba, pero entonces ¿qué pasará cuando lleguen los dinosaurios de la IA?”.

Algoritmos culpables

La primera pequeña muestra del funcionamiento de la IA -en este caso, en beneficio de las empresas que la aplican- ya se puede encontrar en las redes sociales. Harari alerta de que las muestras públicas de odio o las ‘fake news’ en las redes sociales acaban siendo fomentadas por los algoritmos (la IA) de estas grandes empresas. Por tanto, deberían ser responsables las empresas, no los individuos. “Si alguna persona publica un contenido cargado de odio o se inventa una historia estúpida –dice Harari–, es su problema. Quizás hay que vigilar, pero en democracia también debemos tener mucho cuidado a la hora de censurar. La gente tiene derecho a la estupidez”. En cambio, “las grandes corporaciones deberían ser responsables de las decisiones de los algoritmos que dan mayor visibilidad a aquellas informaciones falsas o a aquellos contenidos de odio”. Los algoritmos, la IA de estas empresas, quieren priorizar la permanencia de los usuarios en sus redes sociales y, por tanto, acaba premiando los contenidos más estúpidos porque provocan más respuestas, comentarios, etc. “Los algoritmos han descubierto que la mejor forma de captar la atención es pulsar el botón del odio, el miedo o la rabia. Diseminan mensajes de éstos porque hacen que la gente se implique y esté más tiempo enganchada a las redes sociales. Esto no es libertad de prensa”, dice Harari. No puede ser que las empresas actúen de esta manera y salgan adelante por una pretendida libertad de opinión. La libertad de opinión sería un derecho del individuo que ha hecho ese mensaje, pero las empresas que alimentan y alargan su vida —con los algoritmos que la difunden más y más— deben pagar su irresponsabilidad.

Harari compara este caso con el de un editor de periódico que pone en portada, conscientemente, una ‘fake new’ o un contenido cargado de odio. “Si alguien inventa una historia estúpida, es su problema, pero si el editor lo pone en primera página, el responsable es el editor. Esto es lo que está pasando con las grandes redes sociales”. Y podría perdonarse la estupidez individual, pero no la codicia empresarial y la mala praxis profesional que sólo quieren obtener más beneficios.

La IA y los totalitarismos

Harari va más allá y se pregunta por qué somos tan autodestructivos. ¿Si “somos tan inteligentes que podemos producir misiles nucleares y algoritmos superinteligentes” como es que “somos tan estúpidos” que “seguimos produciendo estas cosas aunque no estemos seguros de poder controlarlas”?

A lo largo del libro el autor intenta demostrar, como él mismo reconoce en el epílogo, “que la culpa no es de nuestra naturaleza sino de nuestras redes de información”.

Para demostrarlo, compara las redes de información que han creado los estados totalitarios y las que han formado las democracias y concluye que, a veces, “por favorecer el orden por encima de la verdad, las redes de información humana a menudo han producido mucho poder, pero poca sabiduría”. Y pone el ejemplo de la Alemania nazi, que “creó una máquina militar altamente eficiente y la puso al servicio de una mitología demencial”.

Harari analiza la historia de la dictadura y la democracia desde un punto de vista nuevo, “como tipos opuestos de redes de información”. La diferencia principal: las redes de información “dictatoriales están muy centralizadas”, lo que significa que “el centro goza de una autoridad ilimitada; por tanto, la información tiende a fluir hacia el núcleo central, donde se toman las decisiones más importantes”. Este sistema es más efectivo en un Estado del siglo XX, con el potencial de controlar “la totalidad de la vida de las personas” que en la antigua Roma, donde “Nerón, por ejemplo, no disponía de los medios para fiscalizar la vida de millones de campesinos en los pueblos remotos de las provincias”.

Sin embargo, la IA puede hacer aún más asfixiando ese control de los totalitarismos. “Hitler o Stalin tampoco podían seguir a todo el mundo siempre y hasta el último rincón de sus estados. Incluso en la URSS, la mayor parte del tiempo, la persona no estaba perseguida todo el día en todas partes. En cambio, la IA permite una vigilancia total que acabe con cualquier libertad porque existen teléfonos, ordenadores, reconocimiento de cara, de voz, etc. Antes era imposible aniquilar la privacidad”, pero ahora está pasando.

Harari pone el ejemplo de Irán: “En los últimos dos o tres años, Irán ha terminado lleno de cámaras de vigilancia con software de reconocimiento facial capaz de identificar a las mujeres que no llevan velo. Basta con leer los informes de Amnistía Internacional. Una mujer conduce sin velo su coche, las cámaras la identifican (su nombre y su teléfono) y recibe un SMS que le dice que ha cometido un delito, que debe detener el vehículo -que será requisado- y esperar a la policía. Esto ya está pasando”.

Al contrario que los totalitarismos, la democracia “es una red de información distribuida, con fuertes mecanismos de corrección”. Hay un nodo central, el ejecutivo, y “las agencias gubernamentales que recogen y almacenan grandes cantidades de información”, pero también hay “muchos canales de información adicionales que conectan nodos independientes”: la diversidad abarca desde los “órganos legislativos, los partidos políticos, los tribunales, la prensa, las empresas, las comunidades locales y las ONG” hasta los “ciudadanos individuales” que “se comunican libre y directamente entre ellos”.

En la presentación del libro Harari destacaba el papel de la prensa: “Los periodistas y prensa tienen un papel clave. La democracia es una conversación. La gente habla e intenta llegar a una decisión común. Hay gente que confunde democracia con elecciones, pero no es lo mismo. En Venezuela y en Corea del Norte hacen elecciones, pero no hay democracia. Democracia significa conversación y corregir errores (también del Gobierno)”.

En la revisión histórica de este sistema político donde la conversación y la discusión son fundamentales, Harari destaca el papel del periodismo: “Los diarios empezaron los siglos XVII y XVIII en los Países Bajos y el Reino Unido, y allí llegaron las primeras democracias. Hasta que no llegó la prensa, no existe ningún ejemplo de democracia a gran escala. Se podía dar en ciudades estado o en tribus porque las dimensiones permitían que la gente hablara entre ellos, pero esto no puede hacerse a gran escala sin medios”.

Harari también reconoce el potencial positivo de la IA, pero su trabajo insiste en “abandonar tanto la visión ingenua como la visión populista de la información, dejar de lado nuestras fantasías de infalibilidad y comprometernos con el trabajo arduo y más bien mundano construir instituciones con fuertes mecanismos de corrección”. Una IA muy controlada.

O esto o el caos. “Si lo gestionamos mal, la IA podría hacer que se extinguiera no sólo el dominio de los humanos en la Tierra, sino también la luz misma de la conciencia”, cualquier rastro de vida animal.

Publicado el 23 de septiembre de 2024

Nº. 2102

EL TEMPS

https://www.eltemps.cat/article/61127/les-receptes-de-yuval-noah-harari-contra-la-fi-del-mon?id_butlleti_enviar=365&utm_source=butlleti_article&utm_medium=butlleti&utm_campaign=les-receptes-de-yuval-noah-harari-contra-la-fi-del-mon