La carta abierta del ‘Future of Life Institute’ que exige una pausa preventiva de seis meses en el desarrollo de la inteligencia artificial ya ha sido firmada por miles de figuras de alto perfil, incluido Elon Musk. A los signatarios les preocupa que los laboratorios de IA estén «encerrados en una carrera fuera de control» para desarrollar e implementar sistemas cada vez más potentes que nadie, incluidos sus creadores, pueden comprender, predecir o controlar.
¿Qué explica este estallido de pánico entre cierta cohorte de élites? El control y la regulación están obviamente en el centro de la historia, pero ¿de quién? Durante la pausa de medio año propuesta cuando la humanidad pueda hacer un balance de los riesgos, ¿quién representará a la humanidad? Dado que los laboratorios de IA en China, India y Rusia continuarán con su trabajo (quizás en secreto), es inconcebible un debate público mundial sobre el tema.
Aún así, debemos considerar lo que está en juego aquí. En su libro de 2015, ‘Homo Deus’, el historiador Yuval Harari predijo que el resultado más probable de la IA sería una división radical, mucho más fuerte que la división de clases, dentro de la sociedad humana. Muy pronto, la biotecnología y los algoritmos informáticos unirán sus poderes para producir «cuerpos, cerebros y mentes», lo que dará como resultado una brecha cada vez mayor «entre quienes saben cómo diseñar cuerpos y cerebros y quienes no». En un mundo así, “aquellos que viajen en el tren del progreso adquirirán habilidades divinas de creación y destrucción, mientras que los que se queden atrás enfrentarán la extinción”.
El pánico reflejado en la carta de IA surge del temor de que incluso aquellos que están en el “tren del progreso” no puedan conducirlo. Nuestros amos feudales digitales actuales están asustados. Sin embargo, lo que quieren no es un debate público, sino un acuerdo entre los gobiernos y las corporaciones tecnológicas para mantener el poder en donde pertenece.
Una expansión masiva de las capacidades de la IA es una seria amenaza para quienes están en el poder, incluidos aquellos que desarrollan, poseen y controlan la IA. Señala nada menos que el fin del capitalismo tal como lo conocemos, manifestado en la perspectiva de un sistema de IA autorreproductivo que necesitará cada vez menos aportes de agentes humanos (el comercio de mercado algorítmico es simplemente el primer paso en esta dirección). La elección que nos queda será entre una nueva forma de comunismo y un caos incontrolable.
Los nuevos chatbots ofrecerán a muchas personas solitarias (o no tan solas) veladas interminables de diálogo amistoso sobre películas, libros, cocina o política. Por reutilizar una vieja metáfora mía, lo que la gente obtendrá es la versión IA del café descafeinado o la gaseosa sin azúcar: un vecino amigable sin esqueletos en su armario, un Otro que simplemente se adaptará a tus propias necesidades. Aquí hay una estructura de negación fetichista: “Sé muy bien que no estoy hablando con una persona real, pero se siente como si lo estuviera, ¡y sin ninguno de los riesgos que lo acompañan!”.
En cualquier caso, un examen minucioso de la carta de IA muestra que se trata de otro intento de prohibir lo imposible. Esta es una vieja paradoja: es imposible para nosotros, como humanos, participar en un futuro post-humano, por lo que debemos prohibir su desarrollo. Para orientarnos en torno a estas tecnologías, debemos hacernos la vieja pregunta de Lenin: ¿Libertad para quién para hacer qué? ¿En qué sentido éramos libres antes? ¿No estábamos ya mucho más controlados de lo que creíamos? En lugar de quejarnos de la amenaza a nuestra libertad y dignidad en el futuro, tal vez deberíamos primero considerar qué significa la libertad ahora. Hasta que hagamos esto, actuaremos como histéricos que, según el psicoanalista francés Jacques Lacan, están desesperados por un amo, pero solo uno al que podamos dominar.
El futurista Ray Kurzweil predice que, debido a la naturaleza exponencial del progreso tecnológico, pronto nos enfrentaremos a máquinas “espirituales” que no solo mostrarán todos los signos de la autoconciencia sino que también superarán con creces la inteligencia humana. Pero no se debe confundir esta postura “posthumana” con la preocupación paradigmáticamente moderna por lograr el dominio tecnológico total sobre la naturaleza. Lo que estamos presenciando, en cambio, es una inversión dialéctica de este proceso.
Las ciencias “poshumanas” de hoy ya no se tratan de dominación. Su credo es la sorpresa: ¿qué tipo de propiedades emergentes contingentes y no planificadas podrían adquirir los modelos de IA de «caja negra» por sí mismos? Nadie lo sabe, y ahí radica la emoción, o, de hecho, la banalidad, de toda la empresa.
Por lo tanto, a principios de este siglo, el filósofo e ingeniero francés Jean-Pierre Dupuy percibió en la nueva robótica, la genética, la nanotecnología, la vida artificial y la IA una extraña inversión de la arrogancia antropocéntrica tradicional que permite la tecnología:
“¿Cómo vamos a explicar que la ciencia se convirtió en una actividad tan “arriesgada” que, según algunos científicos de renombre, representa hoy en día la principal amenaza para la supervivencia de la humanidad? Algunos filósofos responden a esta pregunta diciendo que el sueño de Descartes –“convertirse en dueño y poseedor de la naturaleza”– se ha torcido, y que debemos volver urgentemente al “dominio del dominio”. No han entendido nada. No ven que la tecnología que se perfila en nuestro horizonte a través de la «convergencia» de todas las disciplinas apunta precisamente a la no maestría. El ingeniero del mañana no será aprendiz de brujo por negligencia o ignorancia, sino por elección”.
La humanidad está creando su propio dios o demonio. Si bien el resultado no se puede predecir, una cosa es segura. Si algo parecido a la “poshumanidad” emerge como un hecho colectivo, nuestra visión del mundo perderá sus tres temas definitorios y superpuestos: la humanidad, la naturaleza y la divinidad. Nuestra identidad como seres humanos solo puede existir en el contexto de una naturaleza impenetrable, pero si la vida se convierte en algo que la tecnología puede manipular por completo, perderá su carácter «natural». Una existencia totalmente controlada es una desprovista de significado, sin mencionar la casualidad y la maravilla.
Lo mismo, por supuesto, vale para cualquier sentido de lo divino. La experiencia humana de «dios» sólo tiene sentido desde el punto de vista de la finitud y la mortalidad humanas. Una vez que nos convertimos en ‘homo deus’ y creamos propiedades que parecen «sobrenaturales» desde nuestro antiguo punto de vista humano, los «dioses» como los conocíamos desaparecerán. La pregunta es qué quedará, si es que queda algo. ¿Adoraremos las IA que creemos?
Hay muchas razones para preocuparse de que las visiones tecnognósticas de un mundo poshumano sean fantasías ideológicas que oscurecen el abismo que nos espera. No hace falta decir que se necesitaría más de una pausa de seis meses para garantizar que los humanos no se vuelvan irrelevantes y que sus vidas no tengan sentido en un futuro no muy lejano.
*Profesor de Filosofía en la Escuela Europea de Graduados, es director internacional del Instituto Birkbeck de Humanidades de la Universidad de Londres y autor, más recientemente, de ‘Heaven in Disorder’ (OR Books, 2021).
PROJECT-SYNDICATE