El extractivismo de datos es el nuevo colonialismo

 

 

Si el colonialismo se apoderó de tierras y recursos de un tercio de la población del planeta durante quinientos años, hoy solo las plataformas de Meta se apoderan de los datos de la mitad

En 1945, uno de cada tres habitantes del planeta vivía bajo dominio colonial. Hoy, una de cada dos personas usa un producto de Meta (propietaria de Facebook, Instagram y WhatsApp) y vive bajo sus normas y reglamentos.

Puede parecer una comparación injusta. El colonialismo implantó un sistema extractivista brutal que provocó la pérdida de millones de vidas en el lapso de quinientos años. Los súbditos coloniales fueron obligados a participar en el sistema y vieron cómo se les arrebataba por la fuerza tierras, trabajo y recursos. Nosotros, en cambio, participamos de buen grado en las plataformas y redes y obtenemos muchos beneficios sin que en apariencia paguemos nada. De modo que, por más que el mundo hecho posible por las grandes tecnológicas sea tan extenso como el del colonialismo, puede dar la impresión de que no es en absoluto tan violento.

Sin embargo, tal como sostenemos Nick Couldry y yo en nuestro libro ‘Data Grab’, hay algo inquietantemente colonial en ese mundo. Es un fenómeno que llamamos colonialismo de datos, y pagamos desde luego algo cuando participamos en él. Mientras que el antiguo colonialismo se apoderaba de la tierra, el nuevo se apodera de nosotros a través de los datos. Eso significa que nuestras vidas son reestructuradas para extraer sin cesar datos de ellas. El objetivo de ese sistema es, obviamente, generar beneficios para las empresas. Sin embargo, el impacto social es mayor de lo que señalarían los márgenes de beneficio, y donde queda eso más claro es en el terreno de la inteligencia artificial (IA).

La época de la IA

Los últimos avances en IA han sido posibles gracias al desarrollo de redes neuronales capaces de simular algo que parece pensamiento humano, pero que en realidad son solo sofisticados programas que sobresalen calculando la respuesta más posible o probable a un problema. A diferencia de los cerebros humanos, que pueden aprender e inferir a partir de muy poca información, la IA necesita volúmenes masivos de datos para aprender a hacer cualquier cosa: cuantos más datos se utilicen para entrenar un modelo de IA, más representativa o precisa será la probabilidad. En otras palabras, si se intenta enseñar a la IA a dibujar un gato, es necesario mostrarle miles y miles de imágenes de gatos.

Sin embargo, esas enormes cantidades de datos de entrenamiento tienen que venir de alguna parte, y es ahí donde el colonialismo de datos se vuelve relevante. El desarrollo de la IA nos involucra a nosotros, el público, en tres procesos neocoloniales: cómo se nos extraen los datos, cómo nos hacemos dependientes de quienes controlan la tecnología y cómo se utiliza la tecnología para controlarnos a través de la vigilancia y la predicción.

1. Extracción

Aunque el viejo y el nuevo colonialismo difieren en escalas, intensidades y modalidades, ambos comparten una semejanza: la función es la misma, extraer. La extracción de recursos y mano de obra que caracterizaba las formas anteriores de colonialismo ha sido sustituida hoy por la extracción de datos de nuestras vidas. Tanto entonces como ahora, la desposesión se halla en el centro del proceso colonial. Una de las principales formas en que se ha desarrollado esa desposesión es mediante el cercamiento o la privatización de los bienes comunes.

Con anterioridad al colonialismo, grandes extensiones del planeta constituían territorios y recursos comunes gestionados por comunidades y sin propietarios individuales. El cercamiento gradual de esos bienes comunes en Europa dio lugar al reasentamiento en las nuevas tierras de unas poblaciones excedentes. Dichos colonos, cuya intención era reclamar para sí esos territorios, vieron las nuevas tierras como baratas: eran abundantes, libres, no tenían propietarios (al menos dueños civilizados, según se creía), y no había más que tomarlas.

El extractivismo que alimenta la IA representa un nuevo cercamiento de bienes comunes. Los datos se consideran baratos igual que la tierra se consideraba barata en anteriores formas de colonialismo: se dice que son abundantes, que no tienen propietarios y que están a la libre disposición de quienes los hallen. Ahora bien, los datos no son un recurso natural. Los hemos generado nosotros a través de millones de horas colectivas de trabajo. Somos nosotros quienes hemos producido y compartido todos esos datos, y quienes hemos dado permiso para que se rastreen nuestras actividades para generar más datos.

Mientras pasábamos el tiempo creando datos y siendo rastreados, teníamos la impresión de estar contribuyendo a una nueva forma de recurso colectivo, un bien común de datos. Como se suponía que los datos eran un recurso exento de rivalidad, podían utilizarse infinitamente sin degradación ni escasez. Si alguien hacía una foto de un gato y la subía a internet, cualquiera podía verla o incluso descargarla, volver a compartirla o modificarla sin pérdida para el original.

La mayoría de esas fotos de gatos, junto con el resto de nuestros datos sobre quiénes somos y qué hacemos, acababan en plataformas corporativas. Se nos animó a participar en ella porque eran gratuitas: nadie pagaba por usar Facebook o Google. Ahora bien, la razón de la gratuidad era que nosotros mismos éramos la materia prima que generaba valor para esas plataformas. Y así las grandes tecnológicas han extraído de nosotros grandes cantidades de datos que han usado, primero, para construir perfiles de marketing detallados que podían vender a los anunciantes y, más recientemente, para entrenar sistemas de inteligencia artificial que nos harán aún más dependientes de esas plataformas.

2. Dependencia

El colonialismo conllevaba relaciones de dependencia entre el colonizador y el colonizado, unas relaciones que siguen caracterizando hoy las interacciones entre norte global y sur global. Al principio, a los colonizadores les bastaba con ocupar tierras y extraer de ellas materias primas para enviarlas de vuelta a la patria del colonizador con objeto de generar riqueza. Pensemos en todos los minerales y bienes naturales que fluyeron del Nuevo Mundo al Viejo. Sin embargo, el colonialismo acabó coexistiendo con un nuevo sistema, el capitalismo, que inventó nuevas formas de desposesión.

Los capitalistas (que a menudo se financiaban con la riqueza de sus antepasados colonizadores) se dieron cuenta de que, una vez convertidas las materias primas en productos manufacturados, esos productos podían volver a venderse a las colonias. Así, las colonias tuvieron que pagar dos veces por el mismo material: una vez durante la extracción y otra como producto manufacturado. Como la tecnología industrial abarataba la producción de los bienes, podían competir con las alternativas locales. Pensemos, por ejemplo, en el algodón, que se extraía de las plantaciones del sur global, se tejía en telares mecánicos en el norte industrializado, y luego se exportaba de nuevo a las colonias o antiguas colonias, un proceso en el que de paso se eliminaba a los tejedores locales y se hacía que las colonias dependieran de los textiles baratos y perdieran su capacidad de fabricar.

Algo muy parecido ocurre con nuestros datos y la IA. Se nos dice que nuestros datos extraídos a bajo precio son esencialmente inútiles para nosotros como individuos, razón por la cual deberíamos permitir su extracción y procesamiento. Se nos dice que las empresas pueden convertir nuestra materia prima en algo supuestamente útil, como los modelos de IA que nos facilitan la vida y el trabajo. Se trata de un proceso de gran densidad tecnológica, lo que significa que solo pueden llevarlo a cabo unas pocas empresas. Nuestros datos procesados nos son revendidos como un nuevo producto manufacturado, la IA, un producto que elimina nuestra capacidad de hacer ciertas cosas por nosotros mismos al tiempo que nos hace más dependientes de las empresas que tienen el poder exclusivo de fabricar el producto, en lo que constituye una réplica de las relaciones coloniales.

3. Control

También se nos dice que la IA puede resolver muchos de los problemas más acuciantes de la humanidad. Esperamos que ciertas aplicaciones mejoren nuestra vida porque detectarán enfermedades, creen nuevas vacunas o modelen soluciones a los problemas medioambientales. Sin embargo, ya está claro que muchas otras aplicaciones, como también el propio coste medioambiental de la IA, sí que tendrán un impacto perjudicial en nuestra vida.

Por eso, una de las aplicaciones más importantes de la IA será mantener a las poblaciones bajo control mediante la vigilancia y la predicción. La violencia y la injusticia desatada por el colonialismo invita a la resistencia, y esa resistencia debe mantenerse bajo control. Junto con la gestión de los recursos extraídos, el colonialismo siempre ha tratado de gestionar el descontento mediante la vigilancia, y no hay razón para creer que las cosas vayan a ser diferentes con el colonialismo de datos.

Ya hemos visto la aplicación de las tecnologías de datos para la vigilancia y rastreo de personas: cámaras de vigilancia, reconocimiento facial, elaboración de perfiles algorítmicos, policía predictiva… La IA abre nuevas fronteras a la vigilancia, creando mecanismos innovadores para la detección e incluso la predicción de amenazas al statu quo.

Resulta importante señalar que las víctimas de esas nuevas formas de vigilancia seguirán siendo, de un modo desproporcionado y en términos de raza, clase y género, las víctimas tradicionales del colonialismo. Ya hemos visto ejemplos de ese tipo de sesgo: desde algoritmos de reconocimiento facial que producen falsos positivos cuando se trata de rostros no blancos (lo que puede dar lugar a encarcelamientos injustos), hasta modelos de IA que reducen progresivamente los salarios de los trabajadores por cuenta ajena vulnerables, pasando por sistemas que han producido resultados racistas a la hora de determinar el acceso a servicios de atención sanitaria, vivienda, educación o economía personal, sistemas de moderación de contenidos que no protegen a las mujeres o a las personas de género no binario, sistemas que abusan de la privacidad de migrantes y refugiados, etcétera.

El impacto de esos sistemas es muy real, y tiene como resultado la pérdida de privacidad, la pérdida de oportunidades, la pérdida de dignidad y, en algunos casos, la pérdida de la vida. En otras palabras, el colonialismo de datos extiende las formas de violencia racial, de género y de clase (así como la violencia medioambiental) que se han desarrollado en el contexto colonial durante cientos de años.

Conclusión

Resistirse a los modos coloniales de extracción, dependencia y control de la IA podría parecer imposible, tan imposible como pudo parecer desmantelar el legado del colonialismo. Pero siempre que ha habido colonialismo, ha habido resistencia, y tenemos una abundante historia de movimientos descoloniales en los que inspirarnos. Si no siempre fue posible oponerse al colonialismo con el cuerpo, siempre se le pudo oponer la mente, y es esencial que emprendamos formas colectivas y creativas de imaginar futuros alternativos al colonialismo de datos.

Ulises A. Mejías es catedrático de Estudios de la Comunicación en la Universidad Estatal de Nueva York (SUNY). Su próximo libro (con Nick Couldry) es ‘Data Grab: The new colonialism of big tech and how to fight back’. Es cofundador de Tierra Común (tierracomun.net), una red de activistas, educadores y académicos por la descolonización de los datos, y forma parte de la junta de directores de Humanities New York

LA VANGUARDIA