Call jóvenes autores | Algoritmos que predicen y guían nuestras conductas: una reflexión sobre inteligencia artificial, libertad y democracia

Anuario Internacional CIDOB 2021
Fecha de publicación: 07/2021
Autor:
Joan Rovira Martorell, doctorando en el programa Persona y Sociedad en el Mundo Contemporáneo, Universitat Autònoma de Barcelona
Descargar PDF

En el año 1996, el ordenador Deep Blue, desarrollado por la compañía IBM,se enfrentó al campeón mundial de ajedrez Garri Kasparov, a quien logró derrotar en una de las cuatro partidas que celebraron. Tan solo un año después, su pariente mejorado, Deeper Blue logró una victoria total sobre el mismo Kasparov, derrotándolo por 3 ½ puntos a 2 ½. En 2011, IBM volvió a sorprender con Watson, un sistema computacional que participó en el concurso televisivo estadounidense de preguntas Jeopardy!, donde imponiéndose a sus dos contrincantes humanos, consiguió el millón de dólares del premio final. Cinco años después, en 2016, Google presentó AlphaGo, un programario que se enfrentó a diversos maestros de go –un juego de estrategia originario de China y similar al ajedrez– derrotándolos en todas las partidas. Deep y Deeper Blue eran supercomputadoras tradicionales que calculaban algorítmicamente y a gran velocidad la mejor jugada posible de acuerdo con unas reglas preestablecidas. Watson, en cambio, se basaba ya en tecnología Big Data y respondía al lenguaje natural (no computacional): almacenaba enormes cantidades de información y buscaba correlaciones en los datos para ofrecer la mejor solución posible. Por su parte, AlphaGo era un machine learning, una máquina de Inteligencia Artificial (IA) con capacidad autónoma de aprendizaje que estuvo tres días seguidos simulando partidas de go y mejorando sus algoritmos de juego.

Esta pequeña recopilación de algunas de las victorias de la IA sobre los humanos pretende reflejar el mundo de posibilidades que han abierto los avances en la computación y la electrónica. Desde finales del siglo xx, junto con la expansión de la digitalización, el mundo se ha ido cubriendo de sensores, dedicados a la captación de todo tipo de parámetros y de datos que son procesados algorítmicamente, con múltiples finalidades. Estos datos alimentan los dispositivos que nos acompañan constantemente y que de manera cada vez más refinada y personalizada, asisten a nuestra toma de decisiones. Este hecho ha llevado a afirmar a algunos autores como Antoinette Rouvroy, Thomas Berns y Pablo Rodríguez que en nuestra sociedad existe un creciente gobierno algorítmico, que modula las conductas de los ciudadanos a través de la asistencia y decisión de los algoritmos. Este gobierno es útil, ya que nos libera de muchas tareas; sin embargo, es necesario garantizar sus bases democráticas, incidiendo en cuestiones clave como la opacidad, las decisiones algorítmicas, la falta de conocimiento de los órganos políticos y públicos sobre cómo opera la Inteligencia Artificial, la incapacidad de los legisladores para afrontar las necesidades en materia de privacidad, el choque entre los intereses comerciales y la libertad individual, o la falta de consciencia legal y ética de los técnicos que desarrollan los algoritmos, tal y como postula John Danaher. Actualmente el gobierno algorítmico está siendo diseñado y desarrollado principalmente por grandes empresas privadas, como Google o Facebook, que lo usan para monitorear nuestras conductas como consumidores y con ello generan “productos predictivos” que podrán después vender a terceros. 

El “Capitalismo de la Vigilancia”

En su reciente libro, La Era del Capitalismo de la Vigilancia (2019), que ha devenido una referencia, Shoshana Zuboff hace un repaso exhaustivo de la génesis y el desarrollo de una nueva economía que la autora bautiza como “Capitalismo de la Vigilancia”, y que pone el gobierno algorítmico al servicio de la predicción y conducción de conductas con fines comerciales. Google fue la empresa pionera en el negocio de los productos predictivos cuando entre 2002 y 2004, después de una caída de inversores, empezó a explotar comercialmente los datos almacenados por su algoritmo PageRank, que incluían información personal de los usuarios relativa, entre otras, a sus búsquedas y webs visitadas. Mediante estos datos –que Zuboff denomina “excedente conductual”– se crearon perfiles de los usuarios que permitían personalizar su publicidad, optimizando así las oportunidades de venta. Esta innovación implicó un nuevo paradigma económico que sustituía el trabajo creativo-intuitivo de los publicistas por patrones matemáticos de consumo procesados por algoritmos. El éxito de la nueva fórmula publicitaria fue inmediato y en cuatro años Google había aumentado en un 3.590% sus beneficios. Pronto surgieron más empresas dedicadas al procesamiento de datos con fines comerciales, como Facebook en 2004, y otras que incorporaron este nuevo negocio, como Microsoft o Amazon.

Zuboff señala dos etapas en el desarrollo del Capitalismo de la Vigilancia: un primer momento, dominado por el imperativo extractivo, y un segundo momento, guiado por el imperativo predictivo. El imperativo extractivo hace referencia a una primera ofensiva de estas empresas para capturar de forma masiva y completa el excedente conductual de los usuarios en la red, muchas veces vulnerando la privacidad de los ciudadanos. Este es el caso, por ejemplo, del proyecto de Google Street View, que dio evidencias de que además de fotografías de las calles, los vehículos de la empresa captaban ilegalmente datos de las redes wi-fi a modo de inventario. Estas invasiones masivas de la privacidad conllevaron batallas legales que se saldaron con sanciones y con la inclusión de políticas de privacidad más estrictas en las apps y las páginas web. Sin embargo, estas medidas se han mostrado insuficientes frente a las ambiciones de los capitalistas de la vigilancia que se han erigido como propietarios por derecho de nuestros datos.

El segundo momento descrito por la autora, el del imperativo predictivo, se divide en dos fases: la de la implementación de las economías de alcance y la de las economías de acción. La primera fase consiste en extender el imperativo extractivo del medio digital a la realidad misma mediante dispositivos. El desarrollo de objetos inteligentes como relojes, pulseras de ejercicio físico o neveras que administran su contenido, junto con la mejora de tecnologías como la del reconocimiento facial o de voz han permitido a estas empresas profundizar en los datos que obtienen de nosotros. Combinando datos biométricos, de voz y de ubicación, entre otros, los algoritmos pueden deducir y anticipar nuestros patrones de consumo. Esto nos lleva a la segunda fase, el de las economías de acción. Estas consisten en el despliegue de una serie de algoritmos que se encargan de actuar sobre el ambiente para empujarnos a la compra. Podemos pensar que estos “empujoncitos” a consumir son relativamente inocuos, pero la capacidad del Capitalismo de la Vigilancia de forjar nuestras conductas ha quedado demostrada también en el ámbito político, con su aplicación en las elecciones presidenciales estadounidenses o en el referéndum del Brexit. 

Monitorización, minería de datos y creación de perfiles

Según Rouvrov y Berns1, el proceso mediante el cual estas empresas acaban generando productos predictivos con los que canalizan nuestro consumo se divide en tres pasos que se dan en paralelo y en retroalimentación constante, de forma que los algoritmos siempre están actualizando los datos que procesan. El primero es la monitorización de los datos, recopilados masivamente a partir de nuestras búsquedas en la red, nuestros posts en las redes sociales, nuestros mensajes de mail y de WhatsApp, nuestras fotos, nuestras compras, las películas que miramos, los lugares por donde nos movemos, etc. El objetivo es “datificar” cada fragmento de nuestra realidad. En este paso se recopilan datos “en bruto” –como la cantidad de segundos que miramos un post– lo que, sin embargo, no es aún información. Es con la minería de datos, el segundo paso, que se genera información –datos interpretados– mediante el análisis estadístico de datos masivos, de los que se extraen patrones de relación (del tipo cuando ocurre A es probable que se dé B) y discordancias de datos (outliers). Finalmente, a través de la clusterización (agrupaciones y segmentaciones) de datos se generan perfiles de los usuarios, a partir de las preferencias que rebelan sus patrones de consumo, como, por ejemplo, los 1.300 perfiles genéricos (por gustos) en los que Netflix divide a sus 207 millones de usuarios en todo el mundo. Es a través de estos perfiles, que los algoritmos pueden personalizar los anuncios y las recomendaciones que nos llegan a nuestros dispositivos, así como actuar para conducirnos a consumir.

Es interesante señalar que los perfiles no se construyen a partir de categorías fijas –como por ejemplo el género, sino que recogen nuestras relaciones con las personas, los objetos y los contextos para hacer transparentes nuestros patrones de consumo e influir en ellos2. Conocen las influencias sociales, los estados mentales y las situaciones concretas bajo las que somos susceptibles de consumir. Nuestro perfil es tratado como algo móvil, que se adapta a cada situación concreta dependiendo de los datos recogidos en tiempo real, una capacidad altamente potenciada por la tecnología machine learning que pule constantemente sus códigos de acción. Nos encontramos pues, ante una capacidad de deducción y condicionamiento de nuestras conductas a través de los algoritmos que no tiene precedentes. 

¿Vivimos en 1984?

Es fácil caer en la tentación de hacer una analogía del Capitalismo de Vigilancia con la distopía orwelliana de 1984, con un Gran Hermano omnipresente y dispuesto a sancionar cualquier desviación de lo correcto. Sin embargo, no habitamos en una sociedad totalitaria, sino en algo diferente. Tanto las sociedades totalitarias como el Capitalismo de la Vigilancia comparten el objetivo de dominar de forma completa las conductas de la población; sin embargo, difieren en los medios y las estrategias. Mientras que las primeras ejercen el terror como fuerza motriz para moldear las almas de la población, el segundo se sirve de la seducción para modular las conductas con fines comerciales. Del mismo modo, mientras que el primero buscar homogeneizar, el segundo explota nuestras diferencias para conducirnos según intereses individuales. Mientras que el poder del totalitarismo es visible y centralizado, el del Capitalismo de la Vigilancia es sutil, inmanente e imperceptible. El primero coacciona, el segundo acompaña, motiva y cuida. Se trata de un tipo de gobierno que el filósofo Byung Chul-Han ha denominado “psico-político”; un gobierno que no se ejerce sobre nuestros cuerpos ni nuestras almas sino sobre nuestra mente reptiliana, emocional y pre-reflexiva: un poder que conoce nuestros deseos y los usa para conducirnos sibilinamente. La vertiginosa expansión del medio digital, sumada a la IA, ofrece muchas ventajas para nuestras sociedades de las que es posible beneficiarse; sin embargo, debemos comprender el peligro que conllevan para la democracia y la libertad individual, con el fin desarrollar las herramientas necesarias para que estén al servicio de los ciudadanos. 

Notas:

  1. Véase Rouvroy, A. y Berns, Th. “Gubernamentalidad algorítmica y perspectivas de emancipación. ¿La disparidad como condición de individuación a través de la relación?”. Agenda filosófica, diciembre de 2016, n.º 1.
  2. Véase Lury, C. y Day, S. “Algorithmic Personalization as a Mode of Individuation”. Theory, Culture & Society, n.º 36(2), 28 de enero de 2019, pp. 17-37.