Mención especial - Call jovenes autores | La Inteligencia Artificial en las redes sociales: ¿una nueva herramienta de los autócratas para subvertir el orden mundial actual?

Fecha de publicación: 09/2022
Autor:
Chonlawit Sirikupt

Internet y las redes sociales ocupan un lugar crucial en la realidad moderna. A medida que han ido evolucionando, ambos se han acabado convirtiendo en los medios predominantes para la difusión de la información. Sin embargo, en la medida en que las reglas y normas que gobiernan la arquitectura global de Internet empiezan a mostrar signos de fragmentación, las redes sociales se han convertido también en un ámbito que los autócratas utilizan en su intento de mantener y ampliar su poder en la era digital. 

Cuando Rusia empezó a utilizar las plataformas de las redes sociales como armas para sembrar la división en las sociedades democráticas de otros países por medio de la desinformación, inició la normalización de esa mala práctica. Desde las elecciones presidenciales estadounidenses de 2016, los autócratas han ido aprendiendo y adaptándose a estas praxis. Operaciones similares protagonizadas por China e Irán han tratado de promover sus objetivos de política exterior. Así mismo, países autoritarios más pequeños como Venezuela y Tailandia han seguido el ejemplo de sus homólogos más grandes, explotando Twitter para glorificar al régimen y acallar las voces prodemocráticas.

 Estos desarrollos han hecho tomar conciencia a la comunidad internacional del lado oscuro del moderno mundo digital: la distribución de información basada en la Inteligencia Artificial se está volviendo en contra de los valores democráticos de los que surgió. Los algoritmos y la automatización –las revolucionarias herramientas computacionales diseñadas en su momento para gestionar paquetes enormes de información y permitir a los individuos descubrir contenidos de valor intelectual, social y de entretenimiento– han sido adaptados para emplearlos con una nueva finalidad: como arma geopolítica estratégica y en las guerras políticas en dominios virtuales. 

Las nuevas finalidades de los algoritmos de las redes sociales 

El crecimiento de las redes sociales y la nueva «economía de la atención» de Internet crean nuevas posibilidades para segmentar por grupos a los usuarios de la Red y conocer sus preferencias, valores y creencias. Twitter y Facebook emplean ya algoritmos para analizar palabras, frases o hashtags y hacer aflorar contenidos personalizados. Estas funcionalidades integradas pueden crear inadvertidamente burbujas de filtros que permiten a los regímenes autocráticos explotar las vulnerabilidades de las plataformas utilizando cuentas online falsas, con el objetivo de coordinar campañas de influencia congruentes con sus objetivos geopolíticos. 

En el año 2016, según un informe del Senado de EEUU, las operaciones en Twitter de la Agencia Rusa de Investigación de Internet elaboraron dos grandes estrategias para influir en los votantes norteamericanos. En la primera de ellas, los especialistas de la Agencia gestionaron determinadas cuentas de Twitter en lengua inglesa pretendiendo ser ciudadanos estadounidenses auténticos, como por ejemplo un activista negro y una mujer blanca de ideología conservadora. Por otro lado, la Agencia también gestionó una red automatizada de cuentas de Twitter especialmente preparada para tener un efecto amplificador. Los mensajes que enviaba esta red explotaban temores, ansiedades y resentimientos que habían manifestado con anterioridad determinados estadounidenses en contra de los inmigrantes, de las minorías étnicas, de los principales medios de comunicación y de las élites, a quienes echaban la culpa de sus agravios sociales. 

Esta estrategia saboteadora ha sido replicada por China. Durante las manifestaciones prodemocráticas en Hong-Kong de los años 2019-2020, los activistas se movilizaron en las redes sociales para denunciar la brutalidad policial mediante grabaciones en directo emitidas en tiempo real a través de Internet. En respuesta, el gobierno chino, para desacreditar a los manifestantes, llevó a cabo operaciones de desinformación en Twitter y en Facebook utilizando cuentas falsas que simulaban ser cuentas personales, de empresas de mercadotecnia, de expertos en relaciones internacionales, de entusiastas partidarios de las criptomonedas y de diversos medios de comunicación de Hong Kong. 

Además de para los ecosistemas de sabotaje, las explotaciones algorítmicas también sirven para silenciar a los disidentes. China ha usado en su propio territorio la técnica de la ingeniería inversa para manipular algoritmos con el fin de crear una arquitectura global de la Red en el que las redes sociales puedan ser nacionalizadas y controladas por el Estado. En Weibo, el sitio web generalmente conocido como «la versión china de Twitter», la detección automática de contenido sensible es extremadamente estricta. El uso en una cuenta de determinadas palabras clave que hagan alusión a las manifestaciones históricas en contra del régimen, como la de 1989 en la Plaza Tiananmén, provocan la intervención automática de la censura. 

Subida de nivel: ¿hacia una subversión asistida por la IA? 

Las investigaciones realizadas sobre las operaciones online de Rusia con la finalidad de influir en otros países sugieren que sus efectos estratégicos han sido exagerados y no muy efectivos por lo que respecta a conseguir cambios en las posiciones en política exterior de los países tomados como objetivo. Pero no podemos dar esto por sentado. Hoy en día la baja efectividad no es necesariamente un impedimento para las actualizaciones. Tanto Moscú como Beijing ya han manifestado abiertamente su pretensión de ganar la carrera de la IA. La posibilidad de que puedan subvertir el potencial de la IA de código abierto y las herramientas y conceptos de aprendizaje automático desarrollados por comunidades occidentales de IA, y mejorar la calidad de las operaciones en su territorio y en el extranjero, es una preocupación muy real de carácter ético y político. 

El Procesamiento de Lenguajes Naturales (PLN), una herramienta de aprendizaje automático que capacita a los ordenadores para leer, escribir, interpretar y generar textos, es particularmente vulnerable. El uso del lenguaje algorítmico, que ha sido útil en la detección del discurso del odio en las democracias, ya ha servido también para fortalecer regímenes censores. Escándalos como el de la consultora británica Cambridge Analytica, que recopiló datos de millones de usuarios de Facebook sin su consentimiento, prefiguran el abuso del análisis de opiniones, lo que se ha utilizado para ayudar a las empresas a analizar las críticas de los usuarios a restaurantes, películas y productos. Los autócratas podrían utilizar este tipo de herramientas para sondear las inclinaciones políticas e ideológicas de los usuarios sobre la base de los mensajes que cuelgan estos en las redes sociales. Esto podría posteriormente combinarse con un programa de generación de textos similar al GPT-3 (Generative Pre-trained Transformer), que se basa en modelos de lenguaje profundo aprendidos a partir de un corpus enorme de lenguajes con una gran riqueza de recursos, como el inglés, y que permite a las máquinas producir textos muy parecidos a los creados por un humano. 

La cooperación digital entre autócratas de diferentes partes del mundo ya es una realidad. Zimbabwe y Angola han firmado tratados de asociación con empresas chinas para que estas proporcionen IA a sus regímenes gobernantes, todo ello bajo los auspicios de la iniciativa estratégica de China One Belt One Road. En Venezuela, el gobierno del presidente Maduro también ha firmado un contrato con ZTE, una empresa china de telecomunicaciones, para elaborar, entre otras cosas, una «base de datos patriótica» y rastrear información personal individual como la que aparece en las cuentas de las redes sociales. Este escenario empoderaría a los autócratas, que, armados con un sistema de supervisión de las redes sociales asistido por la IA, podría socavar aún más los fundamentos de un orden liberal internacional. 

La normalización de los algoritmos de confianza 

La existencia de visiones contrapuestas entre la UE y Estados Unidos sobre la gobernanza de Internet ha tenido como consecuencia la falta de un estándar común para regular los algoritmos de las redes sociales. Mientras que la UE prioriza la protección de datos y los códigos abiertos por diseño, Estados Unidos ha optado por la autorregulación y persecución de las prácticas engañosas. Las empresas que administran las principales redes sociales normalmente han seguido este último enfoque. En consecuencia, han sido inconsistentes y menos transparentes acerca de cómo aplican sus políticas y procedimientos para hacer frente al problema. Sus regímenes individuales de comunicación y revelación, si bien constituyen un desarrollo positivo, ofrecen solo una ventana limitada de transparencia por cuanto tienden a revelar datos a sus socios de confianza que redactan informes describiendo lo que han descubierto las plataformas, en vez de publicar en su totalidad los datos del incidente. 

Un mundo en el que se utilizan la Inteligencia Artificial y el Aprendizaje Automático para enriquecer la vida de los seres humanos requiere un marco de gobernanza basado en normas compartidas sobre responsabilidad, rendición de cuentas y confianza. Como primer paso, las Naciones Unidas deberían impulsar el desarrollo de unas directrices éticas claras para el uso de estas tecnologías con la finalidad de fomentar la aplicación de las mismas en todo el mundo. Si bien esto no impediría las explotaciones autocráticas, proporcionaría un punto de referencia crucial para que los ciudadanos puedan denunciar las malas prácticas. 

Al mismo tiempo, el cambio de política debería ir acompañado de una colaboración cruzada y de una armonización. La UE y Estados Unidos deberían tomar la iniciativa en la construcción de una coalición de países que se comprometieran con los intermediarios en la reforma de los algoritmos de recomendación. Las soluciones deberían empoderar a los usuarios capacitándolos para tomar decisiones con conocimiento de causa sobre hasta qué punto deberían personalizarse los algoritmos. Las principales empresas que administran las redes sociales, como Twitter, Facebook o YouTube deberían adoptar medidas para compartir sus bases de datos sobre incidencias, entre ellos y con los gobiernos y los analistas investigados, con el objetivo de coordinar mejor la respuesta contra la manipulación en las plataformas por parte de los estados. 

Normalizar los usos responsables de la IA en las redes sociales no es ni fácil ni rápido; es un enfoque que requiere compromisos inmediatos y continuos. Este proceso no puede detenerse si nuestro objetivo es garantizar que la revolución de la Inteligencia Artificial continúe reflejando los valores democráticos de los que surgió y no que pase a ser un eficaz instrumento en manos de los autócratas globales.