Opinión pública masiva: colonización algorítmica y sintetificación de la esfera pública

Revista CIDOB d'Afers Internacionals_138
Fecha de publicación: 12/2024
Autor:
Carlos Saura García y Patrici Calvo
Descargar PDF

Carlos Saura García, investigador predoctoral, Departamento de Filosofía y Sociología, Universitat Jaume i de Castelló (España). saurac@uji.es. ORCID: https://orcid.org/0000-0001-6047-8573 

Patrici Calvo, profesor Titular de Filosofía moral. Departamento de Filosofía y Sociología. Universtat Jaume I de Castelló (España). calvop@uji.es. ORCID: https://orcid.org/0000-0002-3228-9019 

Este artículo profundiza en el cambio estratégico de la manipulación de la opinión pública por medio de la colonización algorítmica, el imperialismo tecnológico, la generación de datos y la creación de contenidos sintéticos. Ello es utilizado por organizaciones gubernamentales, grandes corporaciones tecnológicas y poderes económicos para amenazar la integridad de la democracia a través de la alteración de los procesos de racionalización y sentido, así como los flujos de comunicación implicados, lo que conduce a la aparición de patologías sociales, anomalías y distorsiones en la esfera pública digital. El objetivo de este artículo es mostrar las principales estrategias vinculadas con las tecnologías digitales disruptivas para la creación de sentido y la manipulación de la opinión pública y, especialmente, criticar los impactos y desafíos que subyacen a este nuevo contexto democrático algoritmizado, sintetificado y masivo para la propia opinión pública y la democracia.

Introducción: de la opinión mayoritaria a la opinión masiva

La dependencia de la ciudadanía de las sociedades modernas de multitud de plataformas digitales (X, Facebook, Instagram, TikTok, Metaverso, etc.) y el desarrollo de los fenómenos de la hiperconectividad, la algoritmización y la dataficación han originado que la esfera pública digital aumente su tamaño hasta ocupar prácticamente la totalidad de los espacios de la esfera pública (Hagen et al., 2017). Este acoplamiento e hibridación de ambas esferas está originando grandes cambios en los procesos de construcción de la opinión pública y en el propio sistema democrático (Habermas, 2023). Con la consolidación de la segunda era de la inteligencia artificial (IA), la opinión pública se ha convertido en objeto de deseo de organizaciones gubernamentales, grandes corporaciones tecnológicas y poderes económicos alrededor del mundo (García-Marzá y Calvo, 2022 y 2024; Woolley, 2023).

Estos colectivos han realizado una construcción de la opinión pública de diversas formas. Por una parte, a través de los mecanismos de funcionamiento de la esfera pública digital fuertemente vinculados con las influencias sociales, se ha intentado imponer un espiral del silencio (Noelle-Neumann, 2010) que potencie que las opiniones de los individuos se acerquen y se alineen alrededor de la opinión mayoritaria o, en caso de que no sea así, que el valor, la importancia y el peso de estas opiniones en la esfera pública digital sea silenciado, reducido o eliminado (Sunstein, 2017 y 2019). Por otra parte, se han desarrollado instrumentos e infraestructuras de introducción de datos y contenidos sintéticos y difusión artificial de estos en la esfera pública digital para generar ruido, alterar el funcionamiento de los algoritmos de las plataformas digitales, distorsionar de forma artificial la opinión pública1 y crear una «opinión pública sintética» (Saura García y Calvo, 2024).

En la actualidad, empero, la disruptiva e implacable colonización algorítmica de la esfera pública y de la propia democracia ha sufrido un giro estratégico. Ya no se trata tanto de inundar todo el ciberespacio con datos y contenidos sintéticos para influir y manipular los procesos de formación de la opinión pública, así como potenciar el desarrollo de un patrón totalmente ficticio creado de forma artificial en favor de los intereses de determinados colectivos que introducen los propios datos y contenidos (García-Marzá y Calvo, 2022; Woolley, 2023); sino que ahora se actúa por medio de diversos instrumentos e infraestructuras en dos niveles distintos: uno subsistémico (en la esfera pública digital), en el cual se introducen aquellos datos que permitan la construcción del patrón de opinión pretendido, y otro sistémico (en la esfera privada y gubernamental), en el cual se detectan exclusivamente los patrones de opinión de la esfera pública digital deseados2.

En este contexto, el objetivo de este artículo teórico-práctico es detallar las diversas estrategias, vinculadas con las tecnologías digitales disruptivas, para la creación de sentido de forma artificial y sintética y para la manipulación de la opinión pública, así como ofrecer una crítica de los impactos y consecuencias que esto puede tener para la sociedad y los sistemas democráticos3. Para ello, en primer lugar, partiendo de las reflexiones de pensadores como Alexis de Tocqueville y John Stuart Mill, se expondrá el concepto de opinión pública mayoritaria y su influencia en la nueva esfera pública digital, y los peligros que esta implica para la democracia. En segundo lugar, se detallarán las principales características de la «opinión pública sintética» promovida por las tecnologías de la segunda era de la IA. En tercer lugar, se profundizará en el concepto de «opinión pública masiva» y, finalmente, desde una perspectiva ético-crítica, se valorarán peligros actuales y potenciales que subyacen a la nueva situación contextual generada por la irrupción de la citada «opinión pública masiva», tanto para la democracia como para la propia opinión pública4.  

La tiranía de la mayoría en la esfera pública digital

El exponencial proceso de hiperconectividad, dataficación y algoritmización de todos los ámbitos, tareas y funciones de las democracias en las sociedades modernas, entendidos en sentido amplio (político, económico y social), está potenciando los peligros que amenazan la existencia de las propias democracias ya enunciados por Alexis de Tocqueville en la primera mitad del siglo xix y por John Stuart Mill en la segunda mitad del mismo siglo. Entre las citadas amenazas destacan especialmente las vinculadas con la opinión pública, como son la omnipresencia de la opinión mayoritaria, la opresión ideológica de las masas, los efectos negativos de la conformidad, la imposición del silencio, las revoluciones mudas, etc. (Mill, [1861]1972; Tocqueville, [1835-1840]1988). Tanto Tocqueville primero como Mill después subrayan los graves problemas que puede causar en el correcto funcionamiento de la democracia una tiranía de la mayoría, haciendo referencia a la dominación de la opinión pública por la llamada opinión mayoritaria. En su análisis de la democracia de los Estados Unidos en el siglo xix, Tocqueville argumentaba que: «(…) la mayoría tiene un inmenso poder de hecho y un poder de opinión casi igual de grande, y una vez que ha decidido respecto a una cuestión no hay, por así decir, obstáculos que puedan, no diré que detener, sino ni siquiera retrasar su marcha y dejarle tiempo para escuchar las quejas de aquellos que aplasta al pasar» (ibídem: 244).

La dominación de la mayoría expuesta por Tocqueville supone una emergencia en relación con el libre pensamiento y reflexión, y da lugar a una situación en la cual el poder de la mayoría restringe la propia libertad de espíritu y la libertad de discusión de la ciudadanía provocando la desaparición de la crítica y la posibilidad de cambio dentro de la democracia. La tiranía de la mayoría predomina sobre el sentido común, el buen juicio y la propia justicia, lo que provoca que los equilibrios subóptimos se impongan en los procesos de construcción del saber moral y que la reproducción, la repetición y el silencio se adueñen de los espacios de deliberación y dialogo (ibídem). Tocqueville resume estos efectos nocivos diciendo que: «la mayoría traza un círculo formidable alrededor del pensamiento. Dentro de esos límites, el escritor es libre. Pero pobre de él si se atreve a salir de ellos» (ibídem: 250).

Los efectos de la tiranía de la mayoría provocan la marginación de la crítica, el atrofiamiento de la opinión pública y la progresiva homogeneización de esta dentro de una opinión mayoritaria conformada a partir de un conjunto de ideas y acciones intuitivas y automatizadas que han colonizado las formas de pensar, actuar, sentir y vivir de los ciudadanos. En relación con este tema, tanto Tocqueville como Mill argumentan que las mayorías no tienen necesidad de poder político para imponer su dominación social. Por una parte, Tocqueville sostiene que «estar en desacuerdo con la masa equivale, por decirlo así, a no vivir. Esta no tiene necesidad de emplear las leyes para doblegar a los que no piensan como ella, le basta con desaprobarlos. El sentimiento de su aislamiento y su impotencia les abruma y desespera» (ibídem: 307). Por otra parte, Mill subraya el mismo problema cuando afirma que la sociedad misma «(…) practica una tiranía social más formidable que muchos tipos de opresión política, ya que, aunque generalmente no se sustenta con penas tan extremas, deja menos vías de escape, penetra mucho más profundamente en los detalles de la vida y esclaviza el alma misma» (Mill, [1859]1977: 220)5.

Para Tocqueville y Mill, por consiguiente, a la masa le es suficiente con su poder, basado en la sensación de legitimación por la mayoría social, para imponer su homogeneidad intelectual y comportamental y aplicar correctivos disuasorios sobre las minorías. Es decir, la opinión mayoritaria se expande impulsada por una masa de personas que impone una espiral del silencio en la cual todo lo que sea o parezca diferente a la opinión mayoritaria y toda persona que piense o parezca diferente es excluida, silenciada y reducida (Noelle-Neumann, 2010). De ahí que tanto Tocqueville ([1835-1840]1988) como Mill ([1861]1972) alerten de la emergencia de las prácticas despóticas y tiránicas de la opinión mayoritaria, de sus impactos en el funcionamiento de los sistemas democráticos y de la necesidad de hacer frente a estas prácticas y evitar la colonización de la opinión pública y la democracia por parte de una opinión mayoritaria caracterizada por ser agregativa y robusta a cualquier tipo de crítica y a la cual todos los ciudadanos se adhieren y ninguno se atreve a criticar.

En el contexto actual de esfera pública digital, los impactos negativos de las prácticas despóticas y tiránicas de la opinión mayoritaria sobre la opinión pública y los sistemas democráticos expuestos por Tocqueville y Mill se ven representados y potenciados por diversos fenómenos vinculados con las influencias sociales como, por ejemplo, la conformidad social y las cascadas de opinión (Sunstein, 2017 y 2019; Aral, 2021). Por una parte, la promoción de conformidad en ecosistemas digitales tiene que ver, principalmente, con la influencia directa de las creencias y los comportamientos de otras personas. Ello se visualiza claramente en el papel que juegan las cámaras de resonancia de las plataformas digitales basadas en mecanismos algorítmicos (Pariser, 2011; Sunstein, 2017; Lanier, 2018; Williams, 2021). Por otra parte, las cascadas de opinión en la esfera pública digital se originan como consecuencias de las llamadas influencias informacionales y reputacionales y hacen referencias a los conjuntos de personas que disminuyen su crítica y aceptan una opinión o una idea debido a las creencias o acciones trasmitidas por determinadas noticias o personas (Sunstein, 2017 y 2019; Aral, 2021). 

De esta forma, los fenómenos de la cohesión y las cascadas de opinión de grupo en la esfera pública digital acentúan los problemas vinculados con el despotismo y la tiranía de la opinión mayoritaria expuestos por Tocqueville y Mill en el siglo XIX, pero esta vez en el siglo XXI. En un contexto social totalmente digitalizado como el actual, dichos efectos producen un gran impacto negativo en la opinión pública y los sistemas democráticos. Sin embargo, estos representan una sola parte del proceso de instrumentalización de la esfera pública digital para influenciar, controlar, manipular la opinión pública. En la actualidad, las grandes corporaciones digitales, las grandes organizaciones gubernamentales y los poderes económicos han desarrollado y perfeccionado otra forma de aplicar la tiranía y el despotismo mucho más sutil, eficiente y eficaz a través de mecanismos tecnológicos. Esta forma busca aprovechar la generación y difusión de contenidos sintéticos, la alteración del funcionamiento de los algoritmos de las plataformas digitales y la vigilancia social masiva con el objetivo de potenciar la distorsión de los procesos de construcción de opinión pública mediante su sintetificación; es decir, a través de verter sobre ellos conjuntos de datos sintéticos capaces de generar «opinión pública sintética» (Saura García y Calvo, 2024; García-Marzá y Calvo, 2024). 

La construcción de una «opinión pública sintética»

El constante desarrollo de las tecnologías de la información y la comunicación (TIC) en la primera década del siglo XXI fue esencial para la constitución de una «sociedad red» basada en las redes de información y comunicación digital (Castells, 2006). Esta sociedad red potenció y produjo multitud de cambios políticos, económicos y sociales entre los que destacan la hibridación entre los medios de comunicación tradicionales y los medios de comunicación digitales, el incremento de la interacción de la ciudadanía por medio de la dinamización y multiplicación de las formas de comunicación o la transformación y digitalización de la opinión y la esfera pública (Papacharissi, 2002 y 2010; Carpentier, 2011; Chadwick, 2013).  

La evolución de la nueva situación política, económica y social propiciada por el desarrollo de las tecnologías digitales y, especialmente, las plataformas sociales produjo, en un primer momento, un incremento de las posibilidades de participación democrática de la ciudadanía y un empoderamiento de esta (Papacharissi, 2010; Tufekci, 2017). Sin embargo, con el paso del tiempo, el avance de la hiperconectividad, dataficación y algoritmización de todos los ámbitos, tareas y funciones de las democracias en las sociedades modernas ha propiciado que esta situación cambie y se haya revertido, lo que ha dado lugar a impactos negativos para la soberanía, autonomía y autodeterminación de la ciudadanía, deformándose la libre e igual participación democrática y concentrándose la esfera pública digital en un pequeño grupo de plataformas y servicios digitales propiedad de grandes corporaciones digitales. Ello ha socavado las condiciones básicas para el correcto funcionamiento de los sistemas democráticos (Saura García, 2022 y 2024; Habermas, 2023; García-Marzá y Calvo, 2024).

Las características de las plataformas digitales gestionadas por las grandes corporaciones tecnológicas del mundo han convertido la esfera pública digital en un espacio de hibridación donde convergen acciones, actividades, contenidos y opiniones procedentes tanto de actores humanos como no humanos (García-Marzá y Calvo, 2022 y 2024; Millière, 2022). Este hecho está posibilitando la construcción de una «opinión pública sintética» basada en la introducción de grandes cantidades de contenidos de forma artificial, en la creación de una infraestructura de vigilancia social masiva y en la instrumentalización de la llamada algoresfera6. Ante esta situación, las amenazas para la democracia descritas por Tocqueville  y Mill se acrecientan y se potencian por medio de nuevos fenómenos como el despotismo tecnológico, el individualismo digital y la tiranía algorítmica.

La «opinión pública sintética» está constituida, en mayor medida, por grandes conjuntos de contenidos basados en datos sintéticos generados, vertidos y esparcidos por usuarios, instrumentos y mecanismos artificiales totalmente computarizados, automatizados y algoritmizados y, en la mayoría de los casos, controlados, financiados y dirigidos parcial o totalmente por las grandes corporaciones digitales, las grandes organizaciones gubernamentales y los poderes fácticos. En menor medida, aquella está constituida por los contenidos naturales introducidos por la ciudadanía, es decir, por «autores autóctonos»,  que utilizan la esfera pública digital para expresar y discutir sus opiniones con el objetivo de ponerse de acuerdo sobre diferentes cuestiones de este mundo, y por «públicos usufructuarios», que la utilizan para lograr sus intereses e instrumentalizar a la ciudadanía (Habermas, 1998 y 2023). Pero el objetivo primario de la «opinión pública sintética» no es adulterar la opinión pública por medio de contenidos naturales creados por personas reales, sino inundar la esfera pública digital con datos y contenidos creados artificialmente con el propósito de generar realidad y sentido de forma totalmente artificial en y sobre cualquier tema, así como de crear una opinión pública maciza que no se pueda ver afectada o alterada por ningún tipo de crítica. 

Sobre este punto, cabe destacar que la capacidad de generar cantidades ingentes de contenidos sintéticos y la hibridación de estos con los creados por humanos provocan que las personas sean incapaces de detectar la sinteticidad de los contenidos e interpreten todos los contenidos de la esfera pública digital como naturales, atribuyéndolos directamente a contenidos creados por personas. A este hecho se le suma la imposibilidad en muchos casos de identificar y verificar los contenidos engañosos o directamente falsos introducidos deliberadamente por «públicos usufructuarios» con la intención de persuadir, manipular o adulterar la opinión pública, es decir, mediante fake news, desinformación, propaganda computacional, deep fakes, entre otros (Habermas, 2023; Meikle, 2023; Woolley, 2023) y, ahora, a través de deep-synthetic (Calvo y Saura García, 2024). 

La fabricación de la «opinión pública sintética» se basa, principalmente, en la creación, inundación y propagación de contenidos creados artificialmente por la IA generativa en la esfera pública digital. Sin embargo, no hay que pasar por alto que también utiliza, por una parte, los mecanismos de los fenómenos de influencia social de las plataformas digitales analizados en la primera sección y, por la otra, la propagación de contenidos personalizados a cada usuario humano con el objetivo de maximizar la generación de realidad y sentido a fin de potenciar los efectos de influencia, control, persuasión y manipulación interesada de la opinión pública de forma artificial. Los tres pilares fundamentales sobre los que se construye la «opinión pública sintética» son a) la intoxicación informativa, b) la colonización algorítmica y la instrumentalización de la esfera pública digital, y c) la vigilancia social masiva.

a) La intoxicación informativa hace referencia al uso por parte de gobiernos, grandes corporaciones digitales, partidos políticos, personajes multimillonarios o «públicos usufructuarios» en general de las nuevas tecnologías digitales disruptivas para adulterar y manipular la opinión pública por medio de la utilización, principalmente, de bots sociales (Howard, 2020; Ottaviani, 2022; Woolley, 2023). Los bots sociales hacen referencia a cuentas de las plataformas sociales controladas sobre todo por algoritmos dedicados a crear, introducir y propagar contenidos artificiales para interactuar con usuarios o con otros bots y alterar la opinión pública de forma específica (Chang et al., 2021; Hajli et al., 2022). La fuerte irrupción en noviembre de 2022 de la IA generativa y especialmente de los modelos de lenguaje extensivo (LLM, por sus siglas en inglés) ha revolucionado el funcionamiento y los impactos de los bots sociales en las plataformas digitales (García-Marzá y Calvo, 2024). Por una parte, ha potenciado la inundación de contenido sintético y la propagación de fake news, desinformación o propaganda computacional en la esfera pública digital (Howard, 2020; Woolley, 2023) y, por la otra, ha aumentado exponencialmente la calidad, la minuciosidad y la personalización de los contenidos falsos y de los llamados deep fakes (Woolley, 2020; Meikle, 2023); finalmente, ha producido un nuevo fenómeno de perversión de la opinión pública: las deep-synthetic (Calvo y Saura García, 2024), es decir, aquella información que, sin ocultar que se trata de un conjunto de datos y metadatos sintéticos generados por IA generativa, es capaz de influir de forma más profunda y eficiente en la voluntad libre de la ciudadanía gracias al patrón comportamental que le subyace.

b) La colonización algorítmica y la instrumentalización de la esfera pública digital han provocado la transformación de esta última en una algoresfera controlada por las grandes corporaciones tecnológicas o por poderes fácticos, personajes multimillonarios o gobiernos (Bartlett, 2018; Moore, 2018; Da Empoli, 2020). Por una parte, la mayoría de los algoritmos que componen esta algoresfera están gestionados por las grandes corporaciones digitales del planeta –que a su vez son las creadoras y dominadoras del capitalismo de la vigilancia– con el objetivo de satisfacer sus intereses económicos (Zuboff, 2020); y, por la otra parte, dichos poderes fácticos, personajes multimillonarios o gobiernos realizan campañas de alteración y manipulación de los algoritmos de las plataformas sociales a partir de la utilización de las API (Application Programming Interface). Las API hacen posible la intercomunicación entre diversas aplicaciones y programas, originándose la alteración y manipulación interesada del funcionamiento de los algoritmos de plataformas, como Facebook, Instagram, X o Google, principalmente por medio de la recreación de movimientos o contenidos artificiales o sintéticos que engañen a los algoritmos (Aral, 2021; Woolley, 2023).

c) La vigilancia social masiva, por su parte, también es ejercida por las grandes corporaciones digitales y gobiernos o poderes públicos (Jiang y Fu, 2018; Snowden, 2019; Ebeling, 2022). La infraestructura de la vigilancia social masiva existente ha dado lugar a un panóptico digital que hace posible observar, dataficar y explotar todos los clics, los movimientos, las reacciones, las opiniones, etc., dentro de la esfera pública digital y los ecosistemas ciberfísicos (Zuboff, 2020), así como vigilar y dataficar a través de dispositivos invasivos o no invasivos los espacios íntimos de las personas al objeto de explotar grandes conjuntos de datos íntimos relacionados con aspectos corporales, sentimentales, desiderativos o mentales (Farahany, 2023). 

Los efectos conjuntos de estos aspectos han creado una opinión pública sintética que se mantiene inmóvil y robusta, que no se ve afectada por ningún tipo de crítica, que quiebra y destruye la opinión pública y que está construida, controlada y dirigida por grandes corporaciones digitales, gobiernos, poderes públicos y otros poderes fácticos (García-Marzá y Calvo, 2024). Al respecto, destacan las siguientes consecuencias: 

-Rotura de la acción comunicativa. La desintegración de la acción comunicativa y la personalización de contenidos desembocan en un incremento del individualismo digital, la destrucción de los espacios discursivos y la potenciación del autoadoctrinamiento (Habermas, 2023).

-Dataficación de la opinión. No se realiza una reflexión y valoración de las manifestaciones, acciones u opiniones de las personas, sino que solamente un cálculo computacional de los datos y metadatos de conjuntos de usuarios –humanos o no humanos– en relación con diversos temas (García-Marzá y Calvo, 2022).

-Monopolización de la esfera pública. La esfera pública digital –y los grandes conjuntos de datos que emanan de ella– está gestionada, controlada, mercantilizada e instrumentalizada por las grandes corporaciones digitales (Saura García, 2022).

-Preeminencia de los contenidos sintéticos y artificiales. El uso de las API y de los bots sociales con IA generativa ha propiciado la inundación de contenidos sintéticos y la propagación de fake news, deep fakes, desinformación o propaganda computacional automatizada (Woolley, 2020 y 2023).

-Dificultad para diferenciar entre lo sintético y lo real. La imposibilidad de distinguir entre las acciones, actividades, contenidos u opiniones procedentes de actores humanos y las producidas por actores no humanos provoca que las personas en primer lugar los identifiquen todos como realizados por actores humanos (Woolley, 2020 y 2023).

-Vigilancia ubicua. Existencia de una infraestructura que monitoriza, vigila y datafica constantemente la esfera pública digital y también los espacios privados e íntimos de la ciudadanía (Zuboff, 2020; Farahany, 2023).

Las citadas consecuencias ponen de manifiesto y agravan los principales problemas que se producen para el correcto funcionamiento y la buena salud de las democracias enunciados por Tocqueville y Mill, por diversas razones. En primer lugar, potencian un desequilibrio de los principios de libertad e igualdad de la ciudadanía, necesarios para el correcto funcionamiento de la opinión pública y de la democracia. En segundo lugar, promocionan prácticas nocivas para el correcto funcionamiento de la opinión pública y la democracia, como son el despotismo tecnológico, la tiranía algorítmica y el individualismo digital. En tercer lugar, promueven una colonización de la opinión pública real a través de una «opinión pública sintética», que es impermeable y monolítica ante la crítica creada de forma artificial por poderes públicos, económicos o fácticos basada en la omnipresencia de su opinión, la opresión ideologíca de las masas y la imposición del silencio.

Recientemente, la dominación disruptiva de la esfera pública digital, la opinión pública y la propia democracia han sufrido un giro estratégico y, en cierto modo, inesperado. Ya no se trata solo de inundar todo el ciberespacio con datos masivos para influir y manipular. Ahora se actúa en dos niveles: uno sistémico y otro subsistémico. Por un lado, uno que opera en la esfera pública digital (subsistema) –detectando y proporcionando aquellos datos que permitan la construcción del patrón deseado– y otro que opera en la esfera privada y gubernamental (sistema) –captando específicamente los patrones de opinión de la esfera pública digital deseados–.

«Opinión pública masiva»: el impacto de los políticos algorítmicos

Fruto de los últimos avances tecnológicos en procesamiento del lenguaje natural (PLN), especialmente en el desarrollo y uso de la IA generativa y algoritmos estocásticos –como el ChatGPT (Generative Pre-trained Transformer) de Open IA, el Gemini de Google, el Llama de Meta o el Claude de Anthropic–, desde 2017 los llamados políticos algorítmicos o virtuales han ido ganando peso, fuerza y presencia en los procesos políticos de elección de representantes, toma de decisiones, deliberación y resolución de conflictos, generación de programas electorales, construcción de opinión política y sentido social, así como de desarrollo de políticas públicas.

Este proceso comenzó su andadura en 2017 con SAM y Alisa, los primeros intentos de presentar un algoritmo de IA a unas elecciones presidenciales de un país democrático (Nueva Zelanda y Rusia, respectivamente). Continuó su desarrollo en 2019 con IA-Mayor, el primer algoritmo de IA que consiguió participar de facto en unas elecciones municipales (Tama New Town, Tokio, Japón), y en 2022, con Leaders Lars, el primer partido político (Det Syntetiske Parti) compuesto íntegramente por un algoritmo de IA que participó en unas elecciones presidenciales (Dinamarca). Y se consagró en 2023, con ION, la primera IA nombrada oficialmente como consejera presidencial de un Gobierno democrático, en Rumania (García-Marzá y Calvo, 2024)7. El caso ION es especialmente significativo para la democracia, ya que, dado su reconocimiento público y oficialidad gubernamental, marcó un punto de inflexión en la aplicación e implementación de un enfoque algorítmico de democracia: primero, porque ION es el primer ente no-humano que ha sido nombrado oficialmente como consejero de un Gobierno democrático (Rumanía); segundo, porque la oficialidad de ION no se esconde detrás de un subterfugio legal, un alter ego humano u organizacional como en los casos de Alisa, SAM, IA-Mayor y Leaders Lars; y, tercero, porque sus recomendaciones e informes, aunque no son vinculantes, tienen línea directa con el máximo representante gubernamental.

Tal y como lo describió el Gobierno rumano en su presentación pública, ION –que significa nosotros en rumano– es una IA basada en lenguaje extensivo (LLM) que recopila información directa de la ciudadanía a través de su web oficial, e indirecta mediante el rastreo de las redes sociales con el objetivo de conocer el sentir mayoritario y las preferencias e intereses de la ciudadanía rumana digitalmente hiperconectada. A través de ello, responde preguntas, eleva informes técnicos y asesora al presidente del Gobierno rumano sobre un tema concreto: «ION –la aplicación desarrollada por los mejores investigadores y profesores rumanos en este campo– representará el eslabón perdido de la comunicación en tiempo real y en el siglo xxi entre ciudadanos y gobiernos, un sistema que utilizará la IA, el procesamiento de lenguaje natural y la visión por ordenador para captar de forma rápida y automática las opiniones de los rumanos utilizando los datos disponibles públicamente en las redes sociales. (...) ION será la versión moderna de la antigua ágora, un vínculo entre los ciudadanos y los responsables de la toma de decisiones, donde la voz de todos podrá ser escuchada» (ION, s/f: 1).

En el informe técnico del proyecto ION, disponible en la web del Gobierno rumano, se describen y justifican los dos objetivos principales del desarrollo e implementación práctica del proyecto (ibídem: 9): 

-Participación directa de la ciudadanía en la toma de decisiones política. ION identifica, recopila, procesa y agrupa la información más relevante de las redes sociales para identificar los principales intereses de la ciudadanía. Para ello, en primer lugar, sondea las redes en busca de aquella información vinculada con el tema a tratar que ha recibido más likes y comentarios (relevancia). En segundo lugar, analiza la información recopilada a través de métodos de PLN y aprendizaje profundo. Finalmente, utiliza técnicas y métodos de data mining como el clustering para agrupar la información y determinar los intereses y las preferencias de la ciudadanía

-Seguimiento continuo de las repercusiones, los resultados y las dinámicas. ION, una vez determinados y difundidos entre los políticos los intereses de la ciudadanía alrededor de un tema concreto, se preocupa de realizar un seguimiento continuado de los resultados que estos van teniendo en las políticas públicas y su repercusión práctica, así como sobre la evolución que tales intereses tienen para evitar anacronismos que aumenten la brecha entre los gobernantes y los ciudadanos.

Más allá de lo anecdótico del caso, ION simboliza la conquista de la última frontera de la algoritmización de la democracia: la oficialidad de los políticos virtuales. Si hasta 2023 la participación democrática de los políticos virtuales se había logrado a través de un subterfugio legal, amparándose en una identidad humana –Michihito Matsuda y Leader Lars–, con el reconocimiento oficial de ION como cargo público se han roto no solo barreras legales, sino también las psicológicas, sociales y culturales. Además, ION ha producido la emergencia de dos fenómenos subyacentes: la hegemonía de la opinión masiva y el reacoplamiento del mundo sistémico (Estado y mercado) y el mundo de la vida (objetivo, intersubjetivo y subjetivo) a través de la expansión de la algoresfera y su hibridación e influencia profunda en la esfera política. La «opinión pública masiva», consiste en la reducción a datos computables y patrones comportamentales de todos los resultados que producen cada uno de las tres formas de opinión (mayoritaria, artificial/sintética y pública) que se producen en la esfera pública para, desde un criterio binario, procesarlos, analizarlos y convertirlos en información relevante y conocimiento aplicable para la toma de decisiones, la resolución de conflictos o la elaboración y desarrollo de leyes o políticas públicas; es decir, para conocer y aplicar el sentido de algo en la democracia.

A diferencia de los bots sociales tradicionales o generativos, que actúan en la esfera pública digital promoviendo o produciendo datos y metadatos sobre algo de la democracia, ION actúa en la esfera política extrayendo patrones procedentes de la opinión pública, la opinión masiva y la opinión artificial y sintética, que se construye a través de interacciones humanas y no humanas en la esfera pública digital. Estos patrones sirven de modelo a ION y otros políticos algorítmicos para ofrecer consejos a los poderes públicos que ayuden a tomar decisiones, resolver conflictos, elaborar políticas públicas, desarrollar leyes, etc. Uno de los mayores problemas de este intento de objetivar la opinión pública a través de datos y patrones es la actual hegemonía de la opinión artificial y sintética sobre la opinión mayoritaria y pública. Los algoritmos empleados en la esfera digital crecen de manera exponencial tanto en número como en capacidad (potencia, sutileza, precisión, velocidad, realidad, etc.) y, cuanto mayor es su crecimiento, menor es la influencia del resto de las opiniones (mayoritaria y pública). Con la «opinión pública masiva», este factor es todavía más profundo, influyente y distorsionador, puesto que la hegemonía de la opinión artificial o sintética se entrelaza directamente con el patrón o modelo que extraen y utilizan los políticos algorítmicos que, como ION, actúan en la esfera política.

Otra de las complicaciones que emana de la plasmación de esta forma masiva de opinión pública es la capacidad que tienen los bots sociales generativos de poner en marcha procesos de sintetificación de la realidad capaces de pervertir de forma muy sutil y difícil de detectar la muestra o patrón que extraen y utilizan los políticos algoritmos como ION. La irrupción de bots sociales generativos y la posibilidad que tienen estos de producir grupos de datos sintéticos hiperrealistas y humaniformes de todo tipo (de imágenes fijas y en movimiento, relatos, diálogos, etc.) y, con ello, de hibridar lo humano y lo no humano en las relaciones sociales que se generan en la esfera pública digital, ha producido un cambio de estrategia. Si antes se trataba de inundar la esfera pública digital del mayor volumen posible de datos sobre algo en la democracia, hoy los bots sociales generativos están sustituyendo la cantidad e intensidad de ruido por la elección e inclusión de aquellos datos precisos que permitan influir de forma efectiva y eficiente en el patrón o modelo. Es decir, los bots sociales generativos que actúan en la esfera pública digital se preocupan menos de generar ruido masivo –para aumentar su influencia en la opinión pública mayoritaria y pública–, y más en calcular qué datos y en qué volumen, lugar y momento son necesarios para influir de forma profunda en el patrón o modelo que extraerá el sistema a través del análisis de los políticos algorítmicos como ION.

Otro de los inconvenientes que subyace a la emergencia y cada vez mayor influencia de la «opinión pública masiva» es el reacoplamiento del sistema y los subsistemas. La irrupción de una esfera pública algoritmizada, la algoresfera, y su expansión a la esfera política mediante la consolidación de la «democracia algorítmica» (García-Marzá y Calvo, 2024), está revirtiendo el proceso de desacoplamiento entre el sistema y el mundo de la vida (objetivo, intersubjetivo y subjetivo) que, como afirma Habermas (1987), produjo la Modernidad. Este hecho reduce la crítica y permite a la esfera política y económica lanzar imperativos sistémicos que, como el poder, el dinero o la tecnología inteligente cubran las necesidades de sentido de algo en la democracia, como la justificación de las acciones y decisiones de los gobiernos y las empresas. Ante este acoplamiento, los procesos de racionalidad con arreglo a sentidos característicos del mundo objetivo, social y personal se están volviendo a hibridar con los procesos de racionalidad con arreglo a fines característicos del mundo político y económico. 

Finalmente, otra de las complicaciones que subyace a la emergencia y cada vez mayor influencia de la «opinión pública masiva», es su vulnerabilidad frente al despotismo de las grandes corporaciones gubernamentales y tecnológicas del sistema. En tanto que estas son quienes controlan los ecosistemas ciberfísicos y las plataformas digitales que sustentan la algoresfera, acaparan los modelos matemáticos artificialmente inteligentes más avanzados y monopolizan la captación, el acceso y la explotación de los datos y metadatos masivos, encontrándose en una posición privilegiada para manipular a placer la esfera pública digital y, con ello, la «opinión pública masiva» que sirve de justificación de sus acciones y decisiones (Innerarity y Colomina, 2020; Coeckelbergh, 2024).

Dictadura algorítmica y despotismo tecnológico: el poder de la sintetificación

En La democracia en América ([1835-1840]1988) y La Revolución y el Antiguo Régimen ([1856]2010), Alexis de Tocqueville reconocía el asociacionismo y la opinión pública de la sociedad civil como piezas fundamentales de una democracia saludable, madura y dinámica. El asociacionismo permitía abrir espacios de participación para ejercer y sentir la libertad. Por un lado, toda democracia madura necesita mantener la armonía y simetría de poder entre los principios de libertad e igualdad, y asociarse entre la ciudadanía para conseguir objetivos democráticos comúnmente compartidos ofrece la posibilidad de abrir espacios de partición donde las partes en relación se sienten y se reconocen libres y democráticamente comprometidas con su sociedad. Por otro lado, a través de estos espacios de libertad, la sociedad civil construye opinión pública, es decir, los grilletes de todo sistema político, y también de toda corporación empresarial que pretenda ejercer su poder sobre la sociedad de forma despótica. 

Hoy, empero, la digitalización y algoritmización de la esfera pública, la dataficación de la participación ciudadana y la sintetificación de la realidad social, económica y política ejercida por los gobiernos y las grandes corporaciones tecnológicas ha puesto en grave peligro su papel en la democracia. En primer lugar, la transformación digital de la esfera pública ha reducido este espacio de crítica y justificación del uso y ejercicio de poder de los gobiernos y las grandes corporaciones tecnológicas a una esfera desplegada –básicamente– en la red. El mayor problema de ello es que tal reduccionismo permite la colonización algorítmica de la esfera pública –de tal modo que la influencia y el poder de la ciudadanía se reduce drásticamente–, la hibridación entre lo humano y lo máquina –de tal forma que no es imposible saber quién es quién en los diferentes juegos de relaciones interpersonales que se dan–, y la producción masiva de datos sintéticos hiperrealistas –de tal forma que es imposible diferenciar aquellos paquetes de datos reales y sintéticos–.

En segundo lugar, esta esfera pública en red –o digital– ha reducido la participación ciudadana al flujo de datos y metadatos masivos en línea que produce la sociedad hiperdigitalizada a través de sus comportamientos y comentarios sobre intereses, opiniones y preferencias individuales. Como argumenta Habermas (2023: 77-78), «en un “mundo” difícilmente imaginable de noticias falsas que ya no se puedan identificar como tal –es decir, distinguirse de la información verdadera– ningún niño podría crecer sin desarrollar síntomas clínicos». Y este es, precisamente, el caso actual, con una esfera digital caracterizada por ser plebiscitaria, excluyente, técnico-económica, anónima, privada y alimentada a base de likes, dislikes y fake news (ibídem).

Finalmente, la esfera pública en red –o digital– está siendo instrumentalizada por las grandes corporaciones gubernamentales y las tecnológicas para el control y dominio de la sociedad a través de acciones despóticas y tiránicas. Como reconoce Habermas: «la zona de flujos de comunicación libre [Internet], expandida a escala global y que, en aquel momento, fue posible gracias a la invención de la estructura técnica de la red, se presentó como el reflejo del mercado ideal. (...) Evidentemente, esta imagen tan sugestiva ahora se ve distorsionada por el control algorítmico de los flujos de comunicación, que alimenta la concentración de poder de las grandes corporaciones de Internet» (ibídem: 76). Y, sobre las grandes corporaciones gubernamentales, cabría añadir que, en connivencia con el poder tecnológico y el poder económico, instrumentalizan los flujos de comunicación con el objetivo de satisfacer fines estratégicos. Así, en tanto que sistema, el poder económico, tecnológico y político contamina los flujos de información con datos sintéticos para proveerse de sentido –un sentido sintético, adulterado e instrumental– y, de ese modo, legitimar sus acciones y decisiones de forma rápida, eficaz e implacable. 

Estos tres procesos han sido detectados por diferentes informes internacionales como, por ejemplo, el titulado Freedom on the Net 2023: The Repressive Power of Artificial Intelligence (Funk et al., 2023). Este informe afirma que los bots sociales generativos –como GPT, DALL.E, Gemini, o Sora– se han convertido en el epicentro de un nuevo, pero exponencialmente más profundo, progrediente, sutil, invasivo y opresivo, campo de distorsión de la realidad y, con ello, de la opinión pública: «Estas campañas han contado durante mucho tiempo con la ayuda de la tecnología de IA para distribuir contenido: las cuentas automatizadas de bots en las redes sociales han silenciado a los activistas y han propagado narrativas falsas sobre el fraude electoral entre los votantes, mientras que los algoritmos de las plataformas han promovido información incendiaria y poco fiable por encima de fuentes confiables» (ibídem: 8). El informe muestra cómo durante los últimos años, especialmente en 2023, corporaciones gubernamentales de todo el mundo han comenzado a utilizar algoritmos generativos y a promover la algoresfera con fines despóticos, instrumentales y maliciosos. A través de ello, estas corporaciones gubernamentales tratan de aumentar su competitividad y su poder y control sobre la sociedad, asfixiando los espacios de libertad con tecnología biométrica, resquebrajando la esfera pública mediante su colonización algorítmica, reescribiendo la información disponible mediante procesos de sintetificación de la realidad social y política, intoxicando los procesos electorales propios o ajenos con desinformación, y promoviendo la «opinión pública masiva» como un proceso adecuado para dar sentido y legitimidad a su autoridad, entre otras cosas. 

El informe también subraya cómo los bots sociales generativos utilizan los distintos canales de comunicación para conseguir sus objetivos, «(...) haciendo que la verdad sea más fácil de distorsionar y más difícil de discernir»(ibídem: 2). Por ejemplo, estos no solo utilizan textos. También crean y/o clonan imágenes, vídeos y voces, tanto de perfiles falsos como de emulaciones hiperrealistas de personas influyentes de la comunicación, la sociedad y la política (deep fakes) para construir un relato convincente, agresivo y altamente adictivo e influyente, capaz de captar la atención y alterar las percepciones del público (Meikle, 2023). En definitiva, «Las herramientas basadas en IA que pueden generar texto, audio e imágenes se han vuelto rápidamente más sofisticadas, accesibles y fáciles de usar, lo que ha provocado una preocupante escalada de estas tácticas de desinformación. Durante el año pasado, la nueva tecnología se utilizó en al menos 16 países para sembrar dudas, difamar a los oponentes o influir en el debate público» (Funk et al., 2023:1).

Otro informe que analiza este emergente proceso de algoritmización de la esfera pública y sus impactos es The impact of generative AI in a global election year (Wirtschafter, 2024). Si bien rebaja las exacerbadas expectativas generadas alrededor de los impactos actuales de la IA generativa en el ámbito democrático, en él se reconoce su enorme capacidad de influencia: «Aunque el contenido generado todavía representa una pequeña fracción del espacio general de información en disputa, su uso probablemente se volverá más común y ya ha comenzado a socavar el discurso democrático en torno a las elecciones. Dos casos recientes [el “Melcogate” de Argentina y el deepfake preelectoral de Eslovaquia] ilustran el daño único que incluso una pequeña cantidad de contenido generado puede tener en el espacio de información en el contexto general de las elecciones» (ibídem). De hecho, el informe confirma el cambio de estrategia que se ha comentado anteriormente. Con el uso de los bots sociales generativos se busca reducir el ruido, procurando que solo aquel grupo de datos sintéticos que incida en el patrón o modelo penetre de forma profunda en la cultura política de un país o en el imaginario colectivo de la ciudadanía.

Las características disruptivas de la «opinión pública masiva», la instrumentalización de esta por parte de gobiernos y grandes corporaciones digitales y el acoplamiento y la hibridación del sistema y los subsistemas dificultan en gran medida el control y la reversión de los impactos negativos sobre el correcto funcionamiento de la democracia. A pesar de esta situación, para hacer frente e intentar mitigar los impactos negativos de la digitalización y algoritmización de la esfera pública, la dataficación de la participación ciudadana y la sintetificación de la realidad social, económica y política que ponen en peligro el correcto funcionamiento de la democracia, últimamente se han propuesto diversos cursos de acción a nivel individual y de la sociedad civil. Prácticas como la resistencia algorítmica, las movilizaciones cloud, el activismo de datos, el whistleblowing o el hackerismo ético podrían, por una parte, reducir los impactos negativos de la colonización algorítmica, el despotismo tecnológico y la sintetificación de la esfera pública y, por otra parte, empoderar y postular a la sociedad civil como contrapoder de los gobiernos y las grandes corporaciones digitales (Varoufakis, 2023; Bonini y Treré, 2024; Calvo y Saura García, en prensa).

Conclusión

Los nuevos avances en tecnología inteligente, especialmente los vinculados con la IA generativa, así como en formas y estrategias de control y opresión gubernamental y corporativa, principalmente a través de imperativos sistémicos como la colonización algorítmica de la esfera pública y el control de los datos y metadatos que estos modelos matemáticos inteligentes vierten sobre ella, han dado pie a una nueva estructura de dominio y opresión de la sociedad por parte del sistema; es decir, de las esferas del Estado y del mercado. Si antaño estos organismos gubernamentales y privados ejercían el control sobre el subsistema a través de imperativos sistémicos como el poder o el dinero, hoy se valen de la generación de grupos de datos artificiales y, sobre todo, sintéticos en la esfera digital y su recopilación y explotación a través de algoritmos y tecnología inteligente. 

Al respecto, el avance de la algoresfera, en tanto que colonización algorítmica de la esfera digital –que hoy aúna la esfera pública, económica y política–, y la irrupción de la opinión pública artificial, sintética y masiva han logrado revertir el proceso de desacoplamiento del sistema y el mundo de la vida promovido por la Modernidad (Habermas, 1987). A través de ello, están surgiendo alteraciones y anomalías significativas en los componentes estructurales del mundo de la vida: lo objetivo, en tanto que la totalidad de entidades sobre las que son posibles afirmaciones verdaderas; lo social, en tanto que la totalidad de relaciones interpersonales legítimamente reguladas; y lo subjetivo, en tanto que la totalidad de contenidos relativos a las propias experiencias corporales y vivencias íntimas de las personas. 

El acoplamiento y la hibridación del sistema y los subsistemas amenaza con intensificar el despotismo sistémico mediante el uso de imperativos como el poder y el dinero, como diría Habermas (ibídem), para colonizar la crítica y el acuerdo mediante algoritmos generativos, datos sintéticos y «opinión pública masiva». A través de ello, por un lado, se desfiguran, deforman o alteran los procesos de racionalización que los seres dotados de habla y acción establecen para alcanzar acuerdos intersubjetivos sobre diferentes cosas de este mundo, como la legitimidad y justicia de las acciones y decisiones de las corporaciones gubernamentales y tecnológicas. Asimismo, por otro lado, se restringen e intoxican los flujos de comunicación y construcción de opinión pública mediante ruido artificial y datos sintéticos (Pérez Zafrilla, 2021). Ambos impactos, al menos, conducen a la progresiva aparición e intensificación de anomalías en el mundo de la vida, como anomia, distorsión de la realidad social, sintetificación de lo verdadero, lo justo y lo felicitante, psicopatologías de la personalidad, etc.

Referencias bibliográficas

Aral, Sinan. The Hype Machine. Nueva York: Penguin Random House, 2021.

Bartlett, Jamie. The People Vs Tech: How the internet is killing democracy (and how we save it). Nueva York: Penguin Random House, 2018. 

Bonini, Tiziano y Treré, Emiliano. Algorithms of resistance: the everyday fight against platform power. Cambridge: MIT Press, 2024.

Calvo, Patrici y Saura García, Carlos. «Against synthetic democracy», SSRN, 2024 (en linea) https://doi.org/10.2139/SSRN.4885161

Calvo, Patrici y Saura García, Carlos. «Democracia de la vigilancia: Datos, activismo y contrapoder». Revista Internacional de Pensamiento Político, vol. 19, (en prensa)

Carpentier, Nico. Media and Participation: A Site of Ideological-Democratic Struggle. Chicago: Intellect Books, 2011.

Castells, Manuel. La era de la información. La sociedad red. México: Siglo XXI, 2006.

Chadwick, Andrew. The hybrid media system: politics and power. Oxford: Oxford University Press, 2013.

Chang, Ho-Chun Herbert; Chen, Emily; Zhang, Meiqing; Muric, Goran y Ferrara, Emilio. «Social Bots and Social Media Manipulation in 2020: The Year in Review». Journal of Computational Social Science, vol. 5, (2021), p. 1.409-1.425. DOI: 10.48550/arxiv.2102.08436 (en línea) https://link.springer.com/article/10.1007/s42001-022-00173-9

Coeckelbergh, Mark. Why AI Undermines Democracy and What To Do About It. Cambridge: Polity Press, 2024.

Da Empoli, Giuliano. Los ingenieros del caos. Madrid: Ediciones Anaya, 2020.

Elliott, Vittoria. Un bot de IA se postula para alcalde de Wyoming en EE UU, Wired, (12 de junio de 2024a) (en línea) https://es.wired.com/articulos/bot-de-ia-se-postula-para-alcalde-de-wyoming-en-ee-uu

Elliott, Vittoria. ¿Votarías por un político generado por IA? En Reino Unido sí puede. Wired, (11 de junio de 2024b) (en línea) https://es.wired.com/articulos/votarias-por-un-politico-generado-por-ia-en-reino-unido-si-puedes

Ebeling, Mary F. E. Afterlives of data: life and debt under capitalist surveillance. Berkeley: University of California Press, 2022.

Farahany, Nita A. The Battle for Your Brain. Nueva York: St. Martin’s Press, 2023.

Funk, Allie; Shahbaz, Adrian y Vesteinsson, Kian. Freedom on the Net 2023: The Repressive Power of Artificial Intelligence, Freedom House2023 (en línea)  https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence 

García-Marzá, Domingo y Calvo, Patrici. «Democracia algorítmica: ¿un nuevo cambio estructural de la opinión pública?». Isegoría, n.º 67 (2022), p. e17. DOI: 10.3989/ISEGORIA.2022.67.17 (en línea) https://isegoria.revistas.csic.es/index.php/isegoria/article/view/1239

García-Marzá, Domingo y Calvo, Patrici. Algorithmic democracy: A critical perspective based on deliberative democracy. Cham: Springer, 2024.

Habermas, Jürgen. Conocimiento e Interés. Madrid: Trotta, 1984.

Habermas, Jürgen. Theory of Communicative Action Vol. 2 Lifeworld and System: A Critique of Functionalist Reason. Boston: Beacon Press, 1987.

Habermas, Jürgen. Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Cambridge: The MIT Press, 1998.

Habermas, Jürgen. Un nou canvi estructural en l'esfera pública i la política deliberativa. Barcelona: Edicions 62, 2023.

Hagen, Lutz M.; Wieland, Mareike y In Der Au, Anne-Marie. «Algorithmischer Strukturwandel der Öffentlichkeit». MedienJournal, vol. 41, n.º 2 (2017), p. 127-143.

Hajli, Nick; Saeed, Usman; Tajvidi, Mina y Shirazi, Farid. «Social Bots and the Spread of Disinformation in Social Media: The Challenges of Artificial Intelligence». British Journal of Management, vol. 33, n.º 3 (2022), p. 1.238-1.253. DOI: 10.1111/1467-8551.12554 (en línea) https://onlinelibrary.wiley.com/doi/10.1111/1467-8551.12554

Howard, Philip N. Lie Machines: How to Save Democracy from Troll Armies, Deceitful Robots, Junk News Operations, and Political Operatives. New Haven: Yale University Press, 2020.

Innerarity, Daniel y Colomina, Carme. «La verdad en las democracias algorítmicas». Revista CIDOB d’Afers Internacionals, n.º 124 (2020) p. 11-24. DOI: doi.org/10.24241/rcai.2020.124.1.11 (en línea) https://www.cidob.org/publicaciones/la-verdad-en-las-democracias-algoritmicas

ION-Primul Consilier AI al Guvernului. «ION. De la cetățeni la factorii de decizie: schimbarea paradigmei guvernării cu ajutorul tehnologiilor emergente [ION. De ciudadanos a responsables políticos: cambiar el paradigma]». ion.gov.ro, (s/f), p. 1-22 (en línea) https://ion.gov.ro/Document%20tehnic.pdf

Jiang, Min y Fu, King Wa. «Chinese Social Media and Big Data: Big Data, Big Brother, Big Profit?». Policy & Internet, vol. 10, n.º 4 (2018) p. 372-392. DOI: 10.1002/POI3.187 (en línea) https://onlinelibrary.wiley.com/doi/full/10.1002/poi3.187

Lanier, Jaron. Diez razones para borrar tus redes sociales de inmediato. Barcelona: Debate, 2018.

Meikle, Graham. Deepfakes. Cambridge: Polity Press, 2023.

Mill, John Stuart. Considerations on Representative Government. Cambridge: Cambridge University Press, [1861]1972.

Mill, John Stuart. «On Liberty», en: Robson, John M. (ed.) Collected Works of John Stuart Mill [vol. xviii]. Toronto: University of Toronto Press, [1859]1977 (en línea) https://oll.libertyfund.org/titles/robson-the-collected-works-of-john-stuart-mill-volume-xviii-essays-on-politics-and-society-part-i#lf0223-18_head_051

Millière, Raphaël. «Deep learning and synthetic media». Synthese, vol. 200, n.º 3 (2022) p. 1-27. DOI: 10.1007/S11229-022-03739-2/FIGURES/6 (en línea) https://link.springer.com/article/10.1007/s11229-022-03739-2

Moore, Martin. Democracy Hacked: How Technology is Destabilising Global Politics. Londres: Oneworld Publications, 2018.

Noelle-Neumann, Elisabeth. La espiral del silencio. Opinión pública: nuestra piel social. Barcelona: Paidós, 2010.

Ottaviani, Marta Federica. Brigate Russe: La guerra occulta del Cremlino tra troll e hacker. Milano: Ledizioni, 2022.

Papacharissi, Zizi. «The virtual sphere: The internet as a public sphere». New Media and Society, vol. 4, n.º 1 (2002), p. 9-27. DOI: 10.1177/14614440222226244 (en línea) https://journals.sagepub.com/doi/10.1177/14614440222226244

Papacharissi, Zizi. A private sphere: democracy in a digital age. Cambridge: Polity Press, 2010.

Pariser, Eli. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Nueva York: Penguin Books, 2011.

Pérez Zafrilla, Pedro Jesús. «Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en internet». RECERCA. Revista de Pensament i Anàlisi, vol. 26, n.º 2 (2021), p. 1-23. DOI: 10.6035/RECERCA.4661 (en línea) https://www.e-revistes.uji.es/index.php/recerca/article/view/4661

Saura García, Carlos. «El lado oscuro de las GAFAM: monopolización de los datos y pérdida de privacidad». Veritas. n° 52 (2022) p. 9-27. DOI: 10.4067/S0718-92732022000200009 (en línea) http://dx.doi.org/10.4067/S0718-92732022000200009

Saura García, Carlos. «Digital expansionism and big tech companies: consequences in democracies of the European Union». Humanities and Social Sciences Communications, vol. 11, nº448 (2024) p.1-8. DOI: 10.1057/s41599-024-02924-7 (en línea) https://www.nature.com/articles/s41599-024-02924-7 

Saura García, Carlos y Calvo, Patrici. «Generative AI and Democracy: the synthetification of public opinion and its impacts». SSRN, 2024 (en línea) https://ssrn.com/abstract=4911710

Snowden, Edward. Vigilancia Permanente. Barcelona: Planeta, 2019.

Sunstein, Cass R.. #Republic : divided democracy in the age of social media. Princeton: Princeton University Press, 2017.

Sunstein, Cass R.. Conformity: The Power of Social Influences. Nueva York: New York University Press, 2019.

Tocqueville, Alexis. La democracia en América (Vol. i y ii). Madrid: Trotta, [1835-1840]1988.

Tocqueville, Alexis. El Antiguo Régimen y la Revolución. Madrid: Alianza, [1856]2010.

Tufekci, Zeynep. Twitter and Tear Gas. The Power and Fragility of Networked Protest. Londres: Yale University Press, 2017.

Varoufakis, Yanis. Technofeudalism: What Killed Capitalism. Londres: Random House, 2023.

Williams, James. Clics contra la humanidad: libertad y resistencia en la era de la distracción tecnológica. Barcelona: Gatopardo, 2021.

Wirtschafter, Valerie. «The impact of generative AI in a global election year». Brookings, (30 de enero de 2024) (en línea) https://www.brookings.edu/articles/the-impact-of-generative-ai-in-a-global-election-year/

Woolley, Samuel. The reality game: how the next wave of technology will break the truth. Londres: Endeavour, 2020.

Woolley, Samuel. Manufacturing consensus: understanding propaganda in the era of automation and anonymity. New Haven: Yale University Press, 2023.

Woolley, Samuel y Howard, Philip N. (ed.) Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford: Oxford University Press, 2018.

Zuboff, Shoshana. La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder. Barcelona: Paidós, 2020.

Notas:

1- Véanse: Woolley y Howard (2018); Howard (2020); Pérez Zafrilla (2021); Ottaviani (2022); Woolley (2023) y García-Marzá y Calvo (2024).

2- Se entiende por sistema el conjunto de esferas, como el Estado y el mercado, que aplica procesos de racionalización con respecto a fines, mientras que por subsistema se entiende el conjunto de ámbitos del mundo de la vida –objetivo, social y personal– que aplica procesos de racionalización con respecto a sentido (Habermas, 1987).

3- Para el desempeño de este objetivo, el estudio se ha apoyado en un enfoque metodológico hermenéutico crítico. Siendo propio de la filosofía moral y política (Habermas, 1984), este se aleja de aquellas posturas mecanicistas y cientificistas basadas en la neutralidad y la objetividad de los datos y metadatos observables y cuantificables, a fin de abordar el interés del conocimiento por una mayor emancipación y autonomía del ser humano a través de la comprensión, aprehensión y crítica de la realidad y justicia social.

4- Cabe destacar que la actual situación de acelerada evolución y desarrollo de las tecnologías digitales disruptivas y de la IA generativa analizadas en este estudio pueden llegar a producir, por una parte, limitaciones en la actualización del análisis teórico realizado en el texto y, por la otra, transformaciones o modificaciones de los procedimientos, fenómenos, situaciones e impactos analizados.

5- Nota de Ed.: Esta cita y las siguientes cuya referencia original está en una lengua diferente del castellano son una traducción libre del original.

6- La algoresfera hace referencia al ecosistema ciberfísico controlado y gobernado por algoritmos que permite la hiperconectividad digital, la vigilancia masiva y la dataficación comportamental (García-Marzá y Calvo, 2022).

7- Los últimos casos de políticos virtuales han sido VIC (Virtual Integrated Citizen), un chatbot basado en ChatGPT que se ha postulado como alcalde de una población de Wyoming, en Estados Unidos (Elliott, 2024a), y AI Steven, un avatar de IA que se ha postulado como parlamentario del Reino Unido (Elliott, 2024b), ambos en 2024.

Palabras clave:  sintetificación, opinión pública masiva, esfera pública digital, algoresfera, tiranía de la mayoría, inteligencia artificial (IA) generativa, democracia

Cómo citar este artículo: Saura García, Carlos y Calvo, Patrici. «Opinión pública masiva: colonización algorítmica y sintetificación de la esfera pública». Revista CIDOB d’Afers Internacionals, n.º 138 (diciembre de 2024), p. 73-96. DOI: doi.org/10.24241/rcai.2024.138.3.73

Revista CIDOB d’Afers Internacionals, nº 138, p.73-95
Cuatrimestral (septiembre-diciembre 2024)
ISSN:1133-6595 | E-ISSN:2013-035X
DOI: https://doi.org/10.24241/rcai.2024.138.3.73

Fecha de recepción:  01.04.24  ;  Fecha de aceptación: 01.07.2024