Salvaguardar el espacio informativo: las políticas de la UE y Ucrania ante la desinformación

Los que controlan el espacio informativo controlan la capacidad de la sociedad de formarse opiniones y ejercen una influencia sobre las políticas. Los disturbios en Ucrania de 2014 fueron la primera señal de alerta ante el nuevo desafío de la desinformación y de la capacidad de los medios estatales rusos de divulgar mentiras e imágenes engañosas; por lo que Ucrania se puede considerar un laboratorio de pruebas en este sentido. El objetivo de la desinformación rusa en la UE y en Ucrania es tanto influir en la sociedad como desacreditar a las instituciones, sembrar discordia y generar desconfianza hacia los medios de comunicación y los gobiernos, lo que ha contribuido a desgastar sus democracias. Este artículo es un estudio comparativo de buenas prácticas en la UE y en Ucrania para crear sociedades resilientes contra la desinformación y, a la vez, proteger la democracia en el proceso de la intermediación.
El informe de Freedom House de 2017 sobre la manipulación de los medios sociales con el fin de debilitar la democracia revela que al menos treinta países en el mundo utilizan tácticas de desinformación (Kelly et al. 2017). Sin embargo, y pese a que son muchos los países que participan en la elaboración y la propagación de la desinformación en los medios sociales1, la investigación muestra que son principalmente los servicios de información rusos los que dominan el mercado de la manipulación en línea (Bay, 2018). Según la Unión Europea (UE), la desinformación actualmente es una de las mayores amenazas para las democracias modernas; pero afrontar este fenómeno se antoja difícil, puesto que el fin último de la Unión es defender la democracia y, por ello, el antídoto no puede poner en riesgo el propio proceso democrático (Bayer, 2019). La desinformación política en la red –discursos falsos concebidos y difundidos con la intención de fomentar el engaño, la desconfianza o la discordia– se considera en este marco un tipo de guerra cuyo objetivo es influir en las opiniones y las acciones de los ciudadanos de un Estado soberano y democrático. El término más usado en este sentido es el de “guerra híbrida”, introducido en la jerga occidental a partir de 2014, cuando Rusia se anexionó la península de Crimea que, tras la disolución de la Unión Soviética, había permanecido en Ucrania. Por su condición de ser el primer blanco de la desinformación rusa de manera sumamente agresiva –por lo que algunos la consideran como un laboratorio de pruebas para operaciones posteriores llevadas a cabo en otros países, como Estados Unidos, por ejemplo–, Ucrania estuvo en una posición privilegiada para empezar a combatir este desafío. En cambio, pese al precedente ruso y al hecho de reconocer que la desinformación es un problema en rápido crecimiento en todo el mundo, la respuesta gubernamental de la UE al fenómeno ha sido relativamente lenta, dejando al descubierto y en situación de vulnerabilidad a la población y la sociedad.
Al respecto, ¿cuáles son las posibilidades y los límites reales de acción para hacer frente a este reto? Cualquier política que quiera ser efectiva debe abordar el problema en su conjunto, protegiendo a la vez los derechos de los ciudadanos. La crisis de los intermediarios –especialmente la que afecta a la confianza en los gobiernos y las instituciones– se ha visto agravada por el impacto de la desinformación y el coste de hacerle frente. La adopción de una estrategia severa por parte de un Gobierno –rayando en la censura– sería considerada una opción antidemocrática y, en esencia, contraria al derecho humano de la libertad de expresión. Por lo que el mayor reto al que se enfrentan tanto Ucrania como la UE, en su intento de frenar la difusión de la desinformación, es el de moverse por la delgada y, en ocasiones, invisible línea que separa la protección de la ciudadanía de la censura.
La UE define la desinformación como “una información demostrablemente falsa o engañosa creada, presentada y divulgada para obtener beneficios económicos o engañar intencionadamente a la población. Puede tener consecuencias de gran envergadura, generar daños públicos, ser una amenaza para la elaboración de políticas y para los procesos democráticos de toma de decisiones e incluso poner en riesgo la protección de la salud, la seguridad y el entorno de los ciudadanos de la Unión” (European Commission, 2018a). A la hora de definir –aunque sea de manera poco precisa– el concepto de desinformación, en general los estados eluden la cuestión de la supresión de la libertad de expresión. De manera que, ¿considera un Estado la desinformación como parte de la libertad de expresión? ¿Tiene derecho un ciudadano a difundir información falsa –a sabiendas o sin saberlo– amparándose en la libertad de expresión? ¿Se aborda el tema de la propaganda patriótica en estas políticas?
En una resolución de 2015, el Tribunal de Justicia de la UE declaró que la propaganda política en un contexto de conflicto no está avalada por las leyes de libertad de expresión. Con este fallo, el tribunal desestimó la denuncia presentada por un periodista ruso, director de la agencia de noticias oficial del Kremlin, contra las restricciones que le impuso la Unión Europea en el marco de las sanciones a determinados actores rusos por la guerra de Ucrania. El Consejo había argumentado, en la causa, que “el criterio objeto de debate se aplica a las actividades de propaganda o desinformación que proporcionan apoyo activo al Gobierno ruso para desestabilizar a Ucrania y que dicho criterio no va en contra de la libertad de expresión” (Murrock et al., 2018). El tribunal consideró que, en este contexto, las medidas adoptadas habían sido “justificadas” y “proporcionadas”.
Por su parte, el Gobierno de Ucrania ha ido evolucionando en la manera de abordar la desinformación y la libertad de expresión, a menudo con críticas feroces de los defensores de los derechos humanos. En enero de 2020, el Ministerio de Cultura, Juventud y Deporte ucraniano presentó un nuevo proyecto de ley sobre desinformación “para garantizar la seguridad de la información nacional y el derecho a acceder a información fiable”, que provocó las críticas de organizaciones periodísticas y de la Misión de Naciones Unidas por los Derechos Humanos en Ucrania, por considerar que se restringía la libertad de los medios de comunicación (Desir, 2020). La Organización para la Seguridad y la Cooperación en Europa (OSCE) también condenó dicha propuesta, ya que suponía una violación de los derechos de libertad de expresión y de prensa (ibídem). A pesar de las garantías ofrecidas por el jefe de gabinete del presidente, Volodimir Zelensky, de que ninguna ley violará los preceptos de las libertades de expresión y de prensa, periodistas y analistas ucranianos han denunciado con dureza esta legislación que parece otorgar al Estado la condición de árbitro de la verdad (Tomilenko, 2020). Ello es el reflejo de la lucha existente por detener el flujo y los efectos de la desinformación a través de regulaciones ampliadas, así como de los intentos por encontrar un equilibrio entre la intervención excesiva y la insuficiente.
Los efectos de la desinformación en los procesos electorales de los sistemas democráticos son bastante profundos, tal como se ha visto en elecciones recientes tanto en Europa como en Ucrania. Sin embargo, cualquier política existente o proyecto para combatir la desinformación debe abordar las diferentes implicaciones e impactos de esta según proceda del propio Estado o del exterior. Las políticas para abordar la desinformación deben incluir métodos que permitan diferenciar entre detener la propagación de la influencia extranjera y las campañas locales difundidas por los partidos políticos para desacreditar a los opositores, sin influencia exterior. Esta observación se efectuó durante las elecciones al Parlamento Europeo de 2019. Si bien se constató una menor influencia externa y un aumento de la desinformación local, la misma Eurocámara aseguraba en octubre de 2019 que “las campañas de desinformación de Rusia constituyen la fuente principal de la desinformación que se origina en Europa”, lo que señala la necesidad de tomar decisiones más rápidas sobre dicho asunto (European Parliament, 2019).
En este contexto, este artículo abordacomo estudio de caso comparativo los distintos enfoques y políticas llevados a cabo en la UE y en Ucrania para hacer frente al problema de la desinformación, especialmente en las plataformas digitales: observándose una falta de respuesta unitaria, en el primer caso, y una fuerte intermediación del Gobierno ucraniano en el segundo. Así, tras un apartado teórico y conceptual para enmarcar los fenómenos de la propaganda, la desinformación y la injerencia electoral, el estudio compara la estructura de las políticas en la UE y en Ucrania y sus efectos sobre la sociedad, a partir del examen de encuestas de opinión pública y un análisis comparado de los textos y los conceptos utilizados en la redacción de las distintas medidas adoptadas, para determinar si unas son más exitosas que otras. Esta comparativa es pertinente para valorar si el éxito en un país es exportable a otro, en un momento en el que los diferentes estados empiezan a formular leyes, políticas y regulaciones al respecto. Para facilitar la comprensión del fenómeno, se presentan al final unas consideraciones teórico-empíricas sobre el concepto de resiliencia sostenible y su aplicación práctica en las sociedades que sufren lo que aquí se llama “guerra híbrida” de la desinformación.
Propaganda e injerencia electoral: un desafío para la democracia
Tras la devastación de la Primera Guerra Mundial, el psicólogo estadounidense Raymond Dodge definió la propaganda como el “arte de construir la mente del otro, de ganar adeptos a unos principios, de obtener apoyos para una opinión o un curso de acción”. Sobre esta base, ¿dónde está la línea que separa la promoción por parte del Gobierno de su propia imagen y la de su deber de garantizar que los ciudadanos tengan acceso a información rigurosa y veraz y de asegurar unas elecciones libres y justas? ¿Puede un Gobierno filtrar falsedades, propaganda y desinformación y, al mismo tiempo, acatar los pilares que definen la democracia? En la llamada era de la posverdad, estos son asuntos con los que tienen que lidiar diariamente los estados y los órganos políticos.
La difusión de desinformación, propaganda y bulos procedentes de fuentes externas a través de campañas orquestadas por gobiernos extranjeros no es un fenómeno nuevo (Froehlich, 2017). El análisis de la investigación sobre la propaganda rusa del siglo XX todavía es increíblemente relevante y válido, puesto que las tácticas y los mensajes apenas han cambiado, aunque su velocidad de transmisión a través de canales de medios sociales ha aumentado (Cooke, 2017). Esta forma turbia y ambigua de infiltrarse en la sociedad es conocida con muchos nombres, entre ellos, “guerra híbrida”, “guerra de nueva generación”, “guerra de la información” o “guerra irregular”. Esta falta de unificación de la definición y la terminología complica el asunto, pero fomenta la compartimentación entre los sectores militar, gubernamental y la ciudadanía, que pueden usar términos diferentes según sea el caso. La guerra híbrida, como se menciona en este estudio, puede definirse como “una forma de guerra que incluye una combinación de métodos: convencionales y no convencionales, militares y no militares, acciones abiertas y encubiertas incluyendo la guerra cibernética e informativa, con el objetivo de crear confusión y ambigüedad sobre la naturaleza, el origen y el objetivo de dichas acciones” (Andersson, 2015).
Eileen Donahue (2017), exembajadora de los Estados Unidos para el Consejo de Derechos Humanos de las Naciones Unidas, al abordar el asunto de las amenazas existenciales digitales para las democracias afirmó que, con el fin de que una democracia perdure, se debe proteger la calidad del discurso. Según sus palabras, las plataformas de los medios sociales se han convertido en un tipo de ágora pública para la discusión y el intercambio de ideas, pero los algoritmos que filtran el flujo de información al alcance afectan el modo en que un usuario se forma opiniones sobre asuntos cruciales, entre ellos la política. Así, el papel de las plataformas de los medios sociales en una democracia transparente y libre no puede pasarse por alto, puesto que las organizaciones tienen una responsabilidad hacia la sociedad y sus usuarios. Sin embargo, prácticamente nada sirve de guía a los medios sociales para asumir esta responsabilidad, por lo que se han creado regulaciones gubernamentales para intentar obligarlos a ello.
El quid de la cuestión es cómo definir el daño, en el contexto de la desinformación de los medios sociales, asunto que hay que abordar antes de que cualquier país o entidad pueda avanzar en este debate. También habría que mencionar que lo que constituye el daño no es principalmente una definición política, sino a menudo cultural. En el ámbito comunitario, por ejemplo, hay tantas culturas diversas como definiciones diferentes de lo que sería el daño social. Muestra de ello sería la de aquellos estados miembros que defienden los valores liberales de la libertad de expresión pero que, a la vez, prohíben declaraciones que niegan el holocausto. O la del Tribunal Europeo de Derechos Humanos que,sin definir lo que considera el discurso del odio, insta a los gobiernos a que emprendan las medidas apropiadas para combatirlo (Council of Europe, Committee of Ministers, 1997). En referencia a Ucrania, el Ministerio de Política de Información tiene encomendadas las tareas de proteger la libertad de expresión y de combatir las campañas de desinformación; sin embargo, pretender que fueran las propias plataformas de medios sociales las que se encargasen de regularse ellas mismas resultó ser sumamente complejo, teniendo en cuenta que estas mismas plataformas –como fue el caso concreto de Facebook– no tenían a nadie responsable de monitorizar específicamente la situación en este país. Así pues, fue la sociedad civil la que se implicó a través de una colaboración abierta con el fin de identificar y desmentir la información no veraz (Jankowicz, 2019). Por lo tanto, si el reto se ha vuelto más complejo, también debería serlo la capacidad de la sociedad de hacerle frente. Con el aumento tanto del acceso como de la difusión de la información a través de los medios digitales, la sociedad debe tener mayor capacidad de procesar esta información a medida que va creciendo en volumen.
Los estados que en este momento formulan sus propias políticas de intermediación ya llegan tarde, en gran medida debido a la falta de reconocimiento del problema por parte de los gobiernos. Con la excepción de Ucrania, muchos estados que ahora se consideran el objetivo de campañas de desinformación han tardado demasiado en reconocer sus efectos y su impacto (Flore et al., 2019). El asunto es complejo. Parte del objetivo de la desinformación lanzada por actores mal intencionados es disminuir la confianza en las mismas instituciones que ahora pretenden gobernar y regular el flujo y el acceso a la información. Entonces, ¿cómo se puede esperar que una sociedad, que ya se muestra potencialmente escéptica respecto a su Gobierno, acepte acciones reforzadas que regulen el flujo de la información o, potencialmente, que silencien las voces de los gobiernos que se considera que difunden falsedades?
En el caso de la UE, el 83% de los ciudadanos (European Commission, 2018a) opina que los bulos suponen una amenaza para la democracia. En 2018, una investigación del Pew Research Center encontró que más del 50% de los jóvenes europeos prefieren informarse en plataformas de medios sociales, lo que les expone a las noticias seleccionadas algorítmicamente, las burbujas informativas y las limitaciones del sesgo de confirmación (Silver, 2018). Para abordar la desinformación, la UE ha aumentado la financiación en cinco millones de euros y ha aprobado modificaciones políticas con el fin de contemplar los cambios en el consumo de noticias y crear una mayor conciencia y comprensión global del alcance del problema (Vandystadt, 2019; Polyakova et al., 2019). Sin embargo, las soluciones tecnológicas de supresión o eliminación de desinformación por sí solas, como el sistema de alerta rápida de la UE para las campañas de desinformación, o las peticiones para crear intermediarios digitales y tecnológicos estatales de regulación, no pueden resolver este fenómeno por completo (Ignatidou, 2019).
Puesto que actores que reciben el apoyo gubernamental y actores no estatales buscan explotar los puntos débiles de la sociedad, gran parte de la solución pasa entonces por aumentar la confianza pública hacia las instituciones, reforzar la sociedad como conjunto y formar a la población para ser menos susceptible a la propaganda y a la desinformación (Schmid-Drüner, 2019). Independientemente de si el actor es doméstico o extranjero, la táctica de identificar fisuras en la sociedad y ensancharlas más para beneficio personal o político se ha visto recientemente en el brexit (desinformación sobre los inmigrantes y otros discursos racistas) difundida por cuentas que Twitter ha identificado como controladas por intereses rusos (Flore et al., 2019). Ejemplos similares de contenidos decisivos pueden verse en Italia, donde el 90% del contenido antiinmigración de 2017 difundido por esta red en italiano procedía de Sputnik Italia y Russia Today, ambos medios de comunicación del Gobierno ruso (Alandete, 2018).
En definitiva, el objetivo general de la lucha contra la desinformación no debería ser tanto lanzar contracampañas o responder de modo similar, sino dotar a la sociedad de las herramientas necesarias para ser resiliente contra la desinformación.
La UE y el triángulo formado entre gobiernos, plataformas y usuarios
¿Son democráticas la censura y la limitación de la exposición a la información, ya sea verídica o no? ¿Tienen derecho los gobiernos a limitar el acceso de sus ciudadanos a cualquier tipo de información? Al tomar medidas protectoras, ¿no están silenciando las voces discordantes para dejar lugar a un único discurso seleccionado? ¿Podría el hecho de proporcionar estos poderes al Gobierno sentar un precedente al abrir la puerta a controles ampliados en el futuro, que potencialmente podrían acabar llevando, en el caso más extremo, a un escenario orwelliano? ¿No es el acceso libre y abierto a la información la piedra angular de la democracia?
Ante estos dilemas, la UE ha propuesto una política de autorregulación que abarca tanto la protección de la democracia como el acceso a una información rigurosa, como se puede apreciar en el Plan de Acción contra la Desinformación de la Comisión Europea de 2018, donde se afirma además que la libertad de expresión es un valor fundamental consagrado en la Carta de los Derechos Fundamentales de la UE y en las constituciones de los estados miembros (European Commission, 2018b). Asimismo, la Comisión tiene previsto tomar una decisión a finales de 2020 acerca de si la desinformación se incluirá en regulaciones específicas, más estrictas, o si quedará englobada en la futura Ley de Servicios Digitales, concebida para acabar con el contenido ilegal e instar a las plataformas en línea a ser más transparentes con el uso de los datos personales. Con esta Ley se quiere avanzar hacia una economía digital más regulada y otorgar más responsabilidad a las plataformas en línea para reformar las políticas sobre contenidos. Hasta ahora, la aproximación de la UE en este campo se mueve en la considerada estrategia blanda de la autorregulación, cuyo cumplimiento todavía es voluntario para plataformas e individuos. Mientras tanto, la legislación existente, específicamente el Reglamento General de Protección de Datos (RGPD), aprobado en 2018, involuntariamente ya dificulta las campañas de desinformación, puesto que se restringe el uso de la información personal y demográfica, y los actores mal intencionados pueden hallar más dificultades a la hora fijar como objetivo grupos específicos o poblaciones vulnerables, ya sea por edad, ubicación o intereses. Igualmente, el RGPD dificulta que los promotores de la desinformación puedan rastrear la difusión y el impacto de su acción, por lo que sin la capacidad de separar y dividir a los grupos y sembrar la discordia centrada y dirigida, estas campañas son automáticamente menos efectivas que antes (Kornbluh, 2018).
En este contexto, la UE ha identificado que la estructura más robusta para el cambio y la resiliencia contra la información falsa es crear una especie de triángulo entre los gobiernos, la población civil y el sector privado, tal como se pone de manifiesto en el Plan de Acción contra la Desinformación. La coordinación de estos tres actores facilita que la respuesta pueda llevarse a cabo de manera más efectiva, y todos los componentes de la sociedad puedan avanzar juntos. Es un paso imprescindible para hacer frente a uno de los principales problemas a los que se enfrentan los consumidores de noticias en medios sociales: los sesgos algorítmicos y las burbujas informativas que se crean. Es decir, a medida que el usuario interactúa con determinadas noticias, fuentes o temas, o hace clic en un “me gusta”, se va creando un filtro que lo realimentará con más de lo mismo. Con el objetivo lucrativo de conseguir que el usuario permanezca conectado el mayor tiempo posible, la plataforma puede filtrar fuentes de noticias diversas o alternativas y proporcionar solo la información que gusta o que genera adhesión.
Entre otras medidas para combatir la desinformación, en 2015 se creó la East StratCom Task Force (Equipo de Estrategia de Comunicación para el Este), una unidad de comunicación estratégica específica del Servicio Europeo de Acción Exterior para la desinformación originada mayoritariamente en Rusia, la cual incluye tres pilares de acción: i) comunicación efectiva y promoción de las políticas comunitarias hacia los países vecinos del Este; ii) fortalecimiento del entorno mediático general en los países vecinos del Este y en los estados miembros, incluyendo apoyo para la libertad de prensa y fortalecimiento de los medios independientes, y iii) mayor capacidad de la Unión para prever, abordar y responder a las acciones de desinformación lanzadas por la Federación Rusa. Como escisión de las actividades del equipo inicial, en 2015 y en 2017, se establecieron también dos equipos, uno para los Balcanes Occidentales y otro para el Sur, el cual tiene como objetivo monitorizar los países de Oriente Medio, la región del Golfo y el norte de África (European Commission, 2018b).
Detectar, exponer y desmentir es una parte esencial del cometido de la East StratCom Task Force. Sin embargo, el sistema de intentar frenar una avalancha coordinada de desinformación en distintos países a través de contrarrestar cada afirmación una por una, a menudo con una respuesta rezagada por parte de los gobiernos o por medio de webs de desmentidos o de verificación de información, se ha demostrado totalmente insuficiente (Chan et al., 2017). No solo es exasperantemente lento, sino que nunca pondrá al Gobierno o a la sociedad por delante de la influencia mal intencionada por lo que respecta a la resiliencia, ni hará avanzar a la sociedad en cuanto a pensamiento crítico o disminución del control gubernamental de los hilos de información. En este sentido, los estudios sobre ciberpsicología han explorado los límites del desmentido y han concluido que la exposición a información desmentida podría suponer el descrédito de la fuente o el medio social, pero no de la propia noticia o información (Jang et al., 2019). El análisis del sentimiento sobre los comentarios posteriores al desmentido ha demostrado que ello es ampliamente negativo (Zollo, 2017). Al examinar el fenómeno de la cámara de resonancia, vemos que el sesgo de confirmación, como se explicará en la última sección, a menudo lleva a la creación de estas cámaras y a los filtros burbuja, un término acuñado por Eli Pariser, para referirse al hecho de que a los usuarios de los medios sociales solo se les presenta información que refuerza sus opiniones preexistentes (Colleoni, 2014). Dentro de estas cámaras de resonancia se generan opiniones más extremistas y aumenta la polarización (Barbera, 2015). Con todo, cabe hacer una distinción importante entre las cámaras de resonancia de los medios sociales y los filtros burbuja. Aunque ambos conceptos implican que los usuarios de medios sociales solo están expuestos a información que confirma sus creencias, los filtros burbuja surgen de algoritmos basados en el comportamiento previo del usuario, mientras que la cámara de resonancia es un término usado para referirse al concepto en su conjunto. Es decir, esta forma de divulgación de la información basada en la tecnología contribuye directamente a la creación de estas cámaras de resonancia (Flaxman et al., 2016).
Para hacerle frente, las plataformas de medios sociales y los gobiernos han intentado un abanico de enfoques con éxito dispar. Prohibir el acceso de determinados usuarios a los medios sociales, borrar entradas y tuits retroactivamente y eliminar los hilos de medios sociales sin supervisión no son solo un remedios lentos y puramente temporales, sino que constituyen una amenaza para los estados democráticos en su conjunto, puesto que, aplicados de manera indiscriminada y sin procesos específicos, pueden filtrar las voces discordantes. En este sentido, el mayor reto en la lucha contra la desinformación no es solo combatirla, sino medir cómo se transmite la información a través de las fronteras digitales y, lo más importante, qué impacto tiene sobre la sociedad. Al fin y al cabo, ¿destinaría un Estado recursos a contrarrestar un hilo si no tiene un efecto tangible sobre la sociedad? No obstante, estas mediciones son muy complicadas de realizar y hasta ahora se han limitado exclusivamente a un grupo selecto de científicos de datos, sin resultados concluyentes (Grinberg et al., 2019). Uno de los aspectos más complejos a considerar es la importancia del uso de la amplificación artificial con automatización o bots; es decir, si un tuit con desinformación divisiva recibe “me gusta(s)” o es compartido mayoritariamente por cuentas automatizadas mediante bots, y no por personas reales. Al respecto, la teoría estratégica y la comunicación que Rusia ha dirigido hacia Ucrania y los países miembros de la UE son relativamente poco creativas y sumamente dependientes de las teorías y las medidas activas aún de la época soviética. De hecho, Rusia prácticamente ni siquiera intenta ocultar el origen de la desinformación que difunde (Snegovaya, 2015). El quid de la cuestión aquí, más que de naturaleza exclusivamente tecnológica, es también psicológica, como se abordará más adelante. Respecto a la primera, la solución rápida de eliminar cuentas de bots que difunden información falsa es una batalla sin fin, puesto que es fácil crear nuevos bots, mientras que, en referencia a la segunda, empoderar a la sociedad para que sea resiliente ante la desinformación es el verdadero camino para explorar (Anderson, 2017). Además, dada la combinación de actores falsos (bots) y de cuentas auténticas auspiciadas por partidos políticos o ciudadanos implicados, a menudo se antoja difícil discernir el origen y la reproducción de mensajes en los medios sociales. De ahí que cuando las plataformas intentan borrar las cuentas falsas y prohibir los bots, el hecho de que un usuario auténtico utilice patrones similares puede llevar a acciones indebidas y controvertidas que pueden silenciar voces discordantes (Leetaru, 2019).
Ucrania, políticas para generar resiliencia
Freedom House (2013), en su informe titulado “Freedom on the Net”, calificó en 2013 a Ucrania de país “libre” basándose en una escala que iba de “no libre” a “parcialmente libre” y “libre”. Sin embargo, en el informe del año siguiente, en 2014, la puntuación descendió a “parcialmente libre”, probablemente a consecuencia de las protestas de Maidán, en que más de 150 periodistas fueron golpeados, detenidos o secuestrados, perdiendo todavía más puntos en 2018 debido, en gran parte, a las acciones del Gobierno para cerrar páginas webs, detener usuarios de medios sociales y legislar para bloquear información sin una orden judicial (Presidential Decree, 2018). En este sentido, desde 2014 Ucrania ha intentado promulgar y ejecutar políticas2 que debían crear una sociedad inmune a la influencia mal intencionada del exterior a través de la desinformación en los medios sociales. Puesto que el fin de la difusión de este tipo de desinformación no es simplemente influir en la sociedad para que piense de un modo u otro, sino sembrar la confusión y disminuir la confianza en las instituciones, el entonces presidente ucraniano, Petro Poroshenko, emprendió una acción decisiva y firmó una orden ejecutiva que prohibía los medios sociales rusos, el software y los recursos digitales originados en Rusia.
Una de las medidas rápidas más efectivas tomadas por el Gobierno ucraniano desde 2017 ha sido sancionar a las entidades legales digitales controladas por Rusia, incluyendo canales de medios sociales y de noticias como Yandex, Mail.RU Ukraine, VKontakte y Odnoklassniki. Ello fue tan efectivo que el número de usuarios del popular canal VKontakte se desplomó de nueve millones a 300.000 usuarios activos en Ucrania, según informes del Ministerio de Política de Información analizados por Prism (Maksak et al., 2018a). Sin embargo, esta acción no es infalible, puesto que el uso de la red privada virtual (VPN) prácticamente siempre permitirá a los usuarios seguir accediendo a las páginas webs extranjeras de su elección, independientemente de las sanciones.
Por lo que respecta a la privacidad en el espacio informativo en línea, desde 2010 Ucrania cuenta con legislación sobre protección de datos a través de su Ley de Protección de Datos Personales3. Aunque el entorno jurídico de Ucrania no se corresponde totalmente con el de la UE, este país es un potencial candidato a entrar en ella y trabaja para conseguir estar más en consonancia con los estándares y las regulaciones de la Unión. Sin embargo, puesto que el alcance del RGPD fue considerado excesivo para que las empresas más pequeñas lo pudieran cumplir, algunas optaron por no estar accesibles para los visitantes de la UE y bloquearon contenido.
Poco tiempo después de la anexión de Crimea en 2014 por parte de Rusia, el Consejo de Seguridad Nacional y Defensa de Ucrania tomó medidas para mejorar la política sobre desinformación y seguridad informativa del país y el Gobierno redactó varias leyes para combatir la influencia mal intencionada y las operaciones de información extranjeras4. Ucrania tomó una línea dura de intermediación prohibiendo determinados canales de televisión extranjeros, especialmente de origen y titularidad rusa, y creó regímenes de protección para los periodistas. Como en las regiones de Crimea y el Dombás aquellos eran prácticamente los únicos canales accesibles, a mediados de febrero de 2020, se lanzó un nuevo canal ucraniano diseñado específicamente para la región de Dombás –en un esfuerzo por cubrir el 80% del territorio ocupado– y se planea ampliar la emisión a Crimea (Talant, 2020). Como consecuencia de estas políticas, se mejoró la transparencia respecto de la propiedad de los medios, así como el acceso a la información estatal. En esta línea, en 2015 se había adoptado la Ley de Transparencia respecto de la Propiedad de los Medios para llevar a la práctica un marco que fuera viable y que el resto de Europa pudiera copiar (Fedorchuk, 2018); sin embargo, su implementación ha sido a menudo precaria y poco eficaz.
Una de las claves para hacer que la sociedad sea resiliente es identificar primero sus objetivos más vulnerables. En el caso de Ucrania, el Instituto Internacional de Sociología de Kiev estableció el índice de eficiencia de la propaganda rusa en 2015, cuyos resultados mostraron que los ciudadanos mayores de 70 años eran más vulnerables a la propaganda rusa que el resto de la población; que los más resilientes se encontraban en las regiones occidentales y centrales; y que el nivel educativo no parecía desempeñar ningún papel en la resiliencia de la sociedad hacia la desinformación, puesto que en la escuela no se enseñan habilidades relacionadas con la alfabetización mediática (Grushetsky et al., 2015). Por otra parte, la página web de verificación de información, StopFake, creada por profesores y estudiantes ucranianos en 2014 para combatir la propaganda, las noticias falsas y la desinformación, halló que el 58,4% de los ciudadanos entrevistados afirmaron no requerir habilidades adicionales para detectar la desinformación. Los creadores de este índice del Instituto Internacional de Sociología recomendaron que, además de las acciones que ya se estaban realizando en el país, deberían llevarse a cabo esfuerzos más importantes para combatir la propaganda en las regiones de Odesa y Járkiv (KIIS 2015).
El Ministerio de Política de Información creó, en este sentido, cuatro líneas estratégicas, a saber: 1) desarrollo del espacio informativo en Ucrania; 2) desarrollo del sistema público de estrategia comunicativa; 3) reintegración de la información en la Crimea anexionada y los territorios temporalmente no controlados de las regiones de Lugansk y Donetsk, así como de personas desplazadas internamente; y 4) popularización de Ucrania y sus valores en el mundo. Pero un problema al que se enfrentan Gobierno y organizaciones civiles de Ucrania es una serie de intentos inconexos y descoordinados de acciones y políticas llevadas a cabo para combatir la desinformación (Maksak et al., 2018a).
Debido al aumento de los ciberataques agresivos que se produjeron en 2016 y 2017, el presidente de Ucrania promulgó, primero, una Estrategia de Ciberseguridad Nacional y, posteriormente, se aprobó la Ley de Ciberseguridad de Ucrania. Tras la adopción de la nueva Doctrina para la Seguridad Informativa, los intereses nacionales ucranianos en la esfera informativa se definieron de manera concreta. Sin embargo, expertos ucranianos (ibídem) han observado que, hasta ahora, ni la creación de la doctrina ni el marco han llevado a una efectividad medible de la implementación de la política de seguridad informativa. Asimismo, también señalan que no se ha realizado ninguna auditoría de funciones, con lo que a menudo estas se solapan, por lo que hay lagunas que no se han cubierto debido a este solapamiento. La doctrina actual no cuenta con la participación de otras autoridades que hagan cumplir, evalúen y promulguen una política que fomente la interacción entre los ministerios y las organizaciones gubernamentales (ibídem).
Actualmente, los dos puntos principales del Ministerio de Política de Información respecto a la libertad de información son: 1) la protección de los derechos de los ciudadanos de recoger, almacenar, usar y divulgar la información por todo el país, y 2) la promoción de la independencia de los medios de comunicación de masas, la protección de los derechos de los periodistas y de los consumidores de información.
Consideraciones sociales para la resiliencia sostenible
La Comisión Europea, en la comunicación “Enfoque estratégico para la resiliencia en la acción exterior de la UE” de 2017, define la resiliencia como “la adaptabilidad de los estados, las sociedades, las comunidades y los individuos a las presiones políticas, económicas, medioambientales, demográficas o sociales” y exhorta a “incrementar la resiliencia ciudadana a la desinformación hostil” difundida en varios formatos de medios, incluyendo televisión, radio, medios digitales e impresos y medios sociales, para influir en las decisiones políticas y económicas. Para ello, la Comisión considera fundamental sensibilizar a la población, a través del “apoyo a la pluralidad mediática y la comunicación positiva basada en hechos comprobables”. (European Commission, 2017).
Una política más sostenible para combatir la desinformación generalizada y focalizada, así como para promover la resiliencia social de manera sostenida, sería hacer frente al aluvión continuado de desinformación con un flujo continuo de contra-narrativas y transmitir mensajes proactivos para asegurar el flujo transparente de información entre la sociedad, desde el gobierno hasta cada ciudadano. Sin embargo, el enfoque más sostenible a largo plazo sería disminuir la aceptación de la desinformación o las falsedades por parte de la sociedad a través del desarrollo de la educación en alfabetización digital, así como la promoción de un mejor conocimiento de las fuentes de información por medio de la transparencia.
Hay que tener en cuenta que las técnicas usadas para difundir y elaborar la desinformación evolucionan, y lo seguirán haciendo. Ya se ha producido, por ejemplo, la irrupción de los deepfake, montajes que usan el aprendizaje automático para sustituir la imagen de una persona con la de otra o imágenes manipuladas para distorsionar hechos reales. Si la inteligencia artificial es la próxima frontera de la desinformación, no es lógico asumir que el mero hecho de prohibir medios sociales y nuevas plataformas de determinadas regiones del mundo será suficiente para solventar el problema de la exposición de un país. En cambio, aumentar el uso y la prevalencia de equipos de la sociedad civil que trabajan para desvelar la desinformación –como las organizaciones de verificadores o fact-checkers–, combatir la propaganda y mantener informada a la población sobre la actualidad ayudaría, y sería también una manera válida de usar las habilidades que ya circulan en la sociedad y aplicarlas al contexto de las políticas gubernamentales para combatir la desinformación. Sin embargo, si va a haber una marea continua de desinformación creada por medios artificiales, la estrategia de depender de equipos de personas de la sociedad civil no profesionales capaces de contrarrestar adecuadamente esta amenaza, sacando a la luz las falsedades una por una, no será suficiente para hacer frente a la sofisticada capacidad de penetración de este nuevo estadio de falsedades.
Por otro lado, aunque el énfasis en el pensamiento crítico y la alfabetización mediática ha demostrado tener éxito entre los escolares, por regla general a este sector no pertenecen los miembros de la sociedad más vulnerables a la desinformación ni los que más se hacen oír. Entonces, ¿cómo llegar a las personas mayores para informarlas o educarlas o hacer que comprendan este fenómeno? Se necesita, cada vez más, concienciación pública. Pero esta concienciación no llegará por sí sola, por lo que es necesario tomar medidas efectivas. La resiliencia, en este contexto, puede ser un modo de empoderar a ciudadanos corrientes para que den un paso al frente y estén a la vanguardia de la información rigurosa y basada en hechos contrastables. De hecho, el lanzamiento de innumerables cuentas de medios sociales, páginas web y organizaciones de verificación de hechos y datos ha sido posible, entre otros motivos, debido al empoderamiento de los ciudadanos para que tomaran las riendas de la verdad con una combinación de herramientas que fomenten el pensamiento crítico, habilidades de alfabetización mediática y la disposición general a no estar sujetos a información falsa o engañosa. No obstante, teniendo en cuenta los aspectos psicológicos antes mencionados, cabe destacar un obstáculo para interiorizar los principios de la resiliencia, esto es, el efecto Dunning-Kruger. Se trata de un sesgo cognitivo, teorizado por los psicólogos estadounidenses, Justin Kruger y David Dunning, a finales de la década de los noventa del siglo pasado, según el cual los individuos no reconocen su falta de conocimientos o su incompetencia (Flohre et al., 2019). Ello lleva a algunas personas a sobreestimar sus capacidades y a no estar dispuestas a adaptarse, aprender o cambiar sus acciones si perciben que ya están haciendo lo adecuado y correcto. Esta percepción irreal los lleva a rechazar la información que no se ajuste a sus sesgos cognitivos.
Por este motivo, cualquier programa, legislación o política que aspire a conseguir la resiliencia social debe tener en cuenta que, en una sociedad democrática, el Gobierno no puede forzar a los individuos a creer en algo en contra de su voluntad. En primer lugar, hace falta concienciación y, después, entender que son los miembros de una sociedad los que deberán desarrollar su propia resistencia frente a la desinformación. Por ello, según las recomendaciones del Atlantic Council para promover la resiliencia sostenible entre la ciudadanía, es necesario identificar tres retos distintos: enfoque polifacético, diferencias generacionales y alfabetización mediática/digital en las aulas (Polyakova et al., 2019). “La ‘oferta’ y la ‘demanda’ de la desinformación van de la mano: las medidas para la transparencia de las plataformas de los medios sociales, como etiquetar e identificar bots, troles impostores, etc., funcionan mejor cuando los individuos los reconocen y los rehúyen por sistema” (ibídem). Como en el caso de la disminución del número de fumadores o de la concienciación de los daños y las enfermedades que causa el tabaquismo, la lucha para combatir la desinformación puede llevar décadas (Polyakova and Gonzalez, 2018). En el caso de Ucrania, ello se debe, en gran parte, a las lagunas en la conciencia de la población sobre la desinformación tras la caída de la Unión Soviética, por las que los individuos asumían que dichas campañas ya habían terminado. Se eliminó la financiación para combatirlas y, con ella, la sensibilización sobre la posible amenaza que representan.
En este país, formar a los escolares de edades tempranas en alfabetización mediática y en conciencia digital, así como proporcionarles las herramientas necesarias para que diferencien la información falsa de la veraz ya ha mostrado resultados excelentes (Murrock et al., 2018). Entre 2015 y 2016, IREX (International Research and Exchanges Board) llevó a cabo un programa de formación en alfabetización digital para ciudadanos ucranianos llamado “Aprender a discernir”, que se centraba en las habilidades para el análisis crítico y en cómo diferenciar la desinformación. Un año después de finalizar el programa, se realizó una evaluación cuyos resultados mostraron que los que habían participado en el mismo –412 adultos–, todavía recordaban los puntos aprendidos previamente y eran capaces de identificar la desinformación además de entender mejor cómo operaban los medios. Entre los resultados hubo una mayor prevalencia de la verificación de noticias (el 82% frente al 60%) y, un mes después de completar la formación, entre un 80% y un 90% de los participantes utilizaban las nuevas habilidades. Estos resultados identifican que no solo pueden enseñarse estas habilidades a los escolares. “Con todo, un mayor escepticismo y una mayor confianza pueden llevar temporalmente a una aplicación excesiva de las habilidades de análisis de medios, pero es probable que esto pueda corregirse con el tiempo con aprendizaje y apoyo adicionales” (ibídem). Como la guerra de la información es eficaz para moldear las opiniones y sembrar discordia a gran escala en una comunidad, sus efectos son sociales y a la vez tienen ramificaciones políticas. Los dos ámbitos son inseparables si se busca la resiliencia contra la desinformación.
Influencia psicológica
Tal y como se ha discutido previamente, el problema intrínseco de la desinformación no es de naturaleza tecnológica, sino psicológica, ya que el objetivo es la mente humana. Por ello, la manipulación psicológica a través de la desinformación en los medios sociales no puede abordarse sencillamente con recursos tecnológicos o algoritmos mejorados. Hay que entender una serie de consideraciones psicológicas al intentar reducir el impacto y la asimilación de la desinformación, incluyendo el sesgo de confirmación, el razonamiento motivado y la heurística de la disponibilidad (Ireton et al., 2018).
Los sesgos de confirmación entran en juego en la sociedad y son uno de los obstáculos más comunes para la asimilación y la retención de información potencialmente rigurosa pero a la vez nueva (Tetlock, 2005). Son sesgos que permiten la rápida diseminación de la desinformación a través de los medios sociales, cuando un individuo encuentra una información que confirma una creencia que ya tenía previamente o una conspiración que puede considerar veraz. El razonamiento motivado, por su parte, entendido como emocionalmente sesgado, puede tener un impacto sobre el deseo de una sociedad de pensar críticamente sobre las noticias y la información, sencillamente por el deseo psicológico de creer lo que se adapta mejor a uno mismo (Kunda, 1990). En este sesgo influye también la heurística de la disponibilidad que, según el Oxford University Press Dictionary of Psychology, es una inclinación cognitiva a través de la cual se juzga la frecuencia o probabilidad de un suceso partiendo del número de ejemplos del mismo que se pueden traer a la memoria. En el caso de la desinformación, la heurística de la disponibilidad puede llevar a individuos o a grupos sociales a creer una información simplemente porque se ha repetido muchas veces y ha recibido una amplia cobertura. Cuanto más se repita la información, más probable es que se recuerde, ya sea de manera incorrecta o no. Esto es lo que a menudo consiguen a gran escala los bots, que retuitean o comparten información extensamente a través de medios sociales. Hay muchos ejemplos actuales de desinformación que recurren a este componente psicológico, como la noticia procedente de Rusia –difundida en la Unión Europea y en Ucrania– de que la UE financia un campo de concentración parecido al de la Bahía de Guantánamo para los separatistas ucranianos; ello es una forma de desinformación reactiva para distraer la atención de otras noticias potencialmente más importantes (EU vs. Disinfo, 2019). Esta historia, en concreto, tiene su origen en 2015 en la publicación Zvezda del Ministerio de Defensa ruso, y se difundió ampliamente por todo el país, así como en algunos medios occidentales. Desde entonces, ha ido reapareciendo a menudo en distintos medios. En estas narrativas desinformativas se repite en un sinfín de ocasiones el discurso de que una antigua república soviética es víctima de una nueva oleada de nazismo, una historia que ha funcionado para debilitar a las nuevas autoridades ucranianas y ha vuelto a promover el patriotismo ruso surgido tras la victoria en la Segunda Guerra Mundial. Aunque es difícil medir con precisión su impacto directo sobre la sociedad, esta narrativa ha tenido versiones similares en los países bálticos y en Polonia (EU vs. Disinfo, 2020).
Por todo ello, los legisladores y los ciudadanos deberían tener un conocimiento más profundo sobre estos aspectos psicológicos de la desinformación, si realmente pretenden que sus sociedades sean más resilientes contra la desinformación y mantengan valores democráticos en el proceso. No solo se necesita resiliencia, sino que esta sea sostenible en el tiempo.
A modo de conclusión
Los estados y los órganos de gobierno de entidades supranacionales como la UE deben trabajar diligentemente para garantizar que no se vulnera la libertad de expresión durante el proceso de creación de legislación para proteger a su población de la desinformación. Proteger las libertades democráticas es la piedra angular de la mayoría de las naciones democráticas y silenciar las voces de la oposición porque no acatan el discurso nacional dominante es la antítesis de dichos valores. Los gobiernos que aprueben políticas de intermediación deben, ante todo, medir el impacto de las campañas de desinformación, sus fuentes y su prevalencia entre los miembros susceptibles de la sociedad, antes de adoptar un objetivo de envergadura que raye en la censura de libertades como la libertad de prensa. Además, la efectividad de la legislación no solo depende del mero hecho de aprobar textos para combatir la desinformación, sino de cómo interaccionan estos con otras medidas. En este caso, las habilidades de la alfabetización mediática y el pensamiento crítico son eficaces para mejorar la resiliencia social contra la desinformación y para crear un entorno en que los receptores de varias fuentes (veraces o engañosas) puedan discernir por ellos mismos cuál es la verdad, mientras empresas de medios sociales, motores de búsqueda, gobiernos y otros sectores luchen para acabar con la expansión de fuentes auténticas o falsas que actúan como diseminadoras de la desinformación.
Si los dos casos estudiados, la UE y Ucrania, quieren continuar fomentando los valores democráticos en el seno de sociedades libres, deben facilitar un enfoque político proactivo y cohesivo respecto a cualquier forma de supresión de la libertad de expresión, ya sea en medios sociales, prensa o televisión. Los órganos de gobierno también deben evitar caer en la censura y la supresión de la libre voluntad de los ciudadanos a la hora de elegir las fuentes de la información. Hasta el momento, las políticas aprobadas en la UE y en Ucrania aún obedecen, en su mayoría, a los valores democráticos de protección de la libertad de expresión y, a la vez, alejan las voces externas que intentan controlar o engañar a los ciudadanos con desinformación. Sin embargo, se requiere coordinación entre dichos órganos de gobierno, la sociedad civil y el sector privado, puesto que los tres sectores no están, por ahora, coordinados de manera adecuada para adoptar una postura común contra la desinformación, lo cual no debería llevar a medidas excesivas o adicionales para complementar las que ya existen. Se trata de evitar medidas políticas radicales que básicamente silenciarían todas las voces discrepantes. Cualquier programa, legislación o política que aspire a conseguir la resiliencia social debe tener en cuenta que, en una sociedad democrática, el Gobierno no puede forzar a los individuos a que crean algo en contra de su voluntad, ni coartar su derecho a elegir cómo se informan.
Recordando las palabras sobre asuntos de seguridad interna que el presidente estadounidense Harry S. Truman pronunció en un discurso ante el Congreso, “una vez que un Gobierno está comprometido con el principio de silenciar la voz de la oposición, solo tiene un camino a seguir, y ese es el camino de las medidas cada vez más represivas, hasta que se convierta en una fuente de terror para todos sus ciudadanos y cree un país donde todos vivan con miedo”5.
Referencias bibliográficas
Alandete, David. How Russian networks worked to boost the far right in Italy. [en línea]. 2018. [Acceso 28 de febrero de 2020]. Disponible en: https://english.elpais.com/elpais/2018/03/01/inenglish/1519922107_909331.html
Anderson, Janna; Rainie, Lee. The Future of Truth and Misinformation Online. [en línea]. 2017. [Acceso 1 de septiembre de 2019]. Disponible en: https://www.pewresearch.org/internet/2017/10/19/the-future-of-truth-and-misinformation-online/
Andersson, Jan. Hybrid operations: lessons from the past. [en línea]. 2015. [Acceso 15 de febrero de 2020]. Disponible en: http://www.iss.europa.eu/ uploads/media/Brief_33_Hybrid_operations.pdf
Barbera, Pablo. Tweeting From Left to Right: Is Online Political Communication More Than an Echo Chamber? [en línea]. 2015. [Acceso 10 de febrero de 2020]. Disponible en: https://doi.org/10.1177/0956797615594620Bay, Sebastian. The Black Market for Social Media Manipulation. [en línea]. 2018. [Acceso 18 de agosto de 2019]. Disponible en: https://www.stratcomcoe.org/black-market-social-media-manipulation
Bayer, Judit et al. Disinformation and propaganda – impact on the functioning of the rule of law in the EU and its Member States, 2019. [en línea]. http://www.europarl.europa.eu/RegData/etudes/STUD/2019/608864/IPOL_STU(2019)608864_EN.pdf [Acceso 10 de febrero de 2020]
Chan, MS; Jones, CR; Hall Jamieson, K; Albarracin, D. Debunking: A Meta-Analysis of the Psychological Efficacy of Messages Countering Misinformation. [en línea]. 2017. [Acceso 12 de agosto de 2019]. Disponible en: https://www.ncbi.nlm.nih.gov/pubmed/28895452
Colleoni, Elanor; Rozza, Alesandro y Arvidsson, Adam. «Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data». Journal of Communication, vol. 64, n.° 2 (2014), p. 317-332 https://doi.org/10.1111/jcom.12084
Cooke, Nicole. «Posttruth, Truthiness, and Alternative Facts: Information Behavior and Critical Information Consumption for a New Age». The Library Quartely, vol. 87, n.° 3 (2017), p. 211-221 https://doi.org/10.1086/692298
Council of Europe, Committee of Ministers. «Recommendation n.º R (97) 20 of the Committee of Ministers to Member States on “Hate Speech”». Council of Europe, (30 de octubre de 1997) (en línea) [Fecha de consulta: 08.07.2019] https://search.coe.int/cm/Pages/result_details. aspx?ObjectID=0900001680505d5b
Desir, Harlem. «OSCE Media Freedom Representative concerned by several provisions of Ukraine’s new draft law on disinformation». OSCE, (23 de enero de 2020) (en línea) [Fecha de consulta: 11.02.2020] https://www.osce. org/representative-on-freedom-of-media/444673
Donahue, Eileen. «Protecting Democracy from Online Disinformation Requires Better Algorithms, Not Censorship». Council on Foreign Relations, (21 de Agosto de 2017) (en línea) [Fecha de consulta: 12.08.2019] https://www. cfr.org/blog/protecting-democracy-online-disinformation-requires-betteralgorithms-not-censorship
EU vs. Disinfo. «The EU’s Camps in Ukraine: A Case of Proactive Disinformation». euvsdisinfo.eu, (15 de abril de 2019) (en línea) [Fecha de consulta: 08.07.2019] https://euvsdisinfo.eu/the-eus-camps-in-ukraine-a-case-ofproactive-disinformation/
EU vs. Disinfo. «Poland, the Baltic States, and Ukraine are Infected by Russophobia». euvsdisinfo.eu, (24 de enero de 2020) (en línea) [Fecha de consulta: 12.02.2020] https://euvsdisinfo.eu/report/poland-the-baltic-states-andukraine-are-infected-by-russophobia/
European Commission. «Fake News and Disinformation Online: Flash Barometer 464». ec.europa.eu, (2018c) (en línea) [Fecha de consulta : 29.11.2019] https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624278/ EPRS_STU(2019)624278_EN.pdf
European Commission. «Tackling Online Disinformation». ec.europa.eu, (13 de septiembre de 2019) (en línea) [Fecha de consulta: 09.08.2019] https:// ec.europa.eu/digital-single-market/en/tackling-online-disinformation
European Commission. «A Strategic Approach to Resilience in the EU’s external action». ec.europa.eu, (7 de junio de 2017) (en línea) [Fecha de consulta: 09.07.2019] https://eeas.europa.eu/sites/eeas/files/join_2017_21_f1_communication_from_commission_to_inst_en_v7_p1_916039.pdf
European Commission Report. «Fake news and disinformation online». ec.europa.eu, (2018a) (en línea) [Fecha de consulta: 08.07.2019]https:// ec.europa.eu/commfrontoffice/publicopinion/index.cfm/survey/getsurveydetail/instruments/flash/surveyky/2183
European Commission Report. «Action Plan Against Disinformation». ec.europa. eu, (2018b) (en línea) [Fecha de consulta: 08.07.2019] https://ec.europa.eu/ commission/sites/beta-political/files/eu-communication-disinformation-euco-05122018_en.pdf
European Parliament. «Motion for a resolution to wind up the debate on the statements by the Council and the Commission pursuant to Rule 132(2) of the Rules of Procedure on foreign electoral interference and disinformation in national and European democratic processes». European Parliament, (2019) (en línea) [Fecha de consulta: 26.04.2020] https://www.europarl.europa.eu/doceo/document/B-9-2019-0108_EN.html
Fedorchuk, Orysya. «Freedom of Media in Ukraine». Council of Europe, (2016) (en línea) [Fecha de consulta: 30.06.2019] https://www.coe.int/en/web/kyiv/ freedom-of-media-in-ukraine
Flaxman, Seth; Goel, Sharad; Rao, Justin. Filter Bubbles, Echo Chambers, and Online News Consumption. [en línea]. 2016. [Acceso 9 de febrero de 2020]. Disponible en: https://doi.org/10.1093/poq/nfw006
Flore, Massimo; Balahur, Alexandra; Podavini, Aldo; Verile, Marco. Understanding Citizens' Vulnerabilities to Disinformation and Data-Driven Propaganda. [en línea]. 2019. [Acceso 1 de septiembre de 2019]. Disponible en: https://publications.jrc.ec.europa.eu/repository/bitstream/JRC116009/understanding_citizens_vulnerabilities_to_disinformation.pdf
Froehlich, Thomas. «A Not-So-Brief Account of Current Information Ethics: The Ethics of Ignorance, Missing Information, Misinformation, Disinformation and Other Forms of Deception or Incompetence». BiD: textos universitaris de biblioteconomia i documentació, n.° 39 (2017) (en línea) [Fecha de consulta: 12.02.2020] http://bid.ub.edu/pdf/39/en/ froehlich.pdf
Grinberg, Nir; Joseph, Kenneth; Friedland, Lisa; Swire-Thompson, Briony y Lazer, David. «Fake News on Twitter During the 2016 U.S. Presidential Election». Science, vol. 363, n.° 6425 (2019), p. 374-378 https://science.sciencemag.org/content/363/6425/374
Grushetsky, Anton; Kruglashov, Andrii y Lygachova, Natalia. Opposition to Russian Propaganda and Media Literacy: Results of All-Ukrainian Opinion Poll. Analytical Report. Kiev: Detector Media, 2018 (en línea) https://detector.media/doc/images/news/archive/2016/136017/DM_KMIS_engl__ WEB-2.pdf
Hobbs, Renee y Frost, Richard. Measuring the Acquisition of Media-Literacy Skills. Reading Research Quarterly, vol. 38, n.° 3 (2003), p. 330-355 https:// www.jstor.org/stable/4151822
Ignatidou, Sophia. EU–US Cooperation on Tackling Disinformation. The Royal Institute of International Affairs, research paper, (septiembre de 2019) (en línea) [Fecha de consulta: 28.02.2020] https://www.chathamhouse.org/sites/ default/files/2019-10-03-EU-US-TacklingDisinformation.pdf
Ireton, Cherilyn y Posetti, Julie. Journalism, Fake News, and Disinformation: Handbook for Journalism Education and Training. UNESCO, Series on Journalism Education, (2018) (en línea) [Fecha de consulta: 20.07.2019] https:// en.unesco.org/sites/default/files/journalism_fake_news_disinformation_ print_friendly_0.pdf
Jang, Jeong-woo; Lee Eun-Ju y Yun, Soo Shin. «What Debunking of Misinformation Does and Doesn’t». Cyberpsychology, Behavior, and Social Networking, vol. 22, n.° 6 (2019), p. 423-427 http://doi.org/10.1089/ cyber.2018.0608
Jankowicz, Nina. «Ukraine’s Election is an All-out Information Battle». The Atlantic, (17 de abril de 2019) (en línea) [Fecha de consulta: 30.06.2019] https://www.theatlantic.com/international/archive/2019/04/russia-disinformation-ukraine-election/587179/
Kelly, Sanja; Truong, Mai; Shahbaz, Adrian; Earp, Madeline y White, Jessica. «Freedom on the Net 2017: Manipulating Social Media to Undermine Democracy». Fredoom House, (13 de noviembre de 2017) (en línea) [Fecha de consulta: 15.08.2019] https://freedomhouse.org/report/freedom-net/2017/ manipulating-social-media-undermine-democracyh
KIIS-Kiev International Institute of Sociology Report. «Index of Russian Propaganda Efficiency». Kiev International Institute of Sociology, (25 de marzo de 2015) (en línea) http://www.kiis.com.ua/?lang=eng&cat=reports&id=510
Kornbluh, Karen. «Could Europe’s New Data Protection Regulation Curb Online Disinformation?». Council on Foreign Relations, (20 de febrero de 2018) (en línea) [Fecha de consulta: 29.06.2019] https://www.cfr.org/ blog/could-europes-new-data-protection-regulation-curb-online-disinformation
Kunda, Ziva. «The Case for Motivated Reasoning». Psychological Bulletin, vol. 108, n.° 3 (1990) 480-498 https://doi.org/10.1037/0033-2909.108.3.480
Leetaru, Kalev. «In Less Than a Decade Twitter Has Gone From Empowering Democratic Activists To Silencing Them». Forbes, (6 de junio de 2019) (en línea) [Fecha de consulta: 11.02.2020] https://www.forbes.com/sites/kalevleetaru/2019/06/06/in-less-than-a-decade-twitter-has-gone-from-empoweringdemocratic-activists-to-silencing-them/
Maksak, Hennadiy; Shelest, Hanna; Bureiko, Nadiia; Koval, Nadiia y Koval, Maria. Ukraine Prism: Foreign Policy 2017. Kiev: Friedrich Ebert Foundation, 2018 (en línea) [Fecha de consulta: 13.07.2019] http://prismua.org/ wp-content/uploads/2018/04/A5-prizma2017_eng_web.pdf
Murrock, Erin; Amulya, Joy; Druckman, Mehri y Liubyva, Tetiana. «Winning the War on State-Sponsored Propaganda: Results from an Impact Study of a Ukrainian News Media and Information Literacy Program». Journal of Media Literacy Education, vol. 10, n.° 2 (2018), p. 53-85 (en línea) [Fecha de consulta: 18.08.2019] https://digitalcommons.uri.edu/jmle/vol10/iss2/4/
Polyakova, Alina y Fried, Daniel. «Democratic Defense against Disinformation 2.0». Atlantic Council, (13 de junio de 2019) (en línea) [Fecha de consulta : 15.07.2019] https://www.atlanticcouncil.org/in-depth-research-reports/report/democratic-defense-against-disinformation-2-0/
Polyakova, Alina y Gonzalez, Geysha. «The U.S. anti-smoking campaign is a great model for fighting disinformation». Washington Post, (4 de agosto de 2018) (en línea) [Fecha de consulta: 11.07.2019] https://www.washingtonpost.com/ news/democracy-post/wp/2018/08/04/the-u-s-anti-smoking-campaign-is-agreatmodel-for-fighting-disinformation/?utm_term=.68e671b5e3e3
Presidential Decree. «Updated Sanctions and Blocking of 192 Websites in Ukraine». The Presidential Office of Ukraine, (2018) (en línea) [Fecha de consulta: 12.07.2019] http://www.president.gov.ua/documents/1332017-21850
Silver, Laura. «Younger Europeans are far more likely to get news from social media». Pew Research Center, (30 de octubre de 2018) (en línea) [Fecha de consulta: 15.08.2019] https://www.journalism.org/2018/10/30/youngereuropeans-are-far-more-likely-to-get-news-from-social-media/
Snegovaya, Maria. «Putin’s Information Warfare in Ukraine: Soviet Origins of Russia’s Hybrid Warfare». Institute for the Study of War, (septiembre de 2015) (en línea) [Fecha de consulta: 11.08.2019] http://www.understandingwar.org/report/putins-information-warfare-ukraine-soviet-origins-russias-hybrid-warfare
Talant, Bermet. «Ukraine’s new TV channel aims to counter Russian propaganda in the Donbas». Kyiv Post, (24 de enero de 2020) (en línea) [Fecha de consulta: 13.02.2020] https://www.kyivpost.com/ukraine-politics/ukrainesnew-tv-channel-aims-to-counter-russian-propaganda-in-the-donbas.html
Tetlock, Phillip. Expert Political Judgement: How Good Is It? Princeton, NJ: Princeton University Press, 2005.
Tomilenko, Sergiy. «Ukraine: journalists’ union rejects new draft law on disinformation». European Federation of Journalist, (22 de enero de 2020) (en línea) [Fecha de consulta: 10.02.2020] https://europeanjournalists.org/ blog/2020/01/22/ukraine-journalists-union-rejects-new-draft-law-on-disinformation
Vandystadt, Nathalie. «Code of Practice against disinformation: Commission calls on signatories to intensify their efforts». ec.europa.eu, (29 de enero de 2019) (en línea) [Fecha de consulta: 01.09.2019] https://ec.europa.eu/commission/presscorner/detail/it/MEMO_19_752
Zollo, Fabiana; Bessi, Alessandro; Del Vicario, Michela; Scala, Antonio; Caldarelli, Guido; Shekhtman, Louis; Havlin, Shlomo y Quattrociocchi, Walter. «Debunking in a world of tribes». PlosOne, vol. 12, n.° 7 (2017) (en línea) [Fecha de consulta: 10.02.2020] https://doi.org/10.1371/journal. pone.0181821
Notas:
1- Entendemos por medio social una plataforma, aplicación o medio de comunicación en línea en el que participan e interactúan muchos usuarios.
2- Ley de Ucrania nº 1317 y nº 3359 y las sanciones contra Rusia que bloquean las plataformas de medios sociales originarias de allí.
3- Ley de Ucrania de 01.06.2010, Nº 2297 «Sobre la protección de datos personales».
4- La Estrategia para el Desarrollo del Espacio Informativo en Ucrania, la Doctrina de Seguridad Informativa y la Estrategia para la Ciberseguridad en Ucrania.
5- Véase: https://www.trumanlibraryinstitute.org/truman/truman-quotes/
Palabras clave: desinformación, Ucrania, Unión Europea, resiliencia, alfabetización mediática, intermediación, libertad de expresión
DOI: doi.org/10.24241/rcai.2020.124.1.73
Cómo citar este artículo: Hanley, Monika. «Salvaguardar el espacio informativo: las políticas de la UE y Ucrania ante la desinformación». Revista CIDOB d’Afers Internacionals, n.º 124 (abril de 2020), p. 73-98. DOI: doi.org/10.24241/rcai.2020.124.1.73