Inteligencia artificial y periodismo: una herramienta contra la desinformación

Revista CIDOB d'Afers Internacionals_124
Fecha de publicación: 07/2024
Autor:
Juan Luis Manfredi Sánchez y María José Ufarte Ruiz
Descargar PDF

Este trabajo investiga el impacto de la inteligencia artificial (IA) en el periodismo y en la desinformación. El diseño metodológico para alcanzar este propósito parte de la revisión de la literatura científica y se complementa con el análisis de tres perspectivas interrelacionadas: la periodística, la económica y la ética. Los resultados revelan que la desinformación es un fenómeno polisémico, lo que dificulta el diseño de una política pública para contrarrestarla. Sin embargo, la IA aparece como una oportunidad para contribuir a ello y desarrollar el concepto de ciudadanía, en tres ejes: 1) la mejora del estado del Periodismo profesional, 2) el manejo de la privacidad y 3) el planteamiento ético del desarrollo tecnológico, que contribuya a que las decisiones informativas sean conscientes y alejadas de los sesgos.

Introducción: contexto histórico y marco analítico

El periodismo es una actividad sujeta al impacto de las novedades tecnológicas, y ello modifica la noticia, es decir, la unidad de medida preferente de la industria periodística. Cada nueva oleada multiplica las posibilidades, crea nuevos modelos de negocio y afecta a la relación entre el periodista y la audiencia. La realidad virtual, los chatbots, los vídeos en 360 grados, el blockchain, la realidad aumentada, la cultura del big data o la presencia de algoritmos forman parte de un cambio cultural que ha promovido el «periodismo de alta tecnología» (Salaverría, 2014). Internet, los dispositivos móviles, los drones, las redes sociales y los nuevos medios conforman otra estructura informativa dominante, que mediante «la introducción de nuevas ideas, métodos y tecnologías permiten que los periodistas experimenten con nuevas formas de narrativa, en un marco amplio de cambio institucional y organizacional» (Cornia et al., 2016: 7). Este proceso abarca tanto las ideas, las rutinas profesionales, las estructuras y el mercado de la información, las conductas y usos sociales, como los dispositivos y plataformas que emplean masivamente la tecnología. Así, en la literatura académica aparecen las nociones de robojournalism (Carlson, 2015; Lemelshtrich, 2018; Van Dalen, 2012), «periodismo computacional» (Clerwall, 2014; Karlsen y Stavelin, 2014; Vállez y Codina, 2018) o «periodismo automatizado» (Caswell y Dörr, 2018). En todo caso, la «alta tecnología» es ya una realidad en las empresas periodísticas (Newman, 2019). El último reto es la llegada de la inteligencia artificial (IA) a la profesión periodística (Graefe, 2016), la cual, sin apenas tiempo para digerir la etapa anterior, ha generado lagunas en la audiencia. En este sentido, Posetti (2018: 9) aporta una visión crítica: «Son actos aislados de innovación sin una hoja de ruta con metas y objetivos que incluyen la obsesión por la última moda que de forma innecesaria distraen de las funciones principales del periodismo, provocan el cansancio y la fatiga y generan el riesgo de estagnación o parálisis por innovación». 

En este contexto, el presente trabajo aspira a contribuir al estudio de cómo la IA afectará al periodismo internacional. Para ello, se partirá de tres perspectivas interrelacionadas, como son la periodística, la económica y la ética , y se utilizarán tres conceptos: la propia IA, la desinformación y la privacidad. Se entiende por IA el uso de dispositivos de computación para el procesamiento de volúmenes de información que da como resultado un razonamiento o un comportamiento que simula al ser humano. Este concepto contiene dos dimensiones: una más simple que se ocupa de las tareas mecánicas y sistematizadas comprendidas en un algoritmo diseñado con anterioridad; y otra que, sostenida sobre el aprendizaje automático, mejora el algoritmo original y toma decisiones en situaciones de información imperfecta, lo que la acerca mucho a la creatividad humana. Al respecto, la Comisión Europea (2019: 6) ha propuesto una definición más extensa: «la inteligencia artificial es un conjunto de sistemas de software (y de hardware) diseñados por humanos que, dado un objetivo complejo, actúan en la dimensión física y digital. Comprenden su entorno mediante la captura de datos, los interpretan bien sea de forma estructurada o desestructurada, razonan y crean conocimiento, procesan la información derivada de los datos capturados, y deciden cuál(es) son la(s) mejor(es) acción(es) para conseguir el objetivo indicado». Respecto a la desinformación, siguiendo a Magallón (2019) y Bradshaw y Howard (2017), esta se define como la creación, producción y distribución de informaciones falsas, imprecisas o descontextualizadas, así como la captura de información privada (perfiles y prácticas en redes sociales) con fines propagandísticos y la creación de perfiles y usuarios falsos para operaciones de influencia. Por último, referente a la privacidad, esta es relevante en cuanto a concepto sobrepasado por la transformación estructural de la participación en la vida pública, sobreexpuesta en redes sociales y nuevos medios (Fernández Barbudo, 2019) y que afecta a nuestra identidad ciudadana, tal como la define Toscano (2017: 537): «aquellos asuntos personales que sólo nos conciernen a nosotros y acerca de los cuales nos corresponde decidir sin interferencias». Esta aproximación casa con el impacto de las campañas de desinformación en la plaza pública.

Materiales y métodos

En este marco, este estudio formula tres preguntas de investigación: ¿qué supone la llegada de la IA a la industria informativa?; ¿afecta la IA al proceso de producción más que a la difusión?; y ¿beneficia a los valores éticos de veracidad y objetividad o proporciona un instrumento para la distribución instantánea de propaganda y/o desinformación? 

De esta manera, se analiza cómo ha impactado la IA en la industria periodística y las oportunidades de mejora que comporta en los procesos de redacción periodística, además de  la aparición de nuevos formatos en la línea de lo expresado anteriormente. Ello lleva a plantear dos hipótesis: 1) que el impacto de la IA en el periodismo internacional contribuye a la creación de nuevos géneros, así como nuevas estrategias basadas en la explicación y la dotación de contexto (memoria, capacidad relacional o causalidad) y la eliminación de otros géneros en desuso (la repetición de noticias de escaso valor añadido para el lector), y 2) que los modelos de creación, producción y distribución de desinformación  se han multiplicado de forma exponencial por la IA, lo que supone la mayor transformación de la propaganda desde la consolidación de los medios de comunicación globales.  

El fenómeno de la desinformación se caracteriza, como se ha mencionado, por la producción y distribución de contenidos falsos o no veraces (Tandoc et al., 2018). Pero la novedad aquí no reside tanto en la diseminación de mentiras, que no es un fenómeno nuevo, como en la velocidad que ha alcanzado la mentira hasta instalarse en el corazón del orden liberal. El estudio de Vosoughi et al. (2018) confirma esta hipótesis, al demostrar que los contenidos falsos se retuitean más y llegan a más gente que los veraces. Y ello es así porque los robots aceleran el proceso de retuiteo sin tener el criterio sobre lo que es verdadero o falso. La idea de «desorden informativo» de Wardle y Derakhshan (2017) ofrece un paraguas semántico apropiado al respecto. Es una situación desconcertante que ha generado una suerte de «dividendo del mentiroso» (Chesney y Citron, 2019). Por su parte, Del Fresno (2019: 2) apunta el porqué de la complejidad: «La desinformación tiene una mayor complejidad, en sí misma y para su identificación, que las fake news, ya que para ser eficaz en su objetivo no necesita ser completamente falso». 

Para llevar a cabo la investigación sobre estas nuevas propuestas, el diseño metodológico de este trabajo parte de la revisión sistemática de fuentes, que forma parte de la investigación secundaria (Codina, 2017), y permite conocer las principales aportaciones al estado de la cuestión y realizar un análisis comparativo (Ramírez y García, 2018).

Inteligencia artificial y periodismo

La IA consiste en la aplicación de sistemas para la generación de productos informativos basados en datos y algoritmos. Se produce una escritura automática de textos que aprende de una librería de narrativas y permite la redacción de piezas periodísticas con estructuras y fórmulas previsibles, las cuales son suficientes para acontecimientos repetitivos de cobertura rutinaria. Ello abunda en informaciones financieras, cotizaciones bursátiles, así como en la difusión de resultados deportivos e información meteorológica. El fenómeno acelera el empleo de datos y fuentes para la verificación de declaraciones en tiempo real o en diferido de cifras e informes (Hansen et al., 2017). En breve, el público no será capaz de distinguir la autoría (Napoli, 2012; Van Dalen, 2012).

La nueva tecnología genera contradicciones y reajustes o adaptaciones. En la redacción, dicha automatización de tareas conduce a la reconfiguración de la plantilla y a la eliminación de algunos de los puestos de trabajo de escaso valor añadido. Se impone la lógica de los costes marginales decrecientes comunes a la difusión de la tecnología: las tareas en las que el capital humano aporta poco valor se automatizan, de modo que se redefinirán multitud de puestos y roles dentro de la redacción. Lewis (2010) considera que el «paradigma de la redacción» ha determinado el tipo de perfil profesional y las competencias valoradas por la industria, que minusvaloraba otras habilidades relacionadas con la transformación digital o la economía de los medios. 

En relación con los contenidos, el periodista profesional acaba abandonando determinados géneros periodísticos, como la noticia (Túñez et al., 2019) y la elaboración de perfiles biográficos basados en información pública. La producción se reconduce entonces hacia un periodismo más pausado (Drok y Hermans, 2016) y orientado hacia la creación de un estilo personal (la columna) o el enfoque ético de las noticias (¿debo publicar esta información a sabiendas de su carácter personal?) o el análisis (¿qué consecuencias tiene dicho resultado electoral en nuestro país?). La empresa periodística reinventa así su misión mediante la provisión de un periodismo basado en la explicación contextual, la investigación de nuevos temas fruto de filtraciones y confidencias humanas, el uso de narrativas basadas en el estilo personal del periodista o con informaciones de relevancia para la sociedad (Patterson, 2013).

Sin embargo, la IA en periodismo no está exenta de riesgos. La automatización de las tareas y las decisiones favorece las prácticas del ciberanzuelo (clickbait) para incrementar los flujos de audiencia a costa del periodismo de servicio público. La orientación al resultado disminuye la redacción de aquellas piezas que puedan despertar menor interés o impacto entre la audiencia. La decisión comercial, pues, prima sobre el criterio periodístico (Whittaker, 2018). Túñez y Toural (2018) afirman en este sentido que el desarrollo operativo de la tecnología no ha sustituido aún el valor de los procesos cognitivos, la conciencia o la ética, que desembocan en los criterios de noticiabilidad.

En el tablero internacional, la IA sigue ganando terreno desde que en 2014 Los Angeles Times publicase una noticia sobre movimientos sísmicos elaborada por el software Quakebot (Flores-Vivar, 2018) y Associated Press comenzara a difundir textos automatizados sobre informes trimestrales de resultados económicos (Lichterman, 2017). La lista es extensa: medios de comunicación como The Washington Post (contenido deportivo y de finanzas), The New York Times (deportes), Forbes (economía y deportes), Big Ten Network (deportes y finanzas), Reuters (deportes) o ProPublica (calidad de la educación estadounidense) han creado textos automatizados entre sus contenidos. En Brasil, Monnerat (2018) hace referencia a un robot periodista que informa sobre proyectos legislativos. En China, el Southern Metropolis Daily experimentó con el robot Xiao Nan (Martín, 2017) y la agencia Xinhua ha creado a Jia Jia, un robot que actúa como un entrevistador. En Japón, el The Shinano mainichi shimbun utiliza una solución automatizada para resumir noticias y, en Corea del Sur, The Financial News publica noticias automatizadas sobre el mercado de valores. En Europa, los británicos The Guardian (deportes y finanzas), la BBC (noticias locales) y The Telegraph (deportes) (Gani y Haddou, 2014), así como los alemanes Der Spiegel, Neue Osnabrücker Zeitung, Weser-kurier, Radio Hamburg Fussifreunde, Fupa.net; Handelsblatt y Berliner Morgenpost ya han experimentado también con el empleo de IA para la producción de noticias. Asimismo, las agencias de comunicación difunden contenidos automatizados; entre ellas, DPA (Alemania), ANP (Holanda), STT (Finlandia), AFP (Francia), APA (Austria), Ritzau (Dinamarca), Lusa (Portugal), NTB (Noruega) y TT (Suecia) (Túñez et al., 2018). 

El periodismo y la búsqueda de la verdad 

Según la definición académica, el periodismo consiste en la provisión de información veraz y de interés público para la comunidad. La veracidad es una cualidad que requiere una serie de competencias y habilidades profesionales, como la práctica de la doble revisión de las fuentes, la calidad en la redacción y el manejo del idioma. El criterio periodístico distingue qué asuntos son relevantes y las noticias se articulan para explicar lo que sucede de acuerdo con una cierta idea de objetividad, que se complementa con la opinión y la interpretación analítica. La condición de veracidad subyace así en la calidad del texto, por lo que esta puede reclamarse tanto en las piezas informativas como en las opinativas. Ello permite al lector reconocer un texto periodístico de calidad frente a un rumor: se cita la fuente, el periodista está presente, se evita el uso del condicional, además de otras características habituales en la definición del valor periodístico (Harcup y O’Neill, 2017). 

Sin embargo, esta definición no casa con la realidad actual. Según multitud de estudios sociológicos, como el Edelman Trust Barometer1, la credibilidad de la política, la academia, la prensa y las instituciones se ha visto mermada, y la opinión pública se configura mediante otros proveedores de información. Como sugiere Nichols (2017), el conocimiento experto ha perdido valor en sí mismo: compite en las mismas condiciones contra la ignorancia o la falsedad. Por eso, el periodismo tiene un problema estructural. Fletcher y Nielsen (2017: 16) indican que «el debate global sobre la desinformación se desarrolla en un contexto en el que las personas no creen en las noticias y las empresas periodísticas, son escépticas sobre la información que reciben en plataformas, y observan un periodismo pobre, propaganda política y formas deshonestas de publicidad y el clickbait como elementos que contribuyen a agrandar el problema». 

El auge de las noticias falsas y otras técnicas de desinformación adquiere un matiz diferencial respecto de la historia de la propaganda (Darnton, 2017). El interés consiste en disminuir la credibilidad de las instituciones y actores mediadores para diseminar la incertidumbre. Los ejércitos de bots y trols no tienen como misión imponer una verdad acreditada, sino debilitar la posición del contrario, atacar con falacias, distribuir información imprecisa o fomentar la denuncia de las incoherencias entre la clase dirigente (Bradshaw y Howard, 2017). 

Las redes sociales no asumen la responsabilidad por lo vertido en ellas. El público carece de habilidades o interés para resistir a la marea desinformativa. Bajo la apariencia de realidad objetiva y sin filtros, influyen en la construcción social: «los algoritmos podrían entenderse como creadores de verdad sobre asuntos como el riesgo, el gusto, la elección, el estilo de vida, la salud» (Beer, 2017: 8). En la práctica, su falta de responsabilidad sobre los contenidos les exime en la construcción social de la verdad. El exjefe de seguridad de Facebook, Alex Stamos, no concede tanta importancia a la injerencia como a la actividad amateur: «la mayor parte de la desinformación política procede de semiprofesionales que hacen dinero colocando ahí contenido desinformativo, no están motivados políticamente y tienen poca relación con los actores políticos» (en Kwan, 2019).

Cinco técnicas de desinformación

La primera técnica para la desinformación es la manipulación activa de los contenidos con un propósito predefinido: la celebración de un proceso electoral o el apoyo a un candidato son los ejemplos más conocidos gracias a los escándalos de Cambridge Analytica. En estos casos, la desinformación no procede de la difusión de datos falsos, sino de la violación de las políticas de privacidad y el manejo de datos privados por parte de la compañía tecnológica para otros fines que concluyen en la erosión de la capacidad individual de elección de su propio menú informativo. 

El segundo método es la manipulación pasiva, y consiste en el refuerzo de las cámaras de eco y las burbujas informativas. Estas prácticas disminuyen la calidad de la información disponible para que el ciudadano tome sus decisiones de forma autónoma, tras la elaboración de su propio juicio de valor. La clasificación de personas en función de sus preferencias y gustos, así como de su estado emocional, permite el diseño de una campaña específica para cada individuo. La falta de control sobre la privacidad de los mensajes y la aceptación sistemática de las condiciones de uso de redes sociales favorecen dicha técnica. Parece probable que, si se confía en el criterio y el juicio social en una caja negra de algoritmos y decisiones matemáticas, se produzca este tipo de desinformación (Pasquale, 2015).

La tercera técnica es la falta de transparencia en el diseño y la gestión de los algoritmos. La opacidad de los gigantes tecnológicos impide cuantificar el daño o el problema. Al respecto, Beer (2017: 4) explica la confusión: «observar el algoritmo como un ítem separado fuera de su ecología social es un error (…) Su existencia y diseño responden a fuerzas sociales, así como su implementación o rediseño». Los resultados requieren interpretación humana, que cuenta con «motivaciones inconscientes, emociones particulares, elecciones deliberadas, determinaciones socioeconómicas o atribuciones geográficas o demográficas» (Hildebrandt, 2011: 376). Matthias (2004) señala el problema que supone que el individuo no necesite entender la lógica de la toma de decisiones basada en ecuaciones matemáticas, lo que le aleja de los núcleos de poder de decisión. La desinformación opera aquí mediante la creación de verdades algorítmicas, que identifican correlaciones entre flujos de datos y resultados, pero no establecen una relación causal sólida.

La cuarta novedad es la calidad de las falsificaciones audiovisuales. No es un futurible: se ha difundido un vídeo falso del expresidente Obama con declaraciones de un discurso de Donald J. Trump, otro de Nancy Pelosi en el que hacía declaraciones borracha, así como retratos vivientes de La Gioconda o Albert Einstein. Hay software disponible en el mercado para ello; por ejemplo, el programa VoCo, de la empresa Adobe, permite editar vídeo y añadir audio con técnicas muy sofisticadas2. La máquina aprende a reconocer patrones de movimiento y voz, de manera que calca los gestos de la persona que protagoniza el documento. No son imitaciones o copias, sino la reproducción de tics extraídos del aprendizaje de las expresiones faciales que acompañan a cada fonema. Se crea una copia tridimensional de la nariz y boca para reconstruir el discurso del sujeto. Para una pieza de vídeo con declaraciones para televisión, un corte de 30 segundos, basta con un material previo de 40 minutos. Chesney y Citron (2019: 152-153) auguran, respecto a este fenómeno, el crecimiento del oficio de forense tecnológico dedicado a analizar la veracidad de los contenidos, a dar validez a declaraciones y mensajes que navegan por la esfera digital y para la defensa de la reputación de los personajes públicos. 

La quinta técnica es el uso de la ficción para la construcción de comunidades imaginadas; bien sea a través de la «comunidad Netflix» o a través de sistemas estatales de comunicación, la difusión de contenidos bajo la etiqueta de «cine de no ficción», «basado en hechos reales» y otras etiquetas parecidas. La IA actúa como vehículo para identificar los gustos y las decisiones tomadas en el pasado para adivinar preferencias futuras. No es un asunto menor en la construcción de un relato emocional que persigue la identificación de las audiencias con un banco de valores sociales determinado. Del Fresno y Manfredi (2018: 1.232) apuntan como ejemplo de ese cóctel de ficciones y emotividad el caso de la crisis catalana: «Las emociones y los sentimientos son reales, se concluye que los objetivos también son reales y, por lo tanto, las emociones compartidas son importantes. Es decir, la emoción y los sentimientos se equiparan a la verdad y la legalidad. Así es como se fabrica la epistemología, y también la legalidad de la post-verdad».

Frente a estas técnicas, la defensa de la veracidad –que no de la verdad– es tarea de las políticas públicas, con distintas responsabilidades multinivel, de naturaleza pública y privada, con gobiernos, multinacionales tecnológicas, usuarios y académicos en su diseño y ejecución (Bullock y Luengo-Oroz, 2019). La gobernanza de la IA es un asunto de doble vertiente, política y tecnológica. La política parte de la aceptación de las normas y reglas del derecho internacional y del acuerdo mínimo para la protección de derechos como la privacidad. La Comisión Europea publicó en diciembre de 2018 el Action Plan against Disinformation3, que identifica esta actividad como una amenaza directa a la estabilidad europea. En el Consejo de Europa (2018), asimismo, se debatió sobre el impacto de la desinformación en los derechos humanos. Frente al modelo intergubernamental, conviene considerar las alternativas que se plantean en la esfera global. Respecto a la vertiente tecnológica, ha cuajado la idea de que los asuntos tecnológicos permiten un modelo de participación y gobernanza distinto, con oportunidades para la cooperación (Raymond y DeNardis, 2015). En este sentido, la Estrategia de Ciberseguridad de la Unión Europea4 recoge la necesidad de compartir responsabilidades entre las instituciones públicas, la iniciativa privada y la ciudadanía, cada cual con sus distintas capacidades y metas.

En síntesis, el impacto de la IA en el periodismo afecta a la creación, producción y distribución de productos informativos, y supone la mayor transformación de la industria en la historia contemporánea. Impacta, sobre todo, en el género informativo, ya que la acumulación de informaciones –sean estas veraces o imprecisas– inunda la esfera pública. La generación de productos informativos basados en datos y algoritmos, con apoyo del aprendizaje automático, crea asimismo nuevos riesgos en la profesión periodística, al generar externalidades económicas en la empresa y contribuir al desvanecimiento de la credibilidad social ante las instituciones hasta entonces confiables, ya sean estas compañías de medios de comunicación o periodistas por cuenta propia.

Economía de la desinformación 

La IA promueve la personalización de la información y facilita un modelo de consumo individualizado. Desde la razón económica, este modelo limita la libertad de elección y reduce la producción de excedentes: solo se escribe o se emite aquello que el lector tiene interés por conocer, sin la responsabilidad social de ofrecer una visión más amplia de la actualidad. Sería la primera característica de lo que podemos llamar la nueva economía de la desinformación. Así, la economía opera bajo la siguiente aporía: la estandarización personalizada en un universo de productores y distribuidores oligopólicos de contenidos. Sobre un catálogo extenso, el lector muestra sus gustos, que la IA se encarga de modelar en tiempo real con las redes sociales. Ello produce una desinformación bajo demanda que mezcla la agenda de acontecimientos con el estado emocional del lector, con recomendaciones y contenidos populares, aunque no encajen con el perfil (Bakshy et al., 2015). Las campañas apalancan las cámaras de eco y los filtros burbuja, entre otros fenómenos de comunicación política digital (Campos, 2017). En este proceso, hay menos impacto del sugerido por Pariser (2011), pero sí hay evidencias de que, «cuando la gente está inundada por información, aquella que coincide con nuestro interés se percibe como de mayor calidad y es más propicia para ser consumida» (Stroud et al., 2017: 46).

La economía de la desinformación, en este sentido, aprovecha las oportunidades de la automatización para la creación de un catálogo actualizado de contenidos imprecisos, que lastran la credibilidad del medio o plataforma que los aloja. La velocidad en la que se distribuyen dichos mensajes dificulta la intervención para atajar la difusión de mentiras. Por ejemplo, en la comunicación efímera de Instagram, un bulo que circula por mensajería o un trending topic requieren una inversión enorme de recursos y personal en la prevención y la detección temprana, recursos de los que carecen las instituciones públicas. De hecho, el coste de intervención es tan elevado que agota los recursos económicos y, sobre todo, los personales. Hamid Akin Ünver (2017: 7) explica al respecto que «incluso cuando el defensor tiene éxito, el proceso psicológico consume [energías] y persiste».

Una segunda característica económica es la reducción de los costes de creación y diseño de una campaña de desinformación automatizada. Una librería de noticias falsas oscila entre los 10.000 y los 50.000 piezas ya publicadas que sirven de inicio, a partir de los cuales la ingeniería del aprendizaje de la máquina alcanza un algoritmo de variabilidad (combinaciones de textos e imágenes en lenguaje periodístico) y de similitud (personalización de cada campaña), logrando el aspecto de información neutral, coherente y sencilla. El precio por 80.000 piezas periodísticas mensuales ronda los 40.000 euros anuales (Ufarte y Manfredi, 2019: 11). En estas condiciones, esta opción es accesible a un amplio abanico de actores, lo que explica, en parte, el auge del discurso del odio automatizado, que enturbia la deliberación pública en Internet y redes sociales. En un sentido u otro, va aumentando el número de actores involucrados en el mercado de la información con intereses editoriales ajenos a la industria periodística. Think tanks, representaciones diplomáticas, ONG, empresas privadas o influencers compiten por atraer la atención de los lectores y usuarios, por lo que pueden utilizar las técnicas arriba mencionadas. Las campañas de relaciones públicas, con el uso de bots incluido, expulsa del mercado a los periodistas, cuyo salario deja de ser competitivo en un entorno que diluye las fronteras entre redactor, publicista, lobista o robot-periodista. Benkler et al. (2018: 9) han mapeado las redes de polarización en la democracia estadounidense y han categorizado a estos actores como «emprendedores de las fake news y fabricantes de clickbait político». En este universo no hay ni rastro de la profesión periodística.

Como tercera característica, destacamos el manejo de los datos, a menudo de propiedad individual, que se asimila como coste de producción con coste marginal decreciente. Las empresas de telecomunicaciones pelean por esta realidad productiva, ya que las redes sociales operan con un bien intangible, como son los datos, cuyo coste tiende a cero. Los usuarios construyen sin saberlo la IA proporcionando el contenido que constituye la base y el volumen de actividad: sin acceso a los datos de los teléfonos móviles, no habría IA. Este coste oculto no aparece en los balances de las compañías y, sin embargo, es esencial en la construcción de la industria de la desinformación. El usuario, como productor y consumidor a un tiempo de productos y servicios desinformativos, forma parte de la cadena de valor. 

La cuarta característica es la escala de reproducción, esto es, el volumen que alcanza la desinformación en los flujos de información encaja con la lógica de distribución de contenidos en redes sociales y buscadores. La gratuidad de los servicios más populares se compensa con la entrega de la privacidad, es decir, con el acceso a los comentarios y comportamientos del usuario digital. En la lógica de la estandarización personalizada antes apuntada, la cantidad de exposición a contenidos falsos no es tan relevante como el hecho de que estos se personalizan y orientan hacia creencias previas. En este sentido, no hay aguja hipodérmica, sino un refuerzo de las ideas preestablecidas. Se quiere lograr así la identificación con la audiencia, que busca una agenda de temas rupturista respecto de los medios de comunicación tradicionales (agenda setting) y un modo crítico de sindicar comportamientos y promover los juicios de valor (priming). El fenómeno se retroalimenta hasta que, periódicamente, salta de las redes a los grandes medios. Es un circuito recurrente. Mele (2019) razona la lógica económica de la desconfianza: «Los algoritmos amplifican la desconfianza en las instituciones y los líderes públicos. Hacen más difícil conectarse con puntos de vista alternativos y abrirse a nuevas formas de pensar».

Esta técnica se repite, por ejemplo, tanto en la extrema derecha estadounidense como en la alemana. En Estados Unidos, los grupos de ultraderecha utilizan redes sociales, memes, bots y otros instrumentos susceptibles de reenvío masivo para compartir contenidos «políticamente incorrectos». Bajo la etiqueta de «esto no lo verás en los medios tradicionales» se difunden contenidos supremacistas, racistas y misóginos (Marwick y Lewis, 2017). En Alemania, Krüger (2016) señala que el consenso en torno a la coalición entre conservadores y socialistas ha favorecido la imagen de un periodismo al servicio del poder establecido; una vaguedad que facilita que los medios alternativos construyan su imagen de incorrección. Y, en la economía de la desinformación, la precisión y la veracidad no son precisamente valores periodísticos. Stroud et al. (2017: 46) afirman que «el apalancamiento de la identidad social sería más efectivo en el punto de distribución que en la recepción de la audiencia»; mostrar nuestra identidad en redes sociales y, sobre todo, nuestro desacuerdo con los medios tradicionales alarga el ciclo de vida de la desinformación. 

En este punto, se concluye que la industria periodística compite con aquella dedicada a la difusión de contenido falso o impreciso. En la medida en que la atención del lector es limitada, la economía de la desinformación impacta en los cimientos de la empresa periodística. La IA, en este sentido, podría contribuir a identificar productos informativos de origen dudoso o mecánico, llamados a inundar la conversación para ahogar la calidad de la misma, o bien para producir informaciones periódicas que liberen espacio para que la redacción se dedique a dotar de contexto y sentido a la información que circula en redes. 

Ética periodística, desinformación e inteligencia artificial

La automatización de noticias abre debates que van más allá de la sustitución del individuo por la máquina, trasladándolos a los valores sociales y morales y a las normas de excelencia que el público exige en el seno de una sociedad democrática (Kovach y Rosentiel, 2007). El impacto positivo de la IA en el periodismo se cimenta, en este marco, sobre el discurso de la objetividad. La provisión de información y análisis, la interpretación de la realidad e incluso los géneros de opinión tienen ese propósito aspiracional, esto es, proporcionar información e interpretación sustentada sobre fuentes, hechos comprobados y contraste de voces. La misión del periodismo consiste, así, en la explicación de la realidad y la construcción de significados y no tanto en el amontonamiento de cifras. Sin embargo, la desinformación aprovecha esta condición factual para atacar la idea misma de objetividad y fundamentar los análisis sobre la correlación de hechos, en vez de sobre la interpretación que de ellos hace el redactor. Esta interpretación de los datos obvia que la recolección de información, el diseño de las categorías o la agenda de temas se sostienen también sobre criterios concretos, decididos por el promotor de una cierta visión del mundo. La automatización permite la reducción de tareas sin valor añadido, al mismo tiempo que «despersonaliza» aquellas que son recurrentes (transcripción de una rueda de prensa, por ejemplo). Pero el lado humano y los posibles defectos conceptuales no se desvanecen, sino que se trasladan al programador, tal como indica Ünver (2017: 10).

Los datos, de manera aislada, no generan objetividad, y ello por tres motivos. En primer lugar, porque existe una asimetría evidente entre los operadores globales de servicios digitales y la capacidad de elección individual. El lector no puede aislarse del uso de redes sociales o buscadores, convertidos en bienes públicos de uso global. La falta de competencia erosiona la libertad de elección y la capacidad de intervenir en la esfera pública. En segundo lugar, porque el dato que alimenta la IA tiene una naturaleza política. La captura de datos responde a un curso preexistente, que predefine los campos, las búsquedas o las conexiones. Es posible hablar entonces de la condición política de los datos (data politics): «los datos no suceden sin prácticas sociales estructuradas» (Ruppert et al., 2017: 2). Y, en tercer lugar, porque el dato y la IA no pueden sustituir el criterio periodístico. El diseño de procesos, la técnica de computación o el modo de procesamiento de la información afectan al resultado mismo del trabajo informativo. Bucher (2017: 926) aplica esta lógica al periodismo: «El empleo de algoritmos para jerarquizar las noticias no solo parece que desafía el ideal periodístico de informar al público, sino que también parece comprometer su credibilidad. (…) Existe un amplio consenso en el hecho de que la visión editorial de una empresa periodística actúa como elemento autentificador de su credibilidad».

En los textos automatizados, la pugna por el control está focalizada en el proceso de creación de las bases de datos, en la capacidad de decidir sobre la disponibilidad de la información y en las bases de los algoritmos. La construcción de las bases de datos y el diseño del algoritmo son los condicionantes del resultado final, por lo que los reclamos de rigor y honestidad y la exigencia de imparcialidad en las noticias ya no podrían hacerse al texto, sino a las fases anteriores de almacenaje y ordenación de datos y a la creación informática del algoritmo, que es el encargado de interpretar esos datos y convertirlos en relato informativo. Como indican Marconi y Siegman (2017), el debate sobre los aspectos éticos hace surgir reclamos para que en este momento fundacional, los promotores, los empresarios y los usuarios de IA se adhieran a los valores éticos y a los estándares preexistentes.

Se abre, de este modo, la puerta al debate sobre la ética y la deontología en el periodismo artificial, que entronca con el informe sobre robótica en el que se establece un Código Ético de Conducta aprobado por el Parlamento Europeo en 20175 (López de Mantarás, 2017). Por esta razón, Salazar (2018: 311) aconseja diferenciar las normas para creadores de robots y para los robots creados, porque «no se debe confundir la ética en la robótica con la ética en las máquinas, es decir, una ética que obligue a los propios robots a adherirse a reglas éticas». 

Entre el paternalismo y la censura

La IA requiere una gobernanza compartida, así como un orden legal. La desinformación es un asunto que afecta al sistema de libertades públicas y derechos fundamentales. Algunos autores defienden el poder social de los algoritmos (Beer, 2017) y la condición política de los datos. Green (2018: 45) aclara, en este sentido, la interrelación entre política, sociedad y datos: «la ciencia de los datos carece del lenguaje y los métodos para reconocer de forma plena y evaluar su impacto en la sociedad, incluso aunque esté cada vez más orientada al impacto social». Así se justifica la noción de «poder social», porque crea una autoridad que estructura la veracidad, las percepciones de la opinión pública y las estructuras informativas. La gobernanza de la desinformación genera contradicciones, ya que surge el debate sobre la censura y el control de contenidos. No hay duda de que hay que prohibir los vídeos y las informaciones que alimentan el discurso del odio, pero ¿quién programa el algoritmo que clasifica esta o aquella pieza como odio? La censura exige un acuerdo previo sobre qué valores son compartidos y cuáles dependen de la libertad individual. 

Asimismo, en el entorno digital, la censura física sobre objetos y productos carece de valor real: una campaña de desinformación salta de móvil a móvil sin barreras materiales. La IA puede contribuir a identificar los contenidos perniciosos para la convivencia, pero antes habrá que consensuar la aproximación ética a asuntos espinosos: libertad religiosa, humor o sátira, libertad sexual, pornografía infantil, hábitos saludables o violencia contra minorías, por citar los ejemplos más evidentes. Por un lado, pues, se controlan las preferencias con la vigilancia de tuits, likes y búsquedas, actividad que acabará en manos de la inteligencia artificial. Por el otro, crece la necesidad de utilizar el criterio humano para identificar cuáles de esos patrones están contaminados por la desinformación y nos alejan –como sociedad– de los bienes públicos. 

En una consecuencia derivada de protección de los intereses comerciales, puede suceder que la IA incremente la censura preventiva. Chesney y Citron (2019: 154) señalan que «las compañías ansiosas por evitar responsabilidades legales preferirán errar por el lado de la contención de contenidos demasiado agresivos, mientras que los usuarios podrían comenzar a autocensurarse para evitar el riesgo de ver sus contenidos censurados». Esta deliberación conduce al diseño intencionado, mediante controles o incentivos. La orientación de las conductas individuales aspira a automatizar las decisiones y reducir los costes de transacción. Orientar las decisiones hacia un bien común parece una idea acertada, pero de nuevo aparece el fantasma del consenso ético. En la libertad de información, el diseño de un árbol de decisiones desde la administración pública con la participación privada obliga a facilitar información sobre usos y conductas privadas, a título individual. La interferencia en la conducta minusvalora la libertad individual; se asemeja a los mecanismos de control ex ante y al discurso paternalista de una sociedad dirigida por la tecnocracia de los datos.

La censura y la configuración ex ante de las necesidades sociales abogan por una reflexión ética. La filósofa Adela Cortina (2004) acuñó la noción de «ciudadanía mediática», aquella en la que la persona tiene la capacidad de participar en la opinión pública de forma «madura y responsable en esa esfera de la discusión abierta que debería ser la médula de las sociedades pluralistas» mediante «informaciones contrastadas, opiniones razonables e interpretaciones plausibles». Antes las empresas periodísticas y ahora las plataformas son escenarios de conversación y de construcción de la realidad. Esta tarea incumbe tanto a las personas como a las instituciones, con el objeto de incrementar la dotación de bienes públicos disponibles. El bien social persigue el desarrollo de la ciudadanía en un entorno político y social: con información inteligible, el ciudadano interpreta la realidad que le rodea y puede tomar decisiones en libertad. El bien interno señala el crecimiento personal derivado de la capacidad de crearse una opinión sobre los acontecimientos que suceden en su entorno inmediato y dotarse de juicio. Por último, el bien externo indica que la información es precondición de la democracia contemporánea, la participación en los asuntos públicos, la transparencia y la rendición de cuentas (Manfredi, 2017).

En este sentido, la función social del periodismo amerita una reflexión profunda. Siguiendo a Floridi (2018b), el periodismo es un instrumento de creación de capital semántico que contribuye a la creación de sentido, contexto y significado. Por este motivo, en un entorno tecnológico en el que la máquina inteligente provee de reserva de datos, el periodismo puede mejorar la búsqueda de información, clasificar la calidad de las fuentes, dotar de significado y consolidar el sentido de contenido auténtico y veraz frente a las deep fakes (ibídem, 2018a).

Conclusiones

En este artículo se ha intentado responder a las tres preguntas de investigación apuntadas al inicio de este trabajo: ¿qué supone la llegada de la IA a la industria informativa?; ¿afecta la IA al proceso de producción más que a la difusión?; y ¿beneficia a los valores éticos de veracidad y objetividad o proporciona un instrumento para la distribución instantánea de propaganda y/o desinformación? 

De este modo, se ha verificado en qué medida la IA influye en la configuración de la industria informativa, con multitud de ejemplos actuales y en marcha. No son iniciativas aisladas o casos puntuales: existe una industria de la IA aplicada al periodismo que comienza a ser rentable. En periodismo internacional, los géneros de menor valor añadido (resúmenes de actualidad, informes económicos y financieros) ya pueden ser elaborados por máquinas. El reto del periodista internacional consiste entonces en ser capaz de dotar de contexto y significado a estas notas rutinarias.

En relación con la producción informativa, se concluye que la multiplicación de herramientas abona el terreno para la creación de contenidos sin actividad periodística. Las máquinas pueden sistematizar la producción y adecuarse a los usos particulares de la audiencia y crear información, de aspecto periodístico, con finalidad desinformativa, ya que la desinformación es un fenómeno polisémico que muta rápidamente. Como apunta Jack (2017: 13), «la elección de un término para describir una campaña de información anuncia quién la apoya y con qué objetivos». Por eso, no existe un consenso global acerca del tipo de daños o sus efectos reales en la comunicación política (López García y Pavía, 2018) o al orden liberal (Haass, 2019), ni siquiera al europeo (Franke y Sartori, 2019). La presunta injerencia rusa en los procesos electorales europeos, por ejemplo, ha evolucionado de la creación activa de contenidos –desde grupos ubicados en Rusia– a la mera redistribución de contenidos elaborados por grupos locales con el apoyo de enjambres de bots o el uso de terceros apegados a la causa por diversos motivos (Del Fresno y Manfredi, 2018). 

En cuanto al planteamiento ético de la actividad periodística bajo el influjo de la inteligencia artificial, aparecen nuevas cuestiones pendientes de solución. En primer término, porque la multiplicación de contenidos y esferas de actuación ha diluido la capacidad de influencia de la industria periodística que deja de ser el actor preferente para vehicular mensajes. Las redes sociales y la mensajería instantánea han ocupado ese lugar preeminente. 

Por este motivo, la IA tiene que contribuir al desarrollo de la «ciudadanía mediática» (Cortina, 2004). En primer lugar, porque el uso de esta tecnología puede mejorar el estado del periodismo profesional. La revisión automática de fuentes, la atención a mercados locales y la eliminación de trabajo rutinario son ejemplos de cómo puede contribuir al incremento de la calidad periodística. Merece la pena reseñar la idea de trazabilidad de la fuente a través de la inteligencia artificial, para conocer si el contenido vertido por el periodista es idéntico a la exposición original, cuándo y cómo se ha manipulado, quién es el autor original y otras utilidades parecidas. En segundo lugar, la política pública habrá de mantener y reforzar la protección de la privacidad, de la que emanan los derechos individuales. De cómo la UE sea capaz de mantener el acervo y defender su poder normativo dependerá buena parte de la protección de la privacidad. Por último, la IA requerirá un esfuerzo de planteamiento ético que contribuya a que las decisiones informativas sean conscientes, alejadas de los sesgos, dotadas de creatividad, capacidad de empatía y memoria. Esta determinación afianza el valor de la persona, su capacidad de juicio e interpretación con arreglo a los datos disponibles. Parece una alternativa fiable a la construcción de cámaras de eco y burbujas. La coordinación entre la educación, las bibliotecas y los medios de comunicación de titularidad pública será piedra de toque de estas tres líneas. Sirva este breve repaso como agenda de trabajo para un mejor periodismo. 

Referencias bibliográficas

Bakir, Vian y McStay, Andrew. «Fake news and the economy of emotions». Digital Journalism, vol. 6, n.° 2 (2018), p. 154-175.

Bakshy, Eytan; Messing, Solomon y Adamic, Lada A. «Exposure to ideologically diverse news and opinion on Facebook». Science, vol. 348, n.° 6.239 (2015), p. 1.130-1.132.

Beer, David Gareth. «The Social Power of Algorithms. Information». Communication and Society, vol. 20, n.° 1 (2017), p. 1-13. 

Benkler, Yochai; Faris, Robert y Roberts, Hal. Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. Nueva York: Oxford University Press, 2018.

Bradshaw, Samantha y Howard, Philip N. «Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation». Computational Propaganda Research Project,Working Paper n.° 2017.12, University of Oxford, 2017, p. 1-37.

Bucher, Taina. «“Machines don’t have instincts”: Articulating the computational in journalism». New Media & Society, vol. 19, n.° 6 (2017), p. 918-933.

Bullock, Joseph y Luengo-Oroz, Miguel. «Automated Speech Generation from UN General Assembly Statements: Mapping Risks in AI Generated Texts».  International Conference on Machine Learning AI for Social Good Workshop, Long Beach, United States, 2019.

Campos-Domínguez, Eva. «Twitter y la comunicación política». El profesional de la información, vol. 26, n.° 5 (2017), p. 785-793.

Carlson, Matt. «The robotic reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority». Digital Journalism, vol. 3, n.° 3 (2015), p. 416-431.

Caswell, David y Dörr, Konstantin. «Automated Journalism 2.0: Event-driven narratives». Journalism Practice, vol. 12, n.° 4 (2018), p. 477-496.

Chadwick, Andrew. The Hybrid Media System: Politics and Power. Oxford: Oxford University Press, 2017.

Chesney, Robert y Citron, Danielle. «Deepfakes and the New Disinformation War. The Coming Age of Post-Truth Geopolitics». Foreign Affairs, vol. 98, n.° 1 (2019), p. 147-155.

Clerwall, Christer. «Enter the robot journalist». Journalism practice, vol. 8, n.° 5 (2014), p. 519-531 (en línea) [Fecha de consulta: 18.07.2019] https://doi.org/10.1080/17512786.2014.883116

Codina, Lluís. «Revisiones sistematizadas y cómo llevarlas a cabo con garantías: Systematic reviews y SALSA Framework». Lluiscodina blog, (20 de abril de 2017) (en línea) [Fecha de consulta: 09.11.2019] https://www.lluiscodina.com/revision-sistematica-salsa-framework/

Comisión Europea-High-Level Expert Group on Artificial Intelligence. A definition of Artificial Intelligence: Main Capabilities and Scientific Disciplines. Bruselas: European Commission, 2019.

Consejo de la Unión Europea. «Ciberseguridad en Europa: normas más estrictas y mejor protección». Consejo Europeo, (julio 2019) (en línea) [Fecha de consulta: 17.07.2019] https://www.consilium.europa.eu/es/policies/cyber-security/

Cornia, Alessio; Sehl, Annika y Nielsen, Rasmus Kleis. Private Sector Media and Digital News. Londres: Reuters Institute for the Study of Journalism/Digital Media Project, 2016.

Cortina, Adela. «Ciudadanía mediática». El País, (24 de noviembre de 2004) (en línea) [Fecha de consulta: 19.07.2019]https://elpais.com/diario/2004/11/24/opinion/1101250805_850215.html

Council of Europe. «Algorithms and human rights: Study on the human rights dimension of automated data processing techniques and possible regulatory implications». Council of Europe, (2018) (en línea) [Fecha de consulta: 15.07.2019] https://edoc.coe.int/en/internet/7589-algorithms-and-human-rights-study-on-the-human-rights-dimensions-of-automated-data-processing-techniques-and-possible-regulatory-implications.html

Darnton, Robert. «The True History of Fake News». New York Review of Books, (13 de febrero 2017) (en línea) [Fecha de consulta: 19.07.2019] http://www.nybooks.com/daily/2017/02/13/the-true-history-of-fakenews/

Del Fresno-García, Miguel. «Desórdenes informativos: sobreexpuestos e infrainformados en la era de la posverdad». El profesional de la información, vol. 28, n.° 3 (2019) (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.3145/epi.2019.may.02

Del Fresno-García, Miguel y Manfredi-Sánchez, Juan Luis. «Politics, hackers and partisan networking. Misinformation, national utility and free election in the Catalan independence movement». El profesional de la información, vol. 27, n.° 6 (2018), p. 1.225-1.238 (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.3145/epi.2018.nov.06

Dörr, Konstantin Nicholas. «Mapping the field algorithm, journalism». Digital journalism, vol. 4, n.° 6 (2016), p. 700-722 (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.1080/21670811.2015.1096748

Drok, Nico y Hermans, Liesbeth. «Is there a future for slow journalism?» Journalism Practice, vol. 10, n.° 4 (2016), p. 539-554 (en línea) [Fecha de consulta: 12.07.2019] https://doi.org/10.1080/17512786.2015.1102604

Fanta, Alexander. Putting Europe’s robots on the map: Automated journalism in news agencies. Oxford: University of Oxford y Reuters Institute for the Study of Journalism, 2017.

Fernández Barbudo, Carlos «El nuevo concepto de privacidad: la transformación estructural de la visibilidad», Revista de Estudios Políticos, n.° 185 (2019), p. 139-167 (en línea) doi: https://doi.org/10.18042/cepc/rep.185.05

Kwan, Victoria. «Facebook’s ex-security chief on disinformation campaigns: ‘The sexiest explanation is usually not true». First Draft, (9 de julio de 2019) (en línea) [Fecha de consulta: 19.07.2019] https://firstdraftnews.org/alex-stamos-interview-disinformation-campaigns/

Fletcher, Richard y Nielsen, Rasmus. «People don’t trust news media – and this is key to the global misinformation debate». Understanding and Addressing the Disinformation Ecosystem. Annenberg School of Communication, 2017, pp.13-17.

Flores-Vivar, Jesús Miguel. «Algoritmos, aplicaciones y Big data, nuevos paradigmas en el proceso de comunicación y de enseñanza-aprendizaje del periodismo de datos». Revista de Comunicación, vol. 17, n.° 2 (2018), p. 268-291. http://dx.doi.org/10.26441/RC17.2-2018-A12

Floridi, Luciano. «Artificial intelligence, deepfakes and a future of ectypes». Philosophy & Technology, vol. 31, n.° 3 (2018a), p. 317-321 (en línea) https://doi.org/10.1007/s13347-018-0325-3

Floridi, Luciano. «Semantic Capital: Its Nature, Value and Curation». Philosophy & Technology, vol. 31, n.° 4 (2018b), p. 481-497 (en línea) http://dx.doi.org/10.1007/s13347-018-0335-1

Franke, Ulrike y Sartori, Paola. «Machine politics: Europe and the AI revolution».  European Council on Foreign Relations, (julio 2019) (en línea) [Fecha de consulta: 17.07.2019] https://www.ecfr.eu/page/-/machine_politics_europe_and_the_ai_revolution.pdf

Gani, Aisha y Haddou, Leila. «Could robots be the journalists of the future?». The Guardian, (16 de marzo de 2014) (en línea) [Fecha de consulta: 09.11.2019] https://www.theguardian.com/media/shortcuts/2014/mar/16/could-robots-be-journalist-of-future

Graefe, Andreas. Guide to automated journalism. Nueva York: Tow Center for Digital Journalism, 2016 (en línea) [Fecha de consulta: 19.07.2019] https://legacy.gitbook.com/download/pdf/book/towcenter/guide-to-automated-journalism

Green, Ben. «Data Science as Political Action: Grounding Data Science in a Politics of Justice». Working Paper, (2018) [Fecha de consulta: 11.07.2019] https://scholar.harvard.edu/files/bgreen/files/data_science_as_political_action.pdf

Haass, Richard. «How a World Order Ends and What Comes in Its Wake». Foreign Affairs, vol. 98, n.° 1 (2019), p. 22-30.

Hansen, Mark; Roca-Sales, Maritxell; Keegan, Jon y King, George. Artificial Intelligence: Practice and Implications for Journalism. Nueva York: Tow Center for Digital Journalism y Brown Institute for Media Innovacion, (2017) (en línea) [Fecha de consulta: 11.07.2019] https://doi.org/10.7916/D8X92PRD

Harcup, Tony y O’Neill, Deirdre. «What is News?». Journalism Studies, vol. 18, n.° 12 (2017), p. 1.470-1.488.

Hildebrandt, Mireille. «Who needs stories if you can get the data? ISPs in the era of big number crunching». Philosophy & Technology, vol. 24, n.° 4 (2011), p. 371-390 (en línea) [Fecha de consulta: 17.07.2019] https://link.springer.com/article/10.1007/s13347-011-0041-8

Jack, Caroline. «Lexicon of Lies. Terms for Problematic Information». Data & Society (8 de septiembre de 2017) (en línea) [Fecha de consulta: 11.07.2019] https://datasociety.net/pubs/oh/DataAndSociety_LexiconofLies.pdf

Karlsen, Joakim y Stavelin, Elrik. «Computational journalism in Norwegian newsrooms». Journalism practice, vol. 8, n.° 1 (2014), p. 34-48 (en línea) [Fecha de consulta: 13.07.2019] https://doi.org/10.1080/17512786.2013.813190

Kovach, Bill y Rosentiel, Tom. The elements of journalism. What newspeople should know and the public should expect. Nueva York: Three Rivers Press, 2007.

Krüger, Uwe. Mainstream. Warum wir den Medien nicht mehr trauen. Múnich: C.H. Beck, 2016.

Lemelshtrich Latar, Noam. Robot Journalism. Can Human Journalism Survive? Singapur: Centro Interdisciplinario Herzliya, 2018.

Lewis, Seth C. «What is journalism school for? A call for input». NiemanLab, (1 de febrero de 2010) (en línea) [Fecha de consulta: 16.07.2019] http://www.niemanlab.org/2010/02/what-is-journalism-school-for-a-call-for-input/

Lichterman, Joseph. «Want to bring automation to your newsroom? A new AP report details best practices». NiemanLab, (5 de abril de 2017) (en línea) [Fecha de consulta: 16.07.2019] http://www.niemanlab.org/2017/04/want-to-bring-automation-to-your-newsroom-a-new-ap-report-details-best-practices/

Lindén, Carl Gustav. «Algorithms for journalism: The future of news work». The journal of media innovations, vol. 4, n.° 1 (2017), p. 60-76 (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.5617/jmi.v4i1.2420

López de Mantarás, Ramón. «Ética en la inteligencia artificial». Investigación y Ciencia, n.°491 (2017), p. 49-49.

López-García, Guillermo y Pavía, José María. «Political communication in election processes: an overview». Contemporary Social Science, vol. 14, n.° 1 (2018) (en línea) [Fecha de consulta: 16.07.2019] https://doi.org/10.1080/21582041.2018.1479040

Magallón Rosa, Raúl: Unfaking News. Cómo combatir la desinformación. Madrid: Pirámide, 2019.

Manfredi-Sánchez, Juan Luis. «Horizontes de la información pública». El profesional de la información, vol. 26, n.° 3 (2017), p. 353-360 (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.3145/epi.2017.may.01

Marconi, Francesco y Siegman, Alex. «The Future of Augmented Journalism: A guide for newsrooms in the age of smart machines». The Associated Press, 2017 (en línea) https://insights.ap.org/uploads/images/the-future-of-augmented-journalism_ap-report.pdf

Martín, Sean. «Rise of the machine: Journalists under threat as AI robot writes article in one second». Express, (23 de enero de 2017) [Fecha de consulta: 09.11.2019] https://www.express.co.uk/news/science/757802/RISE-OF-THE-MACHINE-artificial-intelligence-ai

Marwick, Alice y Lewis, Rebecca. «Media Manipulation and Disinformation Online». Data & Society, (15 de mayo de 2017) (en línea) [Fecha de consulta: 12.07.2019] https://datasociety.net/output/media-manipulation-and-disinfo-online/

Matthias, Andreas. «The responsibility gap: Ascribing responsibility for the actions of learning automata». Ethics and Information Technology, vol. 6, n.° 3 (2004), p. 175-183.

Mele, Nicco. «Necesitamos algoritmos que privilegien la calidad». Agenda Pública El País, (10 de julio de 2019) (en línea) [Fecha de consulta: 10.07.2019] http://agendapublica.elpais.com/necesitamos-algoritmos-que-privilegien-la-calidad/

Monnerat, Alessandra. «Científicos de datos trabajan en el primer robot-periodista de Brasil para reportar sobre proyectos de ley de la Cámara». Journalism in the Americas (13 de enero de 2018) (en línea) [Fecha de consulta: 09.11.2019] https://knightcenter.utexas.edu/es/blog/00-19184-cientificos-de-datos-trabajan-en-el-primer-robot-periodista-de-brasil-para-reportar-so

Napoli, Phillip. «Audience evolution and the future of audience research». International journal on media management, vol. 14, n.° 2 (2012), p. 79-97 (en línea) [Fecha de consulta: 04.07.2019] https://doi.org/10.1080/14241277.2012.675753

Newman, Nic. Journalism, media and technology trends and predictions 2019. Oxford: Reuters Institute for the Study of Journalism, 2019 (en línea) [Fecha de consulta: 17.07.2019] https://reutersinstitute.politics.ox.ac.uk/our-research/journalism-media-and-technology-trends-and-predictions-2019

Nichols, Tom. The Death of Expertise:  The Campaign Against Established Knowledge and Why It Matters. Oxford: Oxford University Press, 2017.

Pariser, Eli. The Filter Bubble: What the Internet is Hiding from You. Londres: Viking, 2011.

Parlamento Europeo (2017). Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)) (en línea) [Fecha de consulta: 10.02.2019] http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf

Pasquale, Frank. The Black Box Society. Cambridge: Harvard University Press, 2015.

Patterson, Thomas E. Informing the News: The Need for Knowledge-Based Journalism. Nueva York: Vintage Books, 2013.

Posetti, Julie. Time to step away from the ‘bright, shiny things’? Towards a sustainable model of journalism innovation in an era of perpetual change. Oxford: Reuters Institute for de Study of Journalism, 2018 (en línea) [Fecha de consulta: 17.07.2019] https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2018-11/Posetti_Towards_a_Sustainable_model_of_Journalism_FINAL.pdf

Ramírez-Montoya, María Soledad y García-Peñalvo, Francisco José. «Co-creación e innovación abierta: Revisión sistemática de literatura». Comunicar, vol. 26, n.° 54 (2018), p. 9-18 (en línea) https://doi.org/10.3916/C54-2018-01

Raymond, Mark y DeNardis, Laura. «Multistakeholderism: anatomy of an inchoate global institution». International Theory, vol. 7, n.° 3 (2015), p. 572-616 (en línea) [Fecha de consulta: 13.07.2019] https://doi.org/10.1017/S1752971915000081

Ruppert, Evelyn; Isin, Engin y Bigo, Didier. «Data politics». Big Data & Society, (2017), p. 1-7 (en línea) [Fecha de consulta: 19.07.2019] https://doi.org/10.1177/2053951717717749

Salaverría, Ramón. «Periodismo en 2014: balance y tendencia». Cuaderno de Periodistas, n.° 29 (2014), p. 9-22.

Salazar, Idoia. «Los robots y la Inteligencia Artificial. Nuevos retos del periodismo». Doxa Comunicación, n.° 27 (2018), p. 295-315.

Schudson, Michael. Why journalism still matters. Cambridge: Polity Press, 2018.

Stern, Reuben. «FL#195: A home page designed by algorithm». Journalism Institute, (24 de mayo de 2017) (en línea) [Fecha de consulta: 09.11.2019] https://www.rjionline.org/stories/fl195-a-homepage-designed-by-algorithm

Stroud, Natalie Jomini; Thorson, Emily y Young, Dannagal. «Making sense of information and judging its credibility». Understanding and Addressing the Disinformation Ecosystem. Annenberg School of Communication, 2017, p.45-50.

Tandoc Jr, Edson C.; Lim, Zheng W. y Ling, Richard. «Defining “fake news” A typology of scholarly definitions». Digital journalism, vol. 6, n.° 2 (2018), p. 137-153.

Toscano, Manuel. «Sobre el concepto de privacidad: la relación entre privacidad e intimidad». Isegoría Revista de Filosofía Moral y Política, n.° 57 (2017), p.533-552.

Túñez López, José Miguel; Parada Pacheco, Patricia y Toural Bran, Carlos. «Redacción automatizada y su impacto en la elaboración de noticias. Estudio comparativo de textos informativos elaborados por robots y por humanos». xxv Congreso Internacional SEP Oportunidades y riesgos del periodismo hiperconectado, (30-31 de mayo de 2019), Bizkaia Aretoa (Bilbao, UPV/EHU).

Túñez López, José Miguel y Toural Bran, Carlos. «Inteligencia Artificial en la gestión de la comunicación: impacto de la robotización en la elaboración de contenidos informativos». En: Comunicación y Música: mensajes, manifestaciones y negocios. VV. AA. Cuadernos Artesanos de Comunicación, n.° 145. La Laguna (Tenerife): Latina, 2018, p. 1.884-1.896.

Túñez López, José-Miguel; Toural Bran, Carlos y Cacheiro Requeijo, Santiago. «Uso de bots y algoritmos para automatizar la redacción de noticias: percepción y actitudes de los periodistas en España». El profesional de la información, vol. 27, n.° 4 (2018), p. 750-758.

Ufarte Ruiz, María José y Manfredi-Sánchez, Juan-Luis. «Algoritmos y bots aplicados al periodismo. El caso de Narrativa Inteligencia Artificial: estructura, producción y calidad informativa». Doxa Comunicación, vol. 29, (2019) pre-print

Ünver, Hamid Akin. «Computational Diplomacy. Cyber Governance and Digital Democracy».  Edam, Centre for Economics and Foreign Policy Study, (2017) (en línea) [Fecha de consulta: 19.07.2019] http://edam.org.tr/wp-content/uploads/2017/11/bilisimsel_diplomasi_EN.pdf

Vállez, Mari y Codina, Lluís. «Periodismo computacional: evolución, casos y herramientas». El profesional de la información, vol. 27, n.° 4 (2018), p. 1.699-1.2407 (en línea) [Fecha de consulta: 16.07.2019] https://doi.org/10.3145/epi.2018.jul.05

Van Dalen, Arjen. «The algorithms behind the headlines». Journalism practice, vol. 6, n.° 5-6 (2012), p. 648-658 (en línea) [Fecha de consulta: 14.07.2019] https://doi.org/10.1080/17512786.2012.667268

Vosoughi, Soroush; Roy, Deb y Aral, Sinan. «The spread of true and false news online». Science, vol. 359, n.° 6380 (2018), p. 1.146-1.151 (en línea) [Fecha de consulta: 11.07.2019] https://doi.org/10.1126/science.aap9559

Wardle, Claire y Derakhshan, Hossein. «Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making». Informe al Consejo de Europa, (2017) (en línea) [Fecha de consulta: 14.07.2019] https://shorensteincenter.org/information-disorder-framework-for-research-and-policymaking/

Whittaker, Jason Paul. Tech Giants, Artificial Intelligence, and the Future of Journalism.Nueva York: Routledge, 2018.

Notas:

1- Véase: https://www.edelman.com/sites/g/files/aatuss191/files/2019-02/2019_Edelman_Trust_Barometer_Global_Report.pdf

2- Para más información, véase: https://www.ohadf.com/projects/text-based-editing/ 

3- Véase: https://ec.europa.eu/commission/sites/beta-political/files/eu-communication-disinformation-euco-05122018_en.pdf

4- Véase: Comunicación conjunta al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. Estrategia de ciberseguridad de la Unión Europea: Un ciberespacio abierto, protegido y seguro (JOIN/2013/01 final) (en línea) https://eur-lex.europa.eu/legal-content/es/TXT/?uri=CELEX%3A52013JC0001

5- Véase: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf

 Palabras clave: periodismo, inteligencia artificial (IA), desinformación, propaganda, censura, ciudadanía

Este artículo forma parte de las actividades del proyecto de investigación «La diplomacia pública de las megaciudades iberoamericanas: estrategias de comunicación y poder blando para influir en la legislación ambiental global (RTI2018-096733-B-I00)», financiado por el Ministerio de Ciencia, Innovación y Universidades (2019).

DOI: doi.org/10.24241/rcai.2020.124.1.49

Cómo citar este artículo:  Manfredi Sánchez, Juan Luis y Ufarte Ruiz, María José. «Inteligencia artificial y periodismo: una herramienta contra la desinformación». Revista CIDOB d’Afers Internacionals, n.º 124 (abril de 2020), p. 49-72. DOI: doi.org/10.24241/rcai.2020.124.1.49