Conversaciones CIDOB | La regulación de datos

Anuario Internacional CIDOB 2021
Fecha de publicación: 09/2021
Autor:
Carme Colomina y Lorena Jaume-Palasí
Descargar PDF

Carme Colomina, investigadora principal especializada en Unión Europea, desinformación y política global, CIDOB

EN CONVERSACIÓN CON

Lorena Jaume-Palasí, Directora ejecutiva de Ethical Tech Society

Lorena Jaume-Palasí es una de esas personas que tiene la virtud de explicar, de manera sencilla, cuestiones de una enorme complejidad y con múltiples ramificaciones. Experta en filosofía del derecho y en la dimensión ética de la tecnología, conoce perfectamente los entresijos de los pensamientos legales estadounidense y europeo, que emergen a la hora de regular la acción de las grandes corporaciones tecnológicas. Es, además, cofundadora de la ONG AlgorithmWatch, y de la Ethical Tech Society, centrada en el estudio de la relevancia social de los sistemas algorítmicos. También asesora al gobierno de España y a Naciones Unidas en temas de Inteligencia Artificial y Big Data.   

CC: Uno de los efectos de la pandemia de la COVID-19 ha sido la aceleración de los procesos de digitalización de nuestra cotidianidad, y la exposición a algunos de sus riesgos, como la pérdida de privacidad o a la desinformación respecto a la salud. ¿Qué hemos ganado y que hemos perdido en este proceso global de automatización?

LJ-P: El proceso de digitalización es más longevo de lo que podría parecer a primera vista, y hay que señalar que es más o menos intenso en función del contexto social y de la zona geográfica. En Europa, por ejemplo, la digitalización tiene mucho que ver con el pensamiento europeo, con el modo en el que nos aproximamos a la ciencia y observamos el mundo. El balance de costes y beneficios no se centra tanto en el medio –las herramientas– como en las condiciones en las que tiene lugar la digitalización. A este respecto, debemos contemplar dos elementos: en primer lugar, que la tecnología no depende tanto de una aplicación en cuestión o de un servicio concreto, sino que debe ser vista como cualquier otra infraestructura –entendida como arquitectura de una sociedad– un determinante que dirime a qué tipo de servicios públicos es posible acceder, quién tiene acceso, y de qué forma. Como toda infraestructura, es un instrumento de poder político de primer orden, que queda fuera del alcance de un solo individuo y que, además, tiene un impacto colectivo. El peligro en las situaciones de emergencia, como la actual, es pasar por alto que cualquier infraestructura digital o computacional que desarrollemos permanecerá más allá de la crisis, del mismo modo que ocurre con una infraestructura física, como por ejemplo una autopista. Un segundo agravante de la digitalización en tiempos de pandemia, es que en este tipo de crisis las asimetrías dentro de una sociedad se acrecientan y por tanto, la digitalización generada en estas condiciones contiene los parámetros de esta desigualdad aumentada.  

CC: Resulta innegable que la tecnología está impactando sobre el funcionamiento de los sistemas políticos, generando nuevos modelos compuestos, como la  “tecnodemocracia” o el “tecnoautoritarismo”; ¿qué impactos está teniendo la tecnología, por el momento, sobre los regímenes democráticos?

LJ-P: El debate sobre la tecnología nos confronta, también, a grandes dilemas que subyacen al mismo sistema de valores de las democracias y a la manera en que nos dotamos de normas y abordamos la ciencia, a través de procesos que se presentan como racionales y empíricos. En Europa, por ejemplo, la creación de leyes ha estado marcada por tres grandes llamadas: la primera, el vector esencialista, que busca definir la esencia del ser humano, y a partir de ello, diseñar un conjunto de reglas que gobiernen a la sociedad democrática de manera legítima; en segundo lugar, el vector de la neutralidad, es decir, la creencia de que el que dicta la ley puede abstraerse a otra realidad o contexto; y finalmente, la aspiración de crear leyes de alcance universal y pretendidamente neutras. Pero, que no nos lleven a engaño: ni las leyes son neutrales, ni la ciencia es objetiva. Ningún legislador es capaz de abstraerse de sus circunstancias personales, y los citados tres elementos, son un problema fundamental de la producción legislativa, así como del diseño de algoritmos, ya que en base a grandes categorías universalizantes es imposible captar la ambivalencia, la ambigüedad y la complejidad de un ser humano.

CC: Aceptamos pues que ni las leyes ni los algoritmos son neutros, y que incorporan valores y creencias de sus creadores. ¿Hasta qué punto los procesos de automatización actuales nos exponen al riesgo de automatizar también las desigualdades y los prejuicios?

LJ-P: Los peligros son obvios. Hoy, en el debate sobre el tema de la regulación algorítmica vemos que tanto las leyes como el pensamiento algorítmico tienen un mismo origen. Bajo una pátina de neutralidad –que uno asume como científico o como intelectual– observamos posicionamientos claramente patriarcales, criticados tanto desde la filosofía feminista como por la filosofía de grupos marginalizados, en la que se demuestra que la posición desde la que uno actúa es un factor extremadamente importante.

CC: Existe una preocupación creciente en la sociedad por los riesgos que estas tecnologías presentan, ¿quién garantiza por ejemplo, que el tratamiento de nuestros datos se hace desde la transparencia, acorde a un respeto a los derechos, o teniendo en cuenta nuestro contexto individual?

LJ-P: La adaptación a la tecnología es un proceso orgánico y dialéctico, que requiere de un tiempo de adaptación –también a nivel (neuro)biológico– y que presenta dificultades a diferentes niveles. Esto lo vimos, por ejemplo, con la llegada de los primeros automóviles a las ciudades. Hace cien años, los coches aparecieron de golpe en las calles –aún transitadas por caballos y peatones– y en total ausencia de normas de tráfico. El caos debió de ser colosal. Sin embargo, las normas de tráfico y las personas se adaptaron a esta nueva realidad, generando nuevas convenciones y un marco legal inédito. De la misma manera, en el campo de la digitalización, tampoco tenemos aún claro qué es lo que cada individuo necesita conocer y decidir, con todas las implicaciones que ello conlleva. Es precisamente por ello que considero que todo proceso que traslade al usuario la responsabilidad de juicio –por ejemplo los consentimientos de privacidad— es poco ético. Simplemente, porque no es asumible que sea el usuario el que deba comprender y juzgar adecuadamente los términos de lo que se le está proponiendo, más aún cuando las condiciones llevan a la confusión. En estos casos, que el proceso sea transparente, no es suficiente.

CC: Entonces, ¿quizá en lugar de más transparencia deberíamos exigir mayor rendición de cuentas?, ¿cuál es su opinión sobre las leyes de protección al usuario de la tecnología?

LJ-P: Este es uno de los problemas más graves que tenemos hoy en día encima de la mesa, con conflictos a diferentes niveles. Por un lado, vemos que los sistemas algorítmicos no entienden ni contemplan las particularidades individuales. En lugar de esto, lo que hacen es crear perfiles estadísticos, es decir, prescinden de las particularidades del individuo para que este encaje como individuo genérico en un colectivo. En este punto encontramos diferencias significativas entre los sistemas algorítmicos y el sistema legal europeo. En el plano regulatorio, vemos que el proceso es justo al revés, la democracia a nivel dogmático y, sistemáticamente, a nivel legal, es metodológicamente individualista: los derechos fundamentales son derechos individuales, el sistema legal se centra sobre el individuo. Si bien resulta evidente la protección de los individuos respecto a lo que representa la asimetría del colectivo, de las decisiones que atañen al colectivo, también necesitamos entender qué tipo de mecánicas y metodologías son adecuadas para regular el bien común, y todo lo que es de interés público. En este punto es donde las democracias tienen todavía mucho trabajo por delante, para aplicar este tipo de regulación a la nueva infraestructura.

CC: La evolución de Internet no es la misma en EEUU, que en Rusia o en China. Ante la creciente fragmentación de la red, ¿corremos el riesgo de finiquitar la idea inicial de una Internet anárquica, libre y abierta?

LJ-P: Este es un punto interesante, ya que a menudo se apela –erróneamente– a aquel momento ideal de la red. Lo cierto es que Internet nunca fue un experimento abierto y global: fue claramente un experimento anglosajón, ideado desde el ámbito militar, con accesibilidad para unos pocos, y, obviamente, con un ímpetu estratégico. Naturalmente, desde occidente, donde tenemos la infraestructura para poder utilizar este tipo de tecnología, y donde somos capaces de entender y hablar en inglés, utilizar Internet no nos supone ningún problema. Pero lo cierto es que en otras partes del mundo Internet se interpreta de manera muy distinta, justamente porque no hay contenido que refleje una cultura y una lengua autóctona o comprensible. Es precisamente por esto que para algunas personas la única comunicación digital posible es mediante las redes sociales, ya que pueden emplear su lengua materna.

CC: En el terreno regulador, la Unión Europea está intentando responsabilizar a las plataformas tecnológicas de la desinformación, y también está actualizando la Directiva de e-Commerce, además de crear la nueva propuesta de Directiva de Servicios Digitales. ¿Cómo valora las propuestas que ha hecho la Unión Europea a nivel de regulación?

LJ-P: Nos acercamos a una colisión entre dos visiones de la legalidad. Por un lado, y desde la óptica del solucionismo tecnológico de Silicon Valley, se considera que todo problema social puede ser resuelto mediante la tecnología. Naturalmente, la realidad es mucho más compleja y multifactorial; pensar que, simplemente, regulando los procesos tecnológicos podremos también regular también los conflictos sociales que estos generan es una concepción muy poco realista. En el sentido opuesto, la cultura legal Romano-Germánica –la más extendida en Europa– necesita determinar ex ante qué valor se protegerá con la ley, es decir, antes de producir leyes que puedan proteger los derechos humanos, es preciso esclarecer qué derechos deben ser protegidos por la ley. Pero no solo son las dos culturas las que pueden colisionar. También debemos prever posibles colisiones entre diversos derechos, o incluso, entre sujetos de derecho. La decisión de cómo queremos regular la tecnología es y será fundamental. Actualmente, en el ámbito tecnológico, Europa está centrando su actividad legislativa en el procesamiento de datos: se regulan la gobernanza alrededor de los algoritmos; se regula el hardware y el firmware. Con ello, se regula de forma más horizontal, con vistas a producir leyes aplicables a cada ámbito concreto.

CC: Resulta interesante este apunte acerca de las posibles incompatibilidades o fricciones entre derechos. ¿Es posible que, en  su afán de proteger otros derechos esenciales, las instituciones europeas acaben dañando el derecho a la libertad de expresión? Es decir, ¿es posible que en lugar de regular sobre el contenido, acabemos regulando sobre el medio?

LJ-P: Si, ese es un riesgo posible que debería evitarse separando de manera muy clara,  por ejemplo, qué atribuciones recaen en el Estado y cuáles son las atribuciones de las empresas tecnológicas. Lo que no se puede hacer es, por un lado, criticar la falta de ética de este tipo de compañías, mientras que por el otro, les exigimos que se conviertan en jueces de la nueva realidad social. Por el momento, las compañías están siendo reguladas mediante criterios acotados a su pertenencia a un sector específico –el tecnológico– cuando, en realidad, su relevancia hoy va mucho más allá. Debemos entenderlas como verdaderas infraestructuras sociales –son el ágora del s.XXI– y, como tales, deben ser tratadas y reguladas. Además, debemos tener especial cuidado con externalizar determinadas competencias a estas compañías, cosa que nunca se ha hecho con las infraestructuras en un contexto democrático. Existen sin embargo multitud de ejemplos de universidades o incluso gobiernos –como es el caso de Bután, que funcionan a través de los servicios de Google. Y eso supone un riesgo.

CC: Nos encontramos pues en un contexto de transformación tecnológica que, en muchos sentidos, puede resultar desconcertante. Se han multiplicado exponencialmente los emisores de información y sin embargo cada día existe menos confianza respecto a la veracidad del mensaje; ¿quién o qué determina qué es verdad?

LJ-P: Si prestamos atención a las teorías surgidas en torno a la desinformación como instrumento político, debemos señalar en primer lugar que la desinformación no se basa en el intercambio de hechos –ya sean veraces o no, sino en una expresión de naturaleza emocional que apela a la identidad de una persona, es decir, no busca entender la verdad en un determinado momento o contexto, sino que se trata de entender la posición política y la lealtad a una determinada afiliación política. Y esto resulta difícil de contrarrestar por el hecho de que sabemos que, al confrontar a personas que están diseminando desinformación con la propagación de determinadas teorías conspirativas, etc., lo que logramos es radicalizarlas más. Sin embargo, no debemos perder de vista que tanto a nivel legal como a nivel filosófico lo que hace realmente progresar a la democracia no es tanto la verdad como la discordia. A la hora de evaluar la penetración de la propaganda, lo que los científicos miden no es la cantidad de gente que valida las teorías que ellos mismos postulan, sino hasta qué punto esas personas están expuestas a opiniones divergentes. Por ello las sociedades democráticas no intentan establecer quién postula la verdad en un determinado contexto, sino que se centran en crear el contexto en el que la pluralidad de opinión y de información sea posible. Un diálogo que, además, debe ir más allá de la racionalidad y permitir un intercambio emocional a nivel discursivo. La emocionalidad, dentro de toda polarización, nos conduce a la empatía y la solidaridad, y sin duda muchas veces este es el puente en el que se pueden reencontrar más fácilmente personas con posiciones polarizantes.