Acceso a la justicia en tiempos de IA: ¿hacia una justicia low-cost?

Revista CIDOB d'Afers Internacionals_138
Fecha de publicación: 12/2024
Autor:
Marta Cantero Gamito
Descargar PDF

Marta Cantero Gamito, investigadora, Florence School of Transnational Governance, Instituto Universitario Europeo de Florencia; profesora de Derecho de las Tecnologías de la Información, Universidad de Tartu (Estonia). marta.cantero@eui.eu. ORCID: https://orcid.org/0000-0001-8200-3456

Los debates actuales sobre la introducción de la inteligencia artificial (IA) en la administración de justicia, que se reflejan también en la formulación de políticas, se han centrado principalmente en la salvaguarda de la imparcialidad, la transparencia, la explicabilidad, y la supervisión humana en la toma de decisiones, incluyendo las decisiones judiciales. Sin embargo, en paralelo a la cuestión de si la IA puede resolver las crisis de eficiencia del poder judicial, resulta necesario reflexionar sobre la próxima transformación del poder judicial desde la perspectiva del acceso a la justicia. Este artículo problematiza el uso de la IA en los tribunales y defiende la necesidad de evaluar el impacto de la IA en este ámbito desde la perspectiva del acceso a la justicia, en el contexto de la crisis de (acceso a) la justicia en una economía centrada en la inmediatez y el modelo de consumo low-cost.

En la era de la transformación digital, el sistema judicial no ha quedado exento de la influencia de la tecnología. La integración de la inteligencia artificial (IA) en la administración de justicia promete una revolución, al ofrecer una justicia más accesible y económica. Sin embargo, esta promesa también viene acompañada de desafíos éticos, económicos y de eficacia que requieren un análisis pormenorizado. Los tribunales de todo el mundo están experimentando crisis de eficiencia, relacionadas con una falta de recursos y unos tribunales cada vez más saturados (Gentile. 2024). En este contexto, surge la pregunta sobre el papel que la toma de decisiones automatizada (ADM, por sus siglas en inglés) y la IA pueden desempeñar en la resolución de esta crisis. Este artículo trata de reflexionar sobre la implementación de la IA en los procesos judiciales y sobre si esta puede realmente resolver los problemas del sistema judicial actual o, si por el contrario, agrava las desigualdades y debilita los principios fundamentales de la propia justicia.

En los últimos años, la narrativa en torno a la justicia ha evolucionado desde una concepción monolítica de los procesos judiciales –tradicionalmente delante de un juzgado o tribunal de justicia– hacia un marco más democratizado y accesible, como por ejemplo la mediación o el arbitraje como foros extrajudiciales para la solución de disputas. Este cambio no propone una reducción de la justicia a su mínimo denominador, sino una reinterpretación de la propia justicia, es decir, hacia un paradigma más accesible dentro de las limitaciones y exigencias de la sociedad moderna. En este sentido, es fundamental entender cómo conceptos clave, como el «acceso a la justicia», se redefinen en el contexto digital: acceso efectivo no solo implica que la justicia sea asequible, sino que sea entendible, eficiente y que garantice un trato equitativo, independientemente de las competencias digitales o los recursos socioeconómicos de los usuarios.

De hecho, el acceso a la justicia, entendido como la capacidad de individuos y empresas para resolver problemas legales de manera justa a través de una variedad de servicios jurídicos y mecanismos de resolución de conflictos (OCDE, 2021), también se ha visto profundamente afectado por la digitalización de los tribunales y la introducción de la IA en el sistema judicial. La posibilidad de digitalizar y automatizar la resolución de conflictos promete mejorar la eficiencia del sistema judicial al reducir los tiempos de respuesta y los costes asociados a la administración de justicia. Sin embargo, una mayor eficiencia no debe comprometer la calidad y la atención individualizada que cada caso requiere. Además, cuando los tribunales incorporan automatización algorítmica en sus sistemas, el poder judicial se ve influido por la capacidad regulatoria de la tecnología. 

Las experiencias de diversas jurisdicciones en la integración de la tecnología en sus marcos jurídicos y procesos judiciales ponen de relieve la importancia del contexto específico en la aplicación de nuevas soluciones apoyadas en la tecnología (Carvajal, 2020). Aquí, el contexto hace referencia a las particularidades culturales, legales y socioeconómicas de cada país o región que influyen en cómo se implementan y regulan las tecnologías en el sistema judicial. Por ejemplo, la aceptación pública de la IA, el grado de digitalización del sistema judicial o el acceso de la población a tecnologías digitales varían de un lugar a otro, siendo diferencias que determinan el éxito o fracaso de las iniciativas tecnológicas. Así, lo que funciona en un país puede no ser aplicable directamente en otro sin las adaptaciones necesarias. 

Este artículo explora cómo la IA está reconfigurando el acceso a la justicia, analizando tanto las oportunidades como los riesgos asociados en términos de discriminación algorítmica de la justicia la cual podría estar derivando hacia un modelo low-cost. Se podría decir que el concepto de justicia low-cost surge en la intersección entre eficiencia en la resolución de litigios y su coste. Sin embargo, este enfoque también puede diluir la profundidad del análisis judicial. La simplificación y estandarización de procesos judiciales mediante IA puede llevar a un tratamiento superficial de los casos, afectando la calidad y el rigor con los que se emiten las decisiones. En ese sentido, es importante resaltar, no obstante, que la digitalización ha permitido que algunos conflictos se resuelvan a través de plataformas en línea sin la necesidad de acudir ante un juzgado o tribunal. Además, la resolución de disputas por vías privadas, como la mediación o el arbitraje, permite que muchos casos se resuelvan fuera de los tribunales tradicionales. Aunque esta externalización puede resultar y de hecho está diseñado para que la justicia sea más rápida y accesible, también plantea preocupaciones sobre su conveniencia, ya que no todos los usuarios tienen acceso a la tecnología o entienden cómo usarla correctamente. 

Por tanto, partiendo de la creciente digitalización de la administración de justicia y la creciente privatización de la resolución de controversias, que ya no es un poder exclusivo del Estado, este artículo defiende la necesidad de evaluar el impacto de la IA en la justicia desde la perspectiva del acceso a esta. En primer lugar, el análisis se centra en el uso de la IA en el sistema judicial como una respuesta orgánica al fenómeno más amplio de digitalización de la administración pública. En segundo lugar, se hace un intento de conceptualizar la justicia low-cost en un contexto social y de mercado que demanda soluciones rápidas a los problemas surgidos fundamentalmente de la economía digital. Por último, tras analizar las respuestas del legislador europeo a los problemas planteados por el uso de la IA para la toma de decisiones, se subrayan las limitaciones de un enfoque centrado únicamente en la imparcialidad, la transparencia, la explicabilidad y la supervisión humana en la toma de decisiones judiciales (Kontiainen et al., 2022). Este análisis se sitúa en el marco de los debates actuales sobre la eficiencia de la IA frente a la calidad de la justicia y cómo la privatización y algoritmización del sistema judicial plantean nuevos retos para garantizar un acceso a la justicia equitativo para todos los ciudadanos.

El uso de la IA en el sistema judicial

Cada año, millones de ciudadanos se enfrentan a problemas que requieren la intervención de la justicia. La lista de asuntos es amplia, incluyendo, por ejemplo, disputas que van desde la devolución de bienes de consumo por mal funcionamiento hasta problemas más graves como discrepancias sobre salarios, el riesgo de desahucio, bancarrota o, incluso, negociaciones en torno al cuidado de menores y adultos dependientes. El abanico y la naturaleza de los asuntos ante los juzgados pone de relieve la importancia de contar con sistemas jurídicos accesibles y funcionales para gestionar y mitigar las repercusiones de los problemas que las originan.

Sin embargo, ante un sistema generalmente tensionado, y en muchos casos saturado, los tribunales de todo el mundo afrontan la necesidad de hacer frente a los asuntos acumulados y garantizar una justicia adecuada (Mora-Sanguinetti, 2022). Según la Comisión Europea para la Eficacia de la Justicia (CEPEJ), el tiempo medio que se tarda en resolver los asuntos civiles y mercantiles en la Unión Europea es de 237 días, variando entre los estados miembros. Por ejemplo, en Italia, el tiempo estimado que tardan los tribunales en llegar a una decisión en primera instancia es de 674 días1, mientras que en Estados Unidos la duración media de los asuntos civiles en los tribunales estatales es de 11,5 meses; y entre 12 y 18 meses en el Reino Unido. Se observan tendencias similares en Canadá o Australia, donde estos asuntos tardan entre seis meses y dos años, dependiendo de la complejidad y la naturaleza del caso. En jurisdicciones como Brasil, el plazo de resolución es de 600 días (Castelliano y Guimaraes, 2023). A los dilatados procesos, debido a la sobrecarga de los tribunales, se suma el hecho de que el número de tribunales en Europa se redujo en un 10% entre 2010 y 2018 (CEPEJ, 2022). Más allá de estas jurisdicciones, estos datos estadísticos reflejan una tendencia mundial y subrayan la necesidad de soluciones innovativas en los procesos judiciales. 

Aparte de los tiempos de resolución, otro factor crítico que afecta al acceso a la justicia es el coste. Según un estudio de la OCDE (2021) sobre el acceso a la justicia, las costas procesales constituyen una barrera significativa para muchas personas, especialmente en casos civiles y mercantiles. Estas costas suponen entre el 10% y el 50% del valor de los litigios, lo que deja a muchas personas y empresas fuera del sistema judicial formal. Esta realidad agrava aún más la desigualdad de acceso, haciendo que el factor económico actúe como un mecanismo de exclusión de facto para los más vulnerables. A lo largo de los años, se han tomado diversas iniciativas, tanto dentro como fuera de los tribunales, para hacer frente a los problemas de acceso a la justicia, como los procesos monitorios o de menor cuantía, o la promoción de mecanismos alternativos (Alternative Dispute Resolution [ADR]) y resolución de litigios en línea (Online Dispute Resolution [ODR]). Más recientemente, la creciente digitalización de los tribunales y la introducción gradual de herramientas basadas en la IA en el sistema judicial permiten responder a los retos que actualmente afronta la administración de justicia bajo la promesa de reducir drásticamente la duración y el coste de los procesos. 

Así, de manera gradual, las herramientas de IA se están utilizando en el sistema judicial para desempeñar diversas funciones dentro del ámbito de la tramitación procesal, la investigación penal e incluso las decisiones judiciales, que pueden variar desde el análisis de grandes cantidades de datos hasta la propia automatización de procesos de toma de decisiones (Lorenzo Pérez, 2022). En un primer nivel, encontramos tecnologías como el archivo electrónico de expedientes (e-filing), las videoconferencias y los sistemas de gestión de casos basada en IA, que pueden agilizar ciertas operaciones judiciales, reduciendo el tiempo y los recursos necesarios para tramitar los casos. En un segundo nivel, la IA puede también utilizarse para ayudar en tareas como la transcripción y la traducción, servicios de IA que en los tribunales generan grabaciones instantáneas, lo que mejora la accesibilidad y la eficiencia de los servicios judiciales, y también permiten eliminar las barreras lingüísticas garantizando procedimientos más inclusivos. En un tercer nivel, las herramientas de IA pueden simplificar y agilizar los procesos judiciales siendo usadas como apoyo a la identificación de antecedentes e, incluso, para predecir resultados como la duración de la condena y los índices de reincidencia. Por último, en un cuarto nivel se sitúa el uso de la tecnología para la automatización y algoritmización de decisiones judiciales y administrativas. Ello presenta una oportunidad para mejorar el acceso a la justicia, particularmente para personas con recursos limitados o que enfrentan barreras geográficas, ya que facilitan el procesamiento de grandes volúmenes de casos de manera eficiente y reducen tanto los tiempos de espera como los costes. Aquí estaríamos hablando de la creación de un sistema basado en correlaciones estadísticas y el uso de datos masivos para la toma de decisiones sin intervención humana. Por ejemplo, la obtención de un permiso administrativo que autorice la tala de árboles en Estonia se puede hacer a través de un sistema de toma de decisiones automatizada (Pilving, 2023).

No obstante, el uso de la IA en los tribunales no es únicamente una herramienta para una mayor eficiencia del sistema judicial, sino también una fuente de nuevos desafíos que debe abordar el legislador, particularmente en el tercer y cuarto nivel. Los algoritmos suelen ser opacos (black box problem), lo que impide la posibilidad de comprender cómo se han generado los resultados (Burrell, 2016 y Castelvecchi, 2016). De esta forma, los algoritmos pueden incluir códigos erróneos y, como resultado, la opacidad algorítmica afecta al derecho a un proceso con las debidas garantías (Palmiotto, 2021). Además, los sistemas de IA se entrenan a partir de datos históricos, que pueden reflejar sesgos y discriminación (Kleinberg et al., 2018). En este sentido, en respuesta a las afirmaciones de que la «algoritmización» de los tribunales aumenta la eficiencia, la literatura sobre la materia se ha centrado especialmente en analizar la cuestión de la imparcialidad, la equidad y la no discriminación (Wachter et al., 2021; Xenidis y Senden, 2020). Si no se diseñan y supervisan adecuadamente, los sistemas de IA podrían perpetuar o incluso exacerbar las desigualdades existentes. 

En este contexto, en el caso de España, varias iniciativas políticas y legislativas, como la Ley 18/2011, de 5 de julio, reguladora del uso de las tecnologías de la información y la comunicación en la administración de justicia, también «ley de actuación judicial automatizada», o la llamada Ley de Eficiencia Digital del Servicio Público de Justicia2, pretenden garantizar que las herramientas de IA utilizadas en el sistema judicial sean transparentes y sujetas a responsabilidad como requisitos indispensables para mantener la integridad del sistema judicial. Ahora bien, aunque se garantice una adjudicación justa y transparente, ¿es posible sostener que la IA solucionará las crisis de (acceso a) la justicia? Existen razones para responder de forma negativa a esta pregunta. 

En primer lugar, se puede argumentar que el acceso a la justicia es escaso. Solo un número limitado de asuntos, y algunos tipos de problemas, obtienen una solución por la vía judicial. Por ejemplo, solo el 3% de los litigios de consumo llegan a los tribunales (Comisión Europea, 2023). Esto no significa que los consumidores no obtengan una solución satisfactoria (los datos muestran que el 81% de los consumidores que tienen un problema acuden directamente al comerciante o proveedor de servicios y el 65% de ellos se declaran bastante o muy satisfechos con la forma en que se ha tratado su reclamación), pero el acuerdo alcanzado no siempre se corresponde con la opción de resarcimiento prevista por la ley (ibídem).

En segundo lugar, el recurso a la justicia, entendida como la interposición de una demanda judicial ante juzgados o tribunales, es cada vez menos habitual. En este sentido, los marcos reguladores existentes, como por ejemplo las leyes para las telecomunicaciones, energía y otros sectores regulados, dan prioridad a la tramitación interna de las reclamaciones y a la resolución extrajudicial de los litigios. Esto no es necesariamente objetable en sí mismo. De hecho, la exigencia de establecer mecanismos extrajudiciales de resolución de litigios suele ir acompañada de garantías específicas –procedimientos con bajas costas procesales, transparentes, imparciales, y más rápidos. Por otro lado, además de reducir la brecha en el acceso a la justicia, estos procedimientos también incluyen otras mejoras procesales (Casarosa, 2023). Por ejemplo, en los litigios relativos a la moderación de contenidos por parte de plataformas digitales, las normas procesales contenidas en el Reglamento europeo de Servicios Digitales (DSA, por sus siglas en inglés)3 podrían incluso suponer una mejora en el ejercicio de los derechos de los usuarios de estos servicios. Este reglamento introduce la obligación de establecer procedimientos claros y transparentes para la revisión de decisiones automatizadas sobre moderación de contenidos por parte de las plataformas digitales, permitiendo a los usuarios apelar de manera más efectiva cuando sus publicaciones han sido eliminadas o restringidas injustamente (art. 15). Además, el DSA obliga a las plataformas a ofrecer explicaciones detalladas sobre las razones de la moderación, lo que aumenta la transparencia y refuerza el derecho de los usuarios a conocer cómo se toman las decisiones que les afectan (art. 17). Asismismo, un importante avance para el acceso a la justicia es la creación de mecanismos de resolución extrajudicial de disputas (art. 21), lo que facilita el acceso a la justicia sin necesidad de recurrir a largos procesos judiciales. Este marco normativo, por tanto, no solo mejora la protección de los derechos digitales, sino que también democratiza el acceso a mecanismos extrajudiciales con debidas garantías a la vez que ofrecen vías más accesibles y rápidas para que los usuarios puedan defender sus derechos frente a las grandes plataformas tecnológicas. Hasta la fecha, se ha publicado información sobre más de 9.000 millones de decisiones de moderación de contenidos, las cuales son a menudo automatizadas, en la base de datos para la transparencia bajo el DSA4. Sin embargo, lo anterior puede ser un reflejo del debilitamiento del papel de los juzgados y tribunales como vía principal para obtener resarcimiento, así como un desplazamiento de la relevancia de la justicia como una función de carácter público.

(Acceso a la) Justicia low-cost

El concepto justicia de bajo coste o justicia low-cost aquí expuesto pretende reflejar la idea de una resolución de disputas más eficiente en términos de tiempo y de coste. Sin embargo, ¿qué noción de justicia opera dentro de la dimensión de la justicia low-cost?

El análisis de la propia idea de justicia requiere atender a las condiciones de acceso a la justicia. Para Cappelletti, la propia definición de justicia presupone su acceso efectivo, en términos de asequibilidad, disponibilidad y funcionalidad (Garth y Cappelletti, 1978). Sin embargo, el acceso a la justicia, como concepto, no es un proceso estático. Así, en los siglos xviii y xix el acceso a la justicia fue entendido como el derecho a litigar o a defender una causa. Como tal, este derecho se consideraba un derecho natural que no requería un reconocimiento por parte del Estado, aunque sí una garantía frente a su vulneración (ibídem). En este sentido, el acceso a la justicia era un aspecto meramente formal, únicamente al alcance de quienes podían permitírselo; por tanto, el remedio ante la incapacidad de hacer un uso efectivo del derecho y de las instituciones no era tarea del Estado (ibídem: 183). Posteriormente, con las constituciones del siglo pasado, centradas en el Estado del bienestar, el acceso a la justicia se erigió como el requisito fundamental para poder ejercer los derechos consagrados en los nuevos sistemas legales (Galanter, 2010). 

En este contexto, la justicia low cost puede definirse como un planteamiento de la resolución de controversias que delega las funciones de adjudicación a instancias extrajudiciales y/o a la tecnología, otorgando prioridad a la asequibilidad y accesibilidad para la ciudadanía. Pero, al igual que otros servicios low-cost, este entendimiento de la justicia en términos de eficiencia presenta el posible riesgo de diluir la calidad y el rigor que tradicionalmente se espera del sistema judicial en un Estado de derecho. Si bien el uso de la tecnología puede aumentar las posibilidades de obtener resarcimiento, también suscita preocupación por la falta de profundidad de la tramitación y resolución judicial (Coglianese y Dor, 2021), el grado de atención individual que reciben los casos (Re y Solow-Niederman, 2019), y la posibilidad de que se produzcan errores que puedan afectar a la toma de decisiones (Araujo et al., 2020). 

El paradigma de la justicia low-cost es en parte tecnocrático y en parte prescriptivo. El modelo de justicia de bajo coste está impulsado por la necesidad de ofrecer un sistema judicial más asequible, especialmente en una época en la que los gastos asociados a procedimientos judiciales pueden resultar prohibitivos para muchos (OECD, 2021). También, en un contexto de creciente deuda pública, puede contribuir a la mejora y, más importante aún, a la democratización del acceso a una tutela judicial efectiva. Sin embargo, esa tutela no está necesariamente encarnada por un órgano judicial o juez(a), como es el caso de los mecanismos de solución alternativa de controversias. Estos mecanismos, como la mediación o el arbitraje, permiten a las partes resolver sus disputas fuera de los tribunales tradicionales, a menudo de manera más rápida y económica. Un ejemplo de esto son las plataformas de resolución de disputas en línea (ODR, por sus siglas en inglés), donde las personas pueden presentar sus quejas, recibir orientación y, en algunos casos, obtener una decisión vinculante sin necesidad de acudir a un juzgado. Más pronto que tarde, estas herramientas se trasladarán a aplicaciones móviles o plataformas digitales que permiten a los usuarios presentar denuncias y recibir decisiones de forma casi instantánea, sin la intervención de un juez humano. Este avance amplía y democratiza el acceso a la justicia, facilitando que más personas, especialmente aquellas que no tienen los recursos para litigar en tribunales formales, puedan resolver sus disputas de manera eficiente (Katsh, 2001). En este sentido, la justicia de bajo coste surge como respuesta a la necesidad de una justicia más accesible económicamente, pero conlleva una tensión implícita entre la accesibilidad y el mantenimiento de los principios fundamentales y, en definitiva, de la propia esencia de la justicia. 

Las personas que acuden a los tribunales suelen esperar que sus casos sean oídos y resueltos con un alto grado de atención, conocimientos, imparcialidad y equidad  (Comisión Europea, 2023); buscan una decisión justa y que refleje la complejidad de sus circunstancias específicas; esperan, además, competencia en la representación, imparcialidad en el juicio y un proceso que permita la adecuada presentación y consideración de las pruebas (Bradford et al., 2018). Con la justicia de bajo coste, existe un conflicto subyacente entre tales expectativas y la naturaleza estandarizada de los servicios prestados en un proceso digitalizado. En este sentido, las críticas al enfoque neoliberal de la economía proporcionan un paralelismo útil para entender la transformación dentro del sistema judicial. Del mismo modo que las políticas neoliberales ampliaron el alcance del mercado a través de la defensa de una intervención mínima del Estado, lo que llevó a una reconsideración de sus repercusiones sobre la desigualdad y el bienestar público, el desplazamiento hacia soluciones de justicia de bajo coste suscita una reflexión similar. En última instancia, la incorporación de la IA al sistema judicial refleja una aplicación más amplia de la tecnología para abordar necesidades sociales complejas, pero también pone de manifiesto la preocupación por la mercantilización de la justicia (Susskind, 2021) y la erosión de los valores jurídicos centrados en el ser humano (Glover, 2014).

En el intento de definir con mayor precisión y ahondar en el concepto de la justicia low-cost, resulta imprescindible abordar el tema desde los múltiples contextos en los que opera la justicia hoy en día. Por ejemplo, las observaciones sobre la Junta de Supervisión de Facebook (FOB, por sus siglas en inglés) proporcionan una perspectiva más actual a través de la cual contemplar el concepto de justicia en la era digital (Klonick, 2018). El FOB representa un experimento de gobernanza privada, que materializa un intento de dirimir los asuntos de moderación de contenidos con un enfoque cuasi judicial. Esta Junta fue creada por Facebook para actuar como una especie de tribunal supremo independiente, que revisa las decisiones de moderación de contenidos tomadas por la plataforma. Su función es escuchar apelaciones de usuarios cuyas publicaciones han sido eliminadas o restringidas, y emitir fallos que Facebook debe acatar. Lo que diferencia a la FOB de otros mecanismos es que está compuesta por expertos independientes de todo el mundo, confiriéndole legitimidad y autoridad fuera del control directo de la empresa. Además, sus decisiones se publican de manera transparente, proporcionando razones detalladas detrás de cada resolución, lo que contribuye a la claridad en las políticas de moderación. No obstante, esta iniciativa es el reflejo de una tendencia más amplia hacia la privatización de los procesos de toma de decisiones, tradicionalmente competencia de las instituciones públicas, aun cuando dichas decisiones afecten a derechos fundamentales.

De este modo, la privatización de la administración de justicia plantea cuestiones fundamentales sobre las concepciones instrumental e ideológica de la justicia. Desde una perspectiva instrumental, los sistemas privatizados suelen ofrecer una mayor eficiencia, pero carecen de la profundidad y el rigor de los pronunciamientos judiciales que ofrecen los tribunales públicos. Por tanto, la principal preocupación es que la mercantilización de la justicia pueda conducir a un sistema en el que el proceso debido sea algo secundario frente a la obtención de una decisión inmediata, como requiere el actual modelo económico. Una concepción instrumental de la justicia, centrada en la eficiencia y los resultados del sistema jurídico, pone el acento en los aspectos tangibles de la administración de justicia: la rapidez con que se resuelven los litigios, la accesibilidad del sistema y la eficacia de los tribunales. Esto situaría en primer plano el debate sobre la efectividad de los derechos frente a la mejora de los medios de tutela judicial. 

Por el contrario, una concepción ideológica de la justicia se sustenta en los fundamentos filosóficos y morales del derecho. Esta concepción, basada en los derechos, es un intento de interpretar la justicia como exigencia de respeto a la dignidad de todas las personas como agentes morales racionales, libres e iguales. No obstante, la conexión entre justica e ideología es controvertida. Esto se debe a la diversidad de definiciones de ideología y a las distintas formas en que la ideología puede relacionarse con el derecho. Una relación que, a menudo, se hace con un espíritu crítico, con el fin de impugnar el derecho. La visión del derecho como ideología es una visión que entiende la ideología como fuente de manipulación (por ejemplo, Marx). El derecho como ideología dirige a sus ciudadanos de maneras no evidentes para los propios ciudadanos; el derecho, desde este punto de vista, encubre el poder. El ideal del derecho, por el contrario, implica un conjunto de instituciones que regulan o restringen el poder con referencia a nociones de justicia. 

Ambas dimensiones de la justicia forman parte necesariamente de la naturaleza contextual del derecho. La «ficción de la neutralidad» de los sistemas judiciales es especialmente relevante en los debates sobre la IA en la justicia. Aunque los sistemas judiciales aspiran a la imparcialidad, están inevitablemente condicionados por las estructuras sociales y los sesgos que les dan forma (Cappelletti, 1993). Esta interpretación puede complementarse con la «ficción de la competencia», según la cual los conocimientos especializados de los que presumen los sistemas de IA podrían erróneamente percibirse como infalibles o universalmente válidos, con el riesgo de considerar que los individuos pueden reducirse a categorías específicas (Innerarity, 2023). Estas ficciones han de ser objeto de un examen crítico, especialmente a medida que delegamos cada vez más en la tecnología para la impartición de justicia.

¿Democratización o discriminación?

Con el creciente desarrollo de la vida en línea, el concepto y las percepciones de justicia también se van expandiendo orgánicamente hacia la dimensión digital. De hecho, ya desde los primeros años de Internet, existían grandes expectativas sobre las posibilidades de las herramientas en línea para reducir la brecha de acceso a la justicia (Casarosa, 2009; Katsh y Rule, 2015). Se pensaba que la digitalización y el uso de plataformas en línea podrían hacer el sistema judicial más accesible, eliminando las barreras físicas y económicas que impedían a muchos ciudadanos acceder a la justicia. La esperanza era que, mediante el uso de sistemas de resolución de disputas en línea, los litigantes pudieran resolver conflictos de manera más rápida y económica, sin los altos costes que conlleva la representación legal y sin necesidad de desplazarse hasta un juzgado o tribunal. Además, se creía que la posibilidad de acceder a información legal y asistencia a través de Internet democratizaría el acceso a la justicia, brindando a personas de bajos recursos o en áreas rurales las mismas oportunidades de defender sus derechos que aquellos con más recursos. En resumen, se esperaba que las herramientas en línea no solo simplificaran los procesos judiciales, sino que también los hicieran más inclusivos y equitativos, en esencia, más justos. De ahí que, de la misma manera que la tecnología ha cambiado infinidad de profesiones como, por ejemplo, la práctica de la medicina, no resulta descabellado pensar que la IA ha iniciado un proceso de cambio de la práctica del derecho y, por ende, de transformación de la justicia (Barona Vilar, 2021). Además de las herramientas ya existentes, la pandemia de 2020 aceleró la introducción de la tecnología en la administración de justicia, garantizando la continuidad de las funciones judiciales incluso durante el confinamiento (Delgado Martín, 2021).

En perspectiva, el concepto de la justicia del futuro prevé un sistema judicial plenamente integrado con la IA, el Big Data y otras tecnologías avanzadas. Como se ha señalado anteriormente, la gestión de los datos puede ayudar en las tareas judiciales tanto de gestión como de decisión. Sin embargo, la idea de que un mayor volumen de datos conduce a mejores decisiones judiciales, aunque atractiva, resulta sumamente compleja. Sin duda, los datos pueden proporcionar información de gran utilidad y mejorar la eficiencia, pero también pueden introducir nuevos sesgos y desigualdades si no se gestionan adecuadamente.

La consideración del uso de la IA en el sector judicial como sistemas de alto riesgo

Consciente de estos riesgos, en el Reglamento de IA de la UE del 13 de junio de 2024, conocido también como la Ley de IA (AIA, por sus siglas en inglés [AI Act])5 el legislador europeo clasifica los sistemas de IA utilizados en la administración de justicia como de alto riesgo (véanse artículo 6 y Anexo iii). Esta clasificación somete a estos sistemas de alto riesgo a una serie de requisitos concebidos para garantizar su imparcialidad y transparencia. Por ejemplo,  la Ley de IA exige la identificación y evaluación de riesgos y la implantación de sistemas de gestión para eliminar o mitigar dichos riesgos (art. 9) con el fin de identificar y mitigar los posibles daños asociados al uso de la IA. Además, los sistemas de IA de alto riesgo deben entrenarse con conjuntos de datos de alta calidad que sean representativos y estén lo más libres de sesgos posible (art. 10). Este requisito aborda la cuestión fundamental de la calidad de los datos, garantizando que los sistemas de IA no refuercen prejuicios históricos. Asimismo, la legislación también exige la documentación y el mantenimiento de registros para asegurar la transparencia y trazabilidad de los sistemas de IA de alto riesgo, incluida información sobre los datos utilizados, el proceso de diseño y desarrollo, y el rendimiento del sistema (art. 11). Los desarrolladores deben mantener una documentación detallada de los datos utilizados, las metodologías empleadas en el entrenamiento de sus sistemas de IA y el rendimiento de estos sistemas. Esta documentación debe ser accesible a los reguladores y, en algunos casos, al público, para aumentar la transparencia y la rendición de cuentas. 

Si bien la transparencia hace visible el funcionamiento de los algoritmos de IA, la rendición de cuentas exige que las entidades que aplican estos sistemas respondan de sus decisiones y corrijan los errores. En este sentido, el artículo 22 del Reglamento General de Protección de Datos (RGPD)6 resulta de interés, ya que reconoce a las personas el derecho a no ser objeto de decisiones basadas únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzcan efectos jurídicos en ellas o les afecten de manera significativa. Esta disposición subraya la importancia de la supervisión humana en los procesos de toma de decisiones basados en la IA, garantizando que las personas tengan derecho a impugnar y solicitar la intervención humana en las decisiones tomadas por los sistemas de IA. La Ley de IA, en su artículo 14, complementa esta disposición haciendo hincapié en la necesidad de una sólida supervisión humana. Los operadores humanos deben tener la capacidad de supervisar los sistemas de IA e intervenir cuando sea necesario para garantizar que las decisiones sigan siendo justas y equitativas. Esta disposición es crucial para mantener la integridad de los procesos judiciales, ya que permite que el juicio humano corrija o anule decisiones potencialmente erróneas de la IA.

Los requisitos de la Ley de IA no bastan para prevenir la discriminación porque no solventan el problema de acceso a la justicia

Los requisitos mencionados anteriormente son un paso acertado hacia la protección de (algunos) derechos fundamentales. Desde esta perspectiva, la transparencia y la explicabilidad conforman la piedra angular del régimen regulatorio de la IA, ya que la información sobre el diseño de los sistemas y los datos usados para su entrenamiento resultan cruciales para garantizar la rendición de cuentas y la equidad de su uso. En este sentido, se necesitan políticas y prácticas proactivas para identificar y mitigar los sesgos en los sistemas de IA, incluidas las auditorías periódicas de algoritmos y la incorporación de diversas perspectivas en el desarrollo de dichos sistemas. Los sistemas de IA transparentes permiten hacer un seguimiento de los procesos de toma de decisiones, lo que facilita tanto a los reguladores como a las personas afectadas comprender cómo se toman las decisiones. Esto es particularmente importante en el sector judicial, donde las decisiones pueden tener profundas repercusiones en la vida de las personas. Sin embargo, a pesar de la importancia de la transparencia y la explicabilidad, existen problemas asociados con la retórica (e incluso fetichismo) de la transparencia, como, por ejemplo, que no produce mejor información, no genera una mayor disciplina de mercado por parte de quienes han de cumplir con la regulación y, por último, tampoco contribuye a la equidad procesal.  

En primer lugar, no en todos los supuestos la transparencia y la explicabilidad garantizan que los individuos comprendan el funcionamiento de procesos algorítmicos o, más específicamente, por qué han tomado una determinada decisión, lo que disminuye las posibilidades de apelar decisiones automatizadas o asistidas por la IA (Edwards y Veale, 2018; Kontiainen et al., 2022). En este sentido, la complejidad de los algoritmos, junto con las tecnologías patentadas y los conocimientos técnicos necesarios para interpretarlos, hacen que la transparencia a menudo no alcance su propósito. Es importante diferenciar entre explicabilidad y comprensión. La explicabilidad de una decisión algorítmica se refiere a la capacidad del sistema para proporcionar información sobre cómo se llegó a una decisión, es decir, a través de qué pasos y criterios. Sin embargo, esto no garantiza que los usuarios, incluidos jueces o abogados, realmente comprendan esa información técnica. La comprensión va más allá de la mera explicación, ya que implica la capacidad de interpretar esa explicación de manera significativa y de utilizarla para tomar decisiones informadas o apelar adecuadamente. De esta forma, podemos argumentar que la interpelación a la transparencia y explicabilidad en el uso de la IA para las decisiones judiciales puede crear una falsa sensación de responsabilidad. Incluso si el funcionamiento de un sistema de IA se hace público, ello no se traduce necesariamente en una comprensión o en una toma de control significativa sobre el funcionamiento del algoritmo. Los entresijos técnicos de la IA pueden seguir siendo inaccesibles para la mayoría de las partes interesadas, incluidos jueces, abogados y personas afectadas.

En segundo lugar, la transparencia se ha convertido en un mero ideal normativo invocado tanto por los estados como por las empresas privadas para reforzar su legitimidad (Willett y Morgan-Taylor, 2012). La paradoja de la transparencia sostiene que la relación entre veracidad y legitimidad en las prácticas de transparencia es inherentemente problemática (Koivisto, 2022). La mera exposición del funcionamiento de un sistema de IA no garantiza que esté libre de sesgos o errores. Por el contrario, puede crear una apariencia de legitimidad, especialmente en el caso de actores privados, que oculte y/o perpetúe problemas de fondo (Edwards y Veale, 2018; Zalnieriute, 2021). 

Y, en tercer lugar, por ellas misma, la transparencia y explicabilidad no bastan para prevenir la discriminación o abordar plenamente los problemas de acceso a la justicia. La justicia no solo debe ser transparente, sino también accesible para todos. Esto significa garantizar que todo el mundo, independientemente de su estatus socioeconómico, tenga acceso a una tutela judicial efectiva y a una representación procesal y defensa técnica. La transparencia debe ir acompañada de medidas que promuevan la equidad y la accesibilidad, como políticas que aborden la discriminación algorítmica y garanticen un acceso equitativo a la justicia.

Teniendo en cuenta lo anterior, la adopción de la IA en la administración de justicia exige reflexionar sobre cuestiones clave: ¿Qué concepción de la justicia se persigue promover? ¿Cuáles son las necesidades sociales que cubre el uso de la IA en el sistema judicial? ¿Y cuáles son las consecuencias potenciales, incluidos los riesgos de exclusión en el acceso a la justicia, que se deben gestionar? Las respuestas a estas preguntas conformarán no solo el futuro de la justicia, sino también los contornos del derecho y de nuestro sistema jurídico. El debate actual sobre la justicia, y el acceso a esta, también debería ampliarse para abordar la creciente delegación, automatización y privatización de la resolución de controversias, como se observa en el DSA y otros marcos legislativos que, como se ha mencionado, fomentan una delegación sistemática hacia la resolución extrajudicial de litigios.

En vista de lo anterior, la justicia low-cost se presenta como un subproducto de la actual «economía de la inmediatez», basada en un paradigma de resolución de controversias eficiente en términos de tiempo y costes, y medida por el número de casos resueltos. Sin embargo, el éxito del sistema judicial debe trascender las métricas cuantitativas. En su lugar, debe reflejar dimensiones cualitativas que reflejen los valores fundamentales que sustentan el Estado de derecho, lo que incluye un compromiso con el cumplimiento de las garantías procesales y un firme apoyo a la independencia judicial (Gentile, 2022). La búsqueda de la democratización de la justicia (o del acceso a ella), especialmente a través de la IA, debe considerarse con atención para garantizar el fortalecimiento del Estado de derecho (Zalnieriute et al., 2019), que está mostrando signos de debilitamiento en todo el mundo (World Justice Project, 2023). 

Conclusiones: justicia low-cost y el futuro del (Estado de) derecho

Los debates sobre el uso de la IA en la toma de decisiones judiciales suelen tener un planteamiento limitado. Al respecto, este artículo ha buscado ampliar el alcance del discurso normativo sobre la democratización y el acceso a la justicia a través de la tecnología. Partiendo de la comprensión de la justicia como un valor fundamental en un Estado de derecho, resulta esencial extender el análisis al impacto de la IA en la calidad y el acceso a la justicia atendiendo a tres puntos esenciales. 

En primer lugar, los riesgos asociados a la IA en el poder judicial van más allá de los sesgos e injusticias inmediatos que afectan a grupos específicos. Conviene tener en cuenta repercusiones más amplias, como la forma en que las decisiones algorítmicas pueden crear nuevas barreras para acceder a la justicia. En este sentido, uno de los principales riesgos es el aumento de la brecha digital, ya que los usuarios deben contar con mayores competencias tecnológicas para navegar por sistemas automatizados y acceder a los servicios judiciales en línea. Esto puede excluir a personas de sectores vulnerables o menos familiarizados con la tecnología. Por tanto, deben tomarse medidas prácticas para garantizar que los sistemas de IA se diseñen e implementen de manera que no refuercen inadvertidamente las desigualdades existentes o creen nuevas formas de discriminación en el acceso formal y material a la justicia. 

En segundo lugar, aunque la mejora de la eficiencia organizativa de la administración pública a través de la IA es importante, una mayor eficiencia en sí misma no es suficiente para avanzar hacia una verdadera igualdad de oportunidades. La atención no debe centrarse únicamente en hacer que los procesos judiciales sean más rápidos y económicos, sino también en garantizar que los procesos sigan siendo justos y equitativos. 

Por último, es necesario considerar también de una manera más amplia el impacto social del despliegue a gran escala de la IA en el poder judicial. Esto incluye el análisis sobre cómo afecta la implementación de la IA a la distribución justa de la riqueza y los recursos, con el potencial de reducir o aumentar las diferencias entre los distintos grupos socioeconómicos. En este caso, el riesgo radica en que la IA se utilice principalmente en sectores desfavorecidos o en casos de menor relevancia, mientras que las decisiones en casos más complejos o vinculados a sectores privilegiados se sigan reservando para jueces humanos. Por ejemplo, la eficiencia de los procesos judiciales gracias a la IA podría reducir los costes, haciendo que la justicia sea más accesible para quienes tienen menos recursos. Sin embargo, sin unas garantías específicas para el acceso a la justicia de colectividades vulnerables, el uso de la IA podría beneficiar desproporcionadamente a quienes ya cuentan con un mayor acceso tanto a los recursos tecnológicos como de representación legal. De manera que esta dualidad podría aumentar las desigualdades socioeconómicas, reservando la justicia personalizada a aquellos con más recursos y relegando a los menos favorecidos a sistemas automatizados de menor calidad. En este sentido, el despliegue de la IA en los sistemas judiciales no solo debe centrarse en maximizar la eficiencia, sino también en asegurar que se mantenga el acceso equitativo y que no se agraven las desigualdades preexistentes, tanto digitales como socioeconómicas.

En conclusión, la introducción de la tecnología, en particular la IA, en los sistemas judiciales representa una adaptación pragmática a retos contemporáneos de inmediatez y eficiencia. Sin embargo, la externalización de funciones tradicionalmente públicas hacia sistemas algorítmicos puede socavar principios fundamentales de la democracia y erosionar el Estado de derecho. Este enfoque requiere un delicado equilibrio que garantice que los avances tecnológicos no afecten a los derechos y garantías procesales: equidad, imparcialidad, derecho a ser oído y tutela judicial efectiva. De hecho, la dimensión individual de la justicia impone considerar un espectro de factores que no pueden ser abarcados por los planteamientos de «talla única» que, por el contrario, implicarían una estandarización de los procesos judiciales y que, en muchos casos, simplifican en exceso los procedimientos para adaptarlos a un modelo uniforme que no tiene en cuenta las circunstancias particulares de cada litigio o cuestión judicial. Asimismo, si bien la IA puede acelerar los procesos judiciales, reducir costes y hacer que la justicia sea más accesible para un mayor número de personas, también existe el riesgo de que esta eficiencia se logre a expensas de la atención personalizada a cada caso. Por tanto, en la búsqueda de la accesibilidad y la eficiencia, no pongamos en peligro los principios que definen la esencia de la propia justicia. 

Referencias bibliográficas

Araujo, Theo; Helberger, Natali; Kruikemeier, Sanne y de Vreese, Claes H. «In AI We Trust? Perceptions about Automated Decision-Making by Artificial Intelligence». AI & Society, vol. 35, n.º 3 (2020), p. 611-623. DOI: https://doi.org/10.1007/s00146-019-00931-w

Barona Vilar, Silvia. Algoritmización del derecho y de la justicia: De la inteligencia artificial a la Smart Justice. Valencia: Tirant lo Blanch, 2021.

Bradford, Ben, Jackson, Jonathan y Hough, Mike. «Trust in Justice», en: Uslaner, Eric (ed.) The Oxford Handbook of Social and Political Trust. Oxford University Press, 2016, p. 633-654.

Burrell, Jenna. «How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms». Big Data & Society, vol. 3, n.º 1 (2016) (en línea) https://doi.org/10.1177/2053951715622512

Cappelletti, Mauro. «Alternative Dispute Resolution Processes within the Framework of the World-Wide Access-to-Justice Movement». The Modern Law Review, vol. 56, n.º 3 (1993), p. 282-296. DOI: https://doi.org/10.1111/j.1468-2230.1993.tb02673.x

Carvajal, Diana María Ramírez. Justicia Digital: una mirada internacional en época de crisis. Universidad de Salamanca, 2020.

Casarosa, Federica. «Online Auction Sites: An Example of Regulation in Electronic Communities&#63». European Review of Private Law, vol. 17, n.º 1 (2009), p. 1-23. DOI: https://doi.org/10.54648/erpl2009001

Casarosa, Federica. «Out-of-Court Dispute Settlement Mechanisms for Failures in Content Moderation Monograph on the Administration of Justice in a Digital Era». Journal of Intellectual Property, Information Technology and Electronic Commerce Law, vol. 14, n.º 3 (2023), p. 391-402.

Castelliano, Caio, y Aquino Guimaraes, Tomas. «Court Disposition Time in Brazil and in European Countries». Revista Direito GV, vol. 19, (2023), p. 1-24. DOI: https://doi.org/10.1590/2317-6172202302

Castelvecchi, Davide. «Can We Open the Black Box of AI?» Nature News, vol. 538, n.º 7623 (5 de octubre de 2016) (en línea) https://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731

CEPEJ-European Commission for the Efficiency of Justice. «Special File - Report "European Judicial Systems - CEPEJ Evaluation Report - 2022 Evaluation Cycle (2020 Data)», (5 de octubre de 2022) (en línea) https://www.coe.int/en/web/cepej/special-file-report-european-judicial-systems-cepej-evaluation-report-2022-evaluation-cycle-2020-data-

Coglianese, Cary y Ben-Dor, Lavi M. «AI in Adjudication and Administration». Brooklyn Law Review, vol. 86, n.º 3 (2021), p. 791-838.

Comisión Europea. «Consumer Scoreboard», (27 de marzo de 2023) (en línea) https://ec.europa.eu/commission/presscorner/detail/en/ip_23_1891

Edwards, Lilian, y Michael Veale. «Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”?» IEEE Security & Privacy, vol. 16, n.º 3 (2018), p. 46-54. DOI: https://doi.org/10.1109/MSP.2018.2701152

Galanter, Marc. «Access to Justice in a World of Expanding Social Capability». Fordham Urban Law Journal, vol. 37, n.º 1 (2010), p. 115-128.

Garth, Bryant G. y Cappelletti, Mauro. «Access to Justice: The Newest Wave in the Worldwide Movement to Make Rights Effective». Buffalo Law Review, vol. 27, (1978), p. 181-292.

Gentile, Giulia. «AI in the Courtroom and Judicial Independence: An EU Perspective». EUIdeas, (22 de agosto de 2022) (en línea) https://euideas.eui.eu/2022/08/22/ai-in-the-courtroom-and-judicial-independence-an-eu-perspective/

Gentile, Giulia. «Artificial Intelligence and the Crises of Judicial Power: (Not) Cutting the Gordian Knot?», en: De Gregorio, Giovanni; Pollicino, Oreste y Valcke, Peggy (eds.) Oxford Handbook of Digital Constitutionalism. Oxford: Oxford University Press, 2024 (en prensa) (en línea) https://ssrn.com/abstract=4731231

Glover, J. Maria. «Disappearing Claims and the Erosion of Substantive Law». Yale Law Journal, vol. 124, n.º 8 (2014), p. 3.052-3.093.

Innerarity, Daniel. «Predicting the past: a philosophical critique of predictive analytics». IDP. Revista de Internet, Derecho y Política, n.º 39 (2023), p. 1-12. DOI: https://doi.org/10.7238/idp.v0i39.409672

Katsh, Ethan. «Online dispute resolution: Some lessons from the e-commerce revolution».  Northern Kentucky Law Review, vol 28, n.º 4 (2001), p. 810-821.

Katsh, Ethan y Rule, Colin. «What We Know and Need to Know about Online Dispute Resolution White Papers». South Carolina Law Review, vol. 67, n.º 2 (2015), p. 329-344.

Kleinberg, Jon; Ludwig, Jens; Mullainathan, Sendhil y Sunstein, Cass R. «Discrimination in the Age of Algorithms». Journal of Legal Analysis, vol. 10 (2018), p. 113-174. DOI: https://doi.org/10.1093/jla/laz001

Klonick, Kate. «The New Governors: The People, Rules, and Processes Governing Online Speech». Harvard Law Review, vol. 131, n.º 6 (2018), p. 1.599-1.670.

Koivisto, Ida. The Transparency Paradox. Oxford y Nueva York: Oxford University Press, 2022.

Kontiainen, Laura; Koulu, Riikka y Sankari, Suvi. «Research Agenda for Algorithmic Fairness Studies: Access to Justice Lessons for Interdisciplinary Research». Frontiers in Artificial Intelligence, vol. 5, (2022), p. 1-13. DOI: https://doi.org/10.3389/frai.2022.882134

Lorenzo Pérez, Cristina. «Inteligencia artificial en la Administración de Justicia: Regulación española y marco europeo e internacional. Proyectos desarrollados por el Ministerio de Justicia de España». Centro de Estudios Jurídicos, (marzo de 2022) (en línea) https://www.cej-mjusticia.es/sede/publicaciones/ver/13637

Delgado Martín, Joaquín. «Justicia, juicios telemáticos y ecnología para afrontar los efectos de la pandemia sobre la justicia». Asuntos Constucionales, vol. 1 (2021), p. 75-94. 

Mora-Sanguinetti, Juan S. La factura de la injusticia. Madrid: Tecnos, 2022.

OCDE-Organización para la Cooperación y el Desarrollo Económico. «Government at a Glance 2021». OECD, (9 de julio de 2021) (en línea) https://doi.org/10.1787/1c258f55-en

Palmiotto, Francesca. «The Black Box on Trial: The Impact of Algorithmic Opacity on Fair Trial Rights in Criminal Proceedings», en: Ebers, Martin y Cantero Gamito, Marta (eds.) Algorithmic Governance and Governance of Algorithms: Legal and Ethical Challenges. Cham: Springer, 2021, p. 49-70.

Pilving, Ivo. «Guidance-Based Algorithms for Automated Decision-Making in Public Administration: The Estonian Perspective». CERIDAP, (20 de febrero de 2023) (en línea) https://doi.org/10.13130/2723-9195/2023-1-105

Re, Richard M. y Solow-Niederman, Alicia. «Developing Artificially Intelligent Justice». Stanford Technology Law Review, vol. 22, n.º 2 (2019) (en línea) https://law.stanford.edu/publications/developing-artificially-intelligent-justice-stanford-technology-law-review/

Susskind, Richard. Online Courts and the Future of Justice. Oxford y Nueva York: Oxford University Press, 2021.

Wachter, Sandra; Mittelstadt, Brent y Russell, Chris. «Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI». Computer Law & Security Review, vol. 41 (2021) (en línea) https://doi.org/10.1016/j.clsr.2021.105567

Willett, Chris y Morgan-Taylor, Martin. «Recognising the limits of transparency in EU consumer law», en: Devenney, James y Kenny, Mel (eds.) European Consumer Protection: Theory and Practice. Cambridge: Cambridge University Press, 2012, p. 143-163.

WJP-World Justice Project. «WJP Rule of Law Index», (2023) (en línea) [Fecha de consulta: 30.06.2024] https://worldjusticeproject.org/rule-of-law-index

Xenidis, Raphaële, y Senden, Linda. «EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination», en: Bernitz, Ulf; Groussot, Xavier; Paju, Jaan y De Vries, Sybe A. (eds.) General principles of EU law and the EU digital order. Alphen aan den Rijn: Kluwer Law International, 2020, p. 151-182.

Zalnieriute, Monika. «“Transparency Washing” in the Digital Age: A Corporate Agenda of Procedural Fetishism Special Issue: Transparency in the Digital Environment». Critical Analysis of Law: An International & Interdisciplinary Law Review, vol. 8, n.º 1 (2021), p. 139-153.

Zalnieriute, Monika; Moses, Lyria B. y Williams, George. «The Rule of Law and Automation of Government Decision-Making». The Modern Law Review, vol. 82, n.º 3 (2019), p. 425-455. DOI: https://doi.org/10.1111/1468-2230.12412

Notas: 

1- Datos disponibles en: https://public.tableau.com/app/profile/cepej/viz/OverviewEN/Overview

2- Real Decreto-ley 6/2023, de 19 de diciembre por el que se aprueban medidas urgentes para la ejecución del Plan de Recuperación, Transformación y Resiliencia en materia de servicio público de justicia, función pública, régimen local y mecenazgo.

3- Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE. DO L 277 de 27 de octubre de 2022, p. 1-102.

4- Véase: https://transparency.dsa.ec.europa.eu/

5- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) DOUE L, 2024/1689, 12.7.2024. 

6- Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) DOUE L 119 de 4 de mayo de 2016, p. 1/88. 

Palabras clave: inteligencia artificial (IA), justicia, algoritmos, low-cost, discriminación, vulnerabilidad, acceso a la justicia

Cómo citar este artículo: Cantero Gamito, Marta. «Acceso a la justicia en tiempos de IA: ¿hacia una justicia low-cost?». Revista CIDOB d’Afers Internacionals, n.º 138 (diciembre de 2024), p. 51-71  DOI: -doi.org/10.24241/rcai.2024.138.3.51

Revista CIDOB d’Afers Internacionals, nº 138, p. 51-71
Cuatrimestral (septiembre-diciembre 2024)
ISSN:1133-6595 | E-ISSN:2013-035X
DOI: https://doi.org/10.24241/rcai.2024.138.3.51

Fecha de recepción:  15.04.2024  ;  Fecha de aceptación:  09.09.2024