Deusto Journal of Human Rights

Revista Deusto de Derechos Humanos

ISSN 2530-4275

ISSN-e 2603-6002

DOI: DOI: https://doi.org/10.18543/djhr

No. 14 Year / Año 2024

DOI: DOI: https://doi.org/10.18543/djhr142024

ARTICLES / ARTÍCULOS

Ética, desafíos y riesgos del acceso a la justicia algorítmica

Ethics, challenges and risks in access to algorithmic justice

José Carlos Fernández Rozas

Universidad Complutense de Madrid, España

jcfernan@der.ucm.es

ORCID: https://orcid.org/0000-0001-8443-8488

https://doi.org/10.18543/djhr.3195

Fecha de recepción: 19.05.2024
Fecha de aceptación: 09.08.2024
Fecha de publicación en línea: diciembre de 2024

Cómo citar / Citation: Fernández Rozas, José Carlos. 2024. «Ética, desafíos y riesgos del acceso a la justicia algorítmica». Deusto Journal of Human Rights, n. 14: 203-235. https://doi.org/10.18543/djhr.3195

Resumen: Socialmente, la IA suscita preocupaciones sobre la privacidad de las partes en conflicto, así como interrogantes sobre la transparencia, precisión y confiabilidad de los algoritmos utilizados en los procesos judiciales. El objetivo de este artículo es examinar los avances de la IA y sus repercusiones en los derechos humanos desde las perspectivas social y jurídica, proporcionando elementos para abordar los eventuales retos del aumento del uso de sus diferentes aplicaciones. Partiendo de sus inmensas posibilidades se sostiene que las tales aplicaciones de IA pueden ayudar a la sociedad, pero llamando la atención de las diferentes cuestiones jurídicas y la complejidad asociada derivadas en la profesión legal, analizando sus ventajas, riesgos y futuras perspectivas profesionales. Se anticipa un cambio en las tareas profesionales, donde las actividades repetitivas serán menos valoradas, mientras que la consultoría y el asesoramiento jurídico adquirirán mayor importancia, exigiendo de los conocimientos técnico–jurídicos adaptados al desarrollo tecnológico. En términos de ética profesional, los operadores jurídicos deben entender las capacidades y riesgos de la IA, teniendo en cuenta que las actuales normas deontológicas ser actualizadas para abordar sus particularidades.

Palabras clave: Inteligencia artificial, transformación digital, tecnología jurídica, acceso a la justicia, componente ético, justicia algorítmica.

Summary: Socially, AI raises concerns about the privacy of conflicting parties, as well as questions about the transparency, accuracy and reliability of algorithms used in judicial processes. The aim of this article is to examine AI developments and their impact on human rights from social and legal perspectives, providing elements to address the eventual challenges of the increased use of its different applications. Starting from its immense possibilities it is argued that such AI applications can help society but drawing attention to the different legal issues and the associated complexity derived in the legal profession, analysing their advantages, risks, and future professional perspectives. A change in professional tasks is anticipated, where repetitive activities will be less valued, while consultancy and legal advice will become more important, requiring technical-legal knowledge adapted to technological development. In terms of professional ethics, legal operators must understand the capabilities and risks of AI, bearing in mind that current ethical rules must be updated to address its particularities.

Keywords: Artificial intelligence, digital transformation, legal technology, access to justice, ethical component, algorithmic justice.

Sumario: 1. Avances de la tecnología y de la IA en la administración de la Justicia.

1. Avances de la tecnología y de la IA en la administración de la Justicia

El rápido desarrollo de la inteligencia artificial (IA) ha transformado nuestro mundo, pero también plantea retos en la protección de los derechos humanos, lo que implica consecuencias relevantes en su protección. El avance de la tecnología y la IA en la vida diaria presenta oportunidades para mejorar la eficiencia en la administración de justicia, especialmente en la lucha contra el fraude y las irregularidades, y para que los profesionales del Derecho presten servicios jurídicos de manera más eficiente, si bien los denominados sistemas inteligentes suscitan interrogantes sobre derechos y responsabilidades individuales, así como sobre el impacto, la gobernanza y la ética, requiriendo una evaluación en términos de derechos humanos, libertades fundamentales y ética. La integración de la IA puede asistir a los profesionales del Derecho mediante software de gestión de casos que analiza y sugiere precedentes relevantes, aumentando la eficiencia y reduciendo costos de litigios a medio plazo, siendo esta función crucial para optimizar operaciones energéticas y desarrollar un marco político alineado con la economía circular, promoviendo la sostenibilidad. Sin embargo, plantea preocupaciones acerca de la privacidad, transparencia y confiabilidad de los algoritmos en procesos judiciales.

Aunque su aplicación en tribunales aún es experimental debido a las diferencias entre el razonamiento judicial humano y el de una máquina, en los próximos años los algoritmos predictivos aumentarán su valor añadido en el ámbito del Derecho. Los jueces deben considerar factores extrajurídicos y mantener la coherencia en la jurisprudencia, lo cual plantea dudas sobre la capacidad de la IA para prever resultados judiciales habida cuenta que la IA no está lo suficientemente avanzada para proporcionar un valor añadido significativo a los jueces. Por tanto, se requiere un marco jurídico adecuado que respete los derechos fundamentales y permita una aplicación ágil y colaborativa de la IA, protegiendo a los ciudadanos sin frenar la innovación (Fernández Rozas 2024).

Siendo indiscutida la utilidad de la IA en diversos aspectos de la justicia, su empleo limitado a predicciones o modelos matemáticos no deja de suscitar desafíos legales en áreas como la protección de datos, igualdad y transparencia, especialmente en la justicia penal (Završnik 2020, 567–583).

Concebida la IA como la inteligencia que emana de las máquinas, por oposición a la inteligencia natural de los seres humanos y los animales, se entiende como un sistema o aplicación que muestra un comportamiento inteligente analizando su entorno y actuando con cierto grado de autonomía para alcanzar objetivos específicos. Sentado esto, deben de tenerse en cuenta una serie de matizaciones previas:

a)La definición de IA aún carece de uniformidad en el ámbito académico y legal, pero provisionalmente se identifica con la capacidad de una máquina o programa informático para realizar tareas que requieren inteligencia humana. Tradicionalmente, se divide en dos categorías: IA fuerte o general, que busca desarrollar sistemas capaces de emular o superar la inteligencia humana, e IA débil, centrada en tareas específicas mejoradas mediante el aprendizaje automático. Mientras la IA débil simula el comportamiento humano inteligente, la IA fuerte posee esta cualidad realmente.

b)La IA es una tecnología interdisciplinaria sin un propósito fijo, utilizada en diversos contextos, y su terminología es polémica debido a múltiples modelos que intentan definirla. Centrados algunos de ellos en el pensamiento y razonamiento y otros en el comportamiento, ambos pueden medir su éxito en términos de coherencia con el rendimiento humano o con una medida ideal de “racionalidad”, dando lugar a cuatro grupos de modelos: “pensamiento humano”, “pensamiento racional”, “acción humana” y “acción racional”.

c)La “justicia algorítmica” investiga cómo las instituciones gubernamentales integran la inteligencia artificial, algoritmos y tecnologías de aprendizaje automático en su toma de decisiones, y cómo esto afecta los derechos individuales y la justicia social. Su objetivo es desarrollar y utilizar aplicaciones algorítmicas que mejoren la equidad y la eficacia sin perder responsabilidad y transparencia. Esto implica considerar el impacto social, no solo la precisión técnica, y fomentar la participación ciudadana para incluir diversas perspectivas en el diseño tecnológico. Una IA fiable puede abordar desafíos sociales clave como el envejecimiento de la población, la desigualdad social y la contaminación ambiental, siendo una herramienta valiosa para mitigarlos.

Los términos de “Inteligencia Artificial” y de “aprendizaje automático” suelen utilizarse indistintamente. El aprendizaje automático se ocupa de los algoritmos (secuencias de instrucciones utilizadas para resolver un problema) de aprendizaje que, tras el análisis de gran cantidad de información (incluyendo legislación, jurisprudencia y doctrina jurídica), ofrecen resultados altamente relevantes en una fracción de tiempo y toman decisiones basadas en la experiencia. Dicho aprendizaje sirve como término genérico para todos los tipos de generación de conocimiento a partir de datos, en el que un sistema aprende patrones y reglas analizando la información existente para aplicarlos a conjuntos de datos previamente desconocidos sin necesidad de programación explícita. Los algoritmos avanzados analizarán grandes cantidades de información, incluyendo jurisprudencia, estatutos y artículos legales, ofreciendo resultados altamente relevantes en una fracción de tiempo.

En el aprendizaje automático, los algoritmos aprenden de forma autónoma y mejoran continuamente con grandes cantidades de datos de entrenamiento. Existen tres tipos principales de aprendizaje: a) El algoritmo se entrena con datos completos proporcionados por humanos, buscando patrones explicativos que aplica a nuevos datos, como reconocer precios de coches basándose en características del equipamiento. b) El algoritmo identifica patrones desconocidos de forma autónoma, como detectar a personas propensas a creer y difundir mensajes falsos en redes sociales. c) El algoritmo prueba soluciones mediante ensayo y error, optimizando sus acciones a través de la interacción con el entorno. Este método se utiliza cuando hay pocos datos disponibles y no se puede determinar un resultado perfecto.

En el tratamiento de los datos legales, los analistas deben tener un profundo conocimiento del contexto y lenguaje jurídico. Idealmente, estos analistas deberían ser juristas o tener formación legal para asegurar resultados precisos y relevantes. La colaboración entre juristas y analistas de datos favorece la efectividad del etiquetado automático y otros análisis legales garantizando con ello precisión y coherencia, pues la combinación de tecnología y experiencia legal mejora la eficiencia y precisión en el análisis de sentencias y documentos legales, asegurando la integridad e imparcialidad del proceso.

2. Trasformación digital en el ámbito jurídico

2.1. Nuevas aplicaciones y modelos de razonamiento

El Derecho está siendo impactado por las nuevas tecnologías, afectando varias áreas del trabajo de los abogados, incluyendo tareas que tradicionalmente requerían juicio humano experto, como la predicción de resultados judiciales. Estas herramientas presentan retos y oportunidades: a corto plazo, se espera una mayor transparencia jurídica, una resolución de litigios más eficiente, un mejor acceso a la justicia y desafíos para la estructura tradicional de los bufetes de abogados. Los abogados podrán trabajar de manera más eficiente, ampliar sus áreas de especialización y aportar más valor a sus clientes, transformando así su forma de trabajo y resolución de litigios. A largo plazo, el impacto de la IA en el Derecho es difícil de predecir, pero tiene el potencial de redefinir el panorama jurídico, alterando los métodos de trabajo y la estructura de las instituciones jurídicas, y mejorando el análisis y procesamiento de grandes volúmenes de datos legales.

La creciente capacidad de las herramientas de IA para realizar tareas complejas, que antes requerían habilidades humanas avanzadas, puede llevar a una reevaluación del papel del abogado tradicional que deberá adaptarse y aprender a colaborar con estas tecnologías para maximizar su potencial y evitar quedar obsoletos. Esta adaptación implica tanto una actualización técnica como un cambio en la mentalidad y cultura profesional del Derecho. Las tecnologías avanzadas ofrecen la promesa de mejorar significativamente la eficiencia y efectividad de los servicios jurídicos, planteando al mismo tiempo preguntas sobre el futuro de la profesión y cómo los abogados deberán evolucionar para seguir siendo relevantes en un mundo digitalizado, facilitando la integración de estas tecnologías la recuperación de información legal y habilita la computación cognitiva, promoviendo una colaboración estrecha entre humanos y sistemas informáticos. Esto promete mejorar la eficiencia y precisión en la toma de decisiones legales, así como una mayor comprensión y transparencia en el proceso (Ashley 2017, 38–72).

En el contexto de la comprensión del acto suministrado a partir de la IA destacan dos enfoques principales para la utilización de algoritmos. El primero, consiste en imitar el razonamiento jurisdiccional mediante sistemas expertos, lo que plantea la cuestión de si este proceso complejo puede formalizarse. El segundo, implica sistematizar la jurisprudencia a través de sistemas basados en machine learning (Ebers y Krõõt 2023) y en el procesamiento automático del lenguaje natural, lo que esboza la posibilidad de sustituir el razonamiento jurisdiccional por un enfoque estadístico basado en el reconocimiento de patrones. En ambos casos, surgen interrogantes acerca la viabilidad y la efectividad de estos métodos. Por un lado, la complejidad al acto de juzgar, que implica la creación de Derecho yendo más allá de meros enunciados normativos, dificulta su formalización mediante IA simbólica. Por otro lado, las limitaciones jurídicas y lógicas que enfrentan al juez esbozan dudas sobre la posibilidad de sistematizar las decisiones jurídicas. Más. Al margen de estas incertidumbres, es evidente que hay una categoría de litigios cuyas soluciones son previsibles, al ofrecer las normas que los regulan un reducido margen interpretativo, lo que facilita su sistematización.

Las limitaciones técnicas de los algoritmos, como la presencia de sesgos y errores de correlación, y su incapacidad para reflexionar globalmente sobre un caso, cuestionan la viabilidad de las aplicaciones de IA para resolver litigios de forma autónoma. El sesgo es inherente a los datos, lo que puede llevar a resultados erróneos en los modelos entrenados, pues es susceptible de enmascararse, convirtiéndose en discriminación, esto es, un trato perjudicial basado en atributos sensibles, lo cual indica que la implementación inmediata de programas autónomos para la resolución de litigios podría no ser factible en ciertas situaciones.

El debate sobre la digitalización del Derecho requiere un estudio de los fundamentos del Derecho en todos sus ámbitos, involucrando disciplinas como la ciencia de datos, estadística, informática, lingüística y filosofía. Mejorar el acceso a la justicia es una misión creciente para bufetes de abogados y proveedores de servicios jurídicos (Castillejo 2022, 55–90). La centralidad del usuario impulsa la digitalización de procesos con software y datos, optimizando las experiencias de asesoramiento. Sin embargo, garantizar la igualdad de acceso a la justicia y asegurarla a largo plazo es también una tarea fundamental del Poder Judicial como garante del Estado de Derecho.

Están evolucionando rápidamente las aplicaciones de IA en el asesoramiento jurídico, especialmente en el ámbito de la justicia predictiva, o justicia algorítmica, que busca ofrecer soluciones confiables para problemas legales mediante el análisis estadístico de precedentes judiciales (Ashley 2017, 38–72). Sin embargo, la falta de transparencia en los algoritmos utilizados suscita preocupaciones significativas, ya que dificulta el control posterior sobre los resultados predictivos. Antes de plantear cuánta transparencia deben exigir las leyes a los algoritmos, es fundamental evaluar si las explicaciones que quienes programan pueden proporcionar son lo suficientemente comprensibles para las personas destinatarias potenciales como técnicamente factibles para quienes las producen (Mercan y Seiçuk 2024, 131–144). La exigencia de transparencia implica la necesidad de revelar los sesgos privativos de los algoritmos, pero esta revelación debe traducirse en explicaciones que sean efectivas en contextos jurídicos específicos, con el objeto de proporcionar una comprensión clara y accesible de cómo esos sesgos afectan a las decisiones algorítmicas. Esto da lugar a un sustancial desafío tanto para los diseñadores de algoritmos como para los responsables de la formulación de políticas, ya que deben encontrar un equilibrio entre la complejidad técnica y la necesidad de comprensión y aplicación práctica en el ámbito legal (Buitten n.d., 41–59).

La extensión de la IA en la justicia predictiva podría limitar la innovación debido a su enfoque en datos preexistentes, impidiendo soluciones nuevas, siendo por ello vital evaluar los sesgos en los datos y la automatización de aspectos del litigio, como el cálculo de intereses o indemnizaciones. Los análisis muestran que los beneficios de la tecnología moderna a menudo se exageran y que la censura algorítmica afecta el acceso a la información, creando una asimetría de poder donde persistan prejuicios raciales, étnicos y de género y donde los operadores de algoritmos puedan alcanzar un control indeseado.

A medida que la IA se integra en la sociedad, se comprometen principios como accesibilidad, transparencia y equidad debido a la complejidad de sus sistemas de toma de decisiones, obligando los operadores jurídicos a informar a los consumidores sobre el uso de IA en servicios legales, especialmente con mínima intervención humana, para proteger sus derechos. Con independencia de la mejora de la calidad de los servicios legales, su uso exclusivo de la IA plantea preocupaciones legales, como las restricciones del Reglamento General de Protección de Datos (RGPD) sobre decisiones automatizadas. La justicia algorítmica puede ser beneficiosa si se usa con cautela y se reconoce la necesidad de intervención humana, pero requiere de estándares técnicos y éticos, así como de la implementación de políticas de educación y capacitación para comprender su impacto.

2.2. Nuevas herramientas de tecnología jurídica

Auguran los avances en IA la automatización de ciertas tareas legales, lo que podría transformar el trabajo de los profesionales del Derecho, desde abogados hasta funcionarios judiciales. Si inicialmente hubo reticencia en la profesión legal, las nuevas aplicaciones tecnológicas, capaces de aumentar la productividad, reducir constes y facilitar la vida de los usuarios, están en franca etapa de expansión, transformando una determinada percepción del mundo y modificando la manera en que se realizan muchas actividades profesionales.

El emprendimiento ha evolucionado significativamente con el concepto de startup, influenciado por la informatización del Derecho y el avance de herramientas informáticas. La integración de tecnologías basadas en IA y el surgimiento de las legaltechs han digitalizado el trabajo jurídico, mejorando la eficiencia y la calidad del asesoramiento legal, y facilitando el acceso a la ley. Estos cambios están mejorando los procesos jurídicos y el mercado legal en su conjunto, haciendo el acceso a la justicia más fácil, rápido y económico. Sin embargo, esta evolución también está modificando las descripciones y requisitos de los empleos jurídicos. A pesar de los avances actuales, los procedimientos judiciales siguen desarrollándose principalmente en papel, a diferencia del arbitraje (Marrow et al. 2020, 35-76). La nueva normativa cambiará esta situación, mejorando significativamente la eficiencia de la cooperación judicial, el acceso a la justicia para ciudadanos y empresas, y la calidad y transparencia de la justicia.

A efectos de clarificación y como categorización intelectual resulta obligada una distinción previa entre tecnología jurídica para abogados y tecnología jurídica para usuarios finales no jurídicos. Centrándonos en la primera, resultan indiscutibles sus avances en métodos de trabajo aplicables a la vida profesional cotidiana que antes no eran posibles y generan un valor añadido por el momento imprevisibles, contemplando asimismo ideas innovadoras que satisfacen directamente las necesidades jurídicas de quienes buscan justicia utilizando la tecnología, en algunos casos evitando los órganos tradicionales de la administración de justicia (Fernández Pérez 2024).

De hecho, cada vez son más las administraciones públicas y empresas del sector privado que utilizan la IA, ya que sus aplicaciones aportan mejoras de eficiencia y ahorro de costes. Un reto jurídico particular para el sector público es la transparencia y la legalidad, toda vez que las actuaciones de la administración pública están reguladas por ley. La ley garantiza la previsibilidad y la seguridad jurídica y protege a la ciudadanía de la arbitrariedad y. en un país donde los derechos de las personas son extremadamente importantes, el principio de legalidad también garantiza la legitimidad democrática. Por tanto, el uso de la IA en la administración pública debe ser transparente y, si entraña riesgos, basarse en un fundamento jurídico adecuado. Es legítimo que las administraciones públicas se esfuercen por ser más eficientes con la ayuda de la IA. No obstante, los diversos colectivos sociales deben extremar la vigilancia y no olvidar ciertos ejemplos de utilización de la IA que han conducido a resultados desastrosos: por eso es importante analizar el impacto de tales herramientas de IA antes y después de su puesta en funcionamiento.

3. Aplicaciones

3.1. Diversidad de funciones

El avance de la IA está impregnando diversas esferas de la sociedad, y el ámbito legal no es una excepción. Los sistemas de IA se están convirtiendo en herramientas cada vez más sofisticadas para asistir a los profesionales del Derecho en múltiples tareas. Desde la investigación jurídica hasta la redacción de documentos legales y la evaluación de casos, estas tecnologías prometen mejorar la eficiencia y calidad de la justicia si se utilizan con prudencia y cuidado. Entre otras funciones estas herramientas pueden:

a)Agilizar y mejorar significativamente el proceso de investigación legal. Los algoritmos de búsqueda avanzada consiguen analizar grandes volúmenes de documentos legales y jurisprudencia para encontrar precedentes relevantes y argumentos jurídicos pertinentes. Esto ahorra tiempo a los operadores jurídicos y les permite acceder a información clave de manera más rápida y eficiente.

b)Auxiliar en la redacción y revisión de documentos legales. Utilizando técnicas de procesamiento del lenguaje natural, ayudan a redactar contratos, escrituras y otros documentos legales de manera más precisa y coherente; y también pueden realizar análisis gramaticales y de coherencia para identificar posibles errores o inconsistencias en los documentos.

c)Contribuir a la evaluación de casos y la predicción de resultados judiciales. Al analizar datos históricos de casos similares, los algoritmos están en disposición de identificar patrones y tendencias que pueden ayudar a predecir el resultado de un litigio con un cierto grado de precisión. Esto puede ser especialmente útil para evaluar la viabilidad de un caso y tomar decisiones estratégicas durante el proceso legal (Chatterjee, Singhania y Sharma 2023).

La asistencia a ciudadanos a través de chatbots considerando plataformas como “eJusticia” es útil para agilizar procesos judiciales mediante el análisis de expedientes, previamente practicada la anonimización y seudonimización de las decisiones, pero debe considerarse como un “complemento” para los jueces, no como un “sustituto” de sus decisiones. No en vano, su utilización en la evaluación de pruebas plantea desafíos respecto a su fiabilidad y autonomía, requiriendo una reflexión profunda sobre su aplicación (Nieva 2018, 70–100). Uno de ellos es la falta de capacidad explicativa en los sistemas resultantes, susceptible de minar la confianza en sus resultados, especialmente en aplicaciones críticas, a lo que debe añadirse la posibilidad de generar resultados incorrectos cuando los datos relevantes no están incluidos en el conjunto de entrenamiento, conocido en estadística como el long tail problem.

Otros desafíos de transparencia y fiabilidad requieren un análisis crítico. Estas tecnologías transforman funciones judiciales y servicios legales, apoyando a profesionales mediante la automatización de procesos y asistencia en decisiones, y en la redacción y revisión de contratos, investigación legal y gestión de despachos. La expansión de la IA y la robótica necesita un marco jurídico adecuado, al margen de documentos preliminares, especialmente en el ámbito del Derecho privado, como la responsabilidad civil en vehículos autónomos y robots, y la automatización de la contratación. Esto implica un nuevo enfoque en elementos del Derecho contractual como la autonomía de la voluntad, el error, el engaño, la interpretación de contratos y la buena fe, adaptando los principios legales tradicionales a la IA y la robótica.

3.2. Empleo por la judicatura

La innovación tecnológica en el ámbito judicial a menudo se asocia con la idea de grandes inventos, como robots e IA, individualizados con el término de “agentes”, que toman decisiones con capacidades sobrehumanas y tiempos de justicia rápidos. Sin embargo, la introducción de tecnologías ya existentes en nuevos contextos y procesos puede acarrear consecuencias significativas que alteran la actividad judicial y su percepción por parte de profesionales y público en general al ofrecer la promesa de transformar la gestión de casos legales al permitir el análisis y procesamiento eficiente de grandes cantidades de datos (Re y Solow–Niedermann 2019, 252). Como resultado, la relación entre IA y el papel del juez genera un doble movimiento: por un lado, cuestiona la capacidad de la IA para resolver litigios jurídicos; y, por otro lado, suscita la interrogante sobre cómo debe entenderse el acto de juzgar cuando está influenciado por la IA.

Debido a la IA, el sistema judicial, al igual que muchas otras áreas, está experimentando cambios y, aunque la sustitución completa de los jueces por IA sigue siendo técnicamente imposible, ya se utiliza en los tribunales para apoyar o asumir determinadas actividades. Los juristas argumentan que un “juez robot” no puede ocuparse de derechos fundamentales, y que el derecho a un juicio justo debe incluir necesariamente a jueces humanos. La IA ahora permite reforzar tareas puramente intelectuales mediante máquinas y programas orientados a la búsqueda de datos legales, predicción de decisiones y análisis estadístico de decisiones pasadas utilizándose por la judicatura como apoyo, sin influir en el contenido de sus decisiones, pues no puede reemplazar el análisis exhaustivo y la interpretación de la ley que realizan los jueces. Sin duda ofrece ventajas de independencia y objetividad, pero sigue presentando riesgos de errores y consecuencias adversas inherentes a la ausencia de comprensión humana, por eso deben ser bien recibidos los proyectos para integrar la IA en el trabajo de los jueces, reconociéndose que las reformas regulatorias pueden facilitar el acceso equitativo a la IA jurídica, fomentando la colaboración entre servicios legales e industrias tecnológicas.

3.3. Transformación de la abogacía

El avance tecnológico está transformando la abogacía con la aparición de nuevas aplicaciones que aprovechan el crecimiento de datos disponibles y las capacidades de procesamiento de datos. Estas aplicaciones están ampliando los recursos disponibles para los profesionales legales y facilitando la investigación. Siendo la fiabilidad de los programas de justicia predictiva aún cuestionable, es probable que mejoren con el tiempo y sean adoptados por los abogados en su práctica diaria. Sin embargo, el impacto de estos cambios en la forma de prestar servicios legales y el derecho al asesoramiento aún es incierto, ya que también generan nuevas expectativas y hábitos entre el público. La integración de la IA tiene el potencial de ser un complemento transformador y positivo tanto para los abogados como para los clientes ofreciendo un inmenso potencial para revolucionar una amplia gama de actividades jurídicas.

Estos modelos de IA, entrenados a partir de vastos conjuntos de datos, pueden llevar a cabo investigaciones jurídicas y generar contenidos coherentes y contextualmente relevantes, desde sinopsis de casos hasta cláusulas contractuales, con notable precisión y eficiencia. La tecnología está transformando la práctica legal y los sistemas judiciales al automatizar tareas como la toma de decisiones y el análisis legal, mejorando la eficiencia y rapidez en la tramitación de casos, ampliando el acceso a la justicia. Con independencia de que regular esta evolución es difícil, ofrece oportunidades para reducir costos y mejorar la eficacia. Las tecnologías actuales van desde portales web automatizados hasta algoritmos para interpretar textos legales, liberando tiempo para actividades más estratégicas. Sin embargo, la introducción de la IA plantea desafíos éticos en términos de transparencia y responsabilidad, resaltando la necesidad de garantizar la precisión y equidad de estas herramientas con la participación de los profesionales del Derecho.

Los bufetes y otras entidades privadas han estado hasta ahora a la vanguardia de la experimentación de la industria legal con la IA generativa con el consiguiente aumento de la productividad, potenciando a la vez su creatividad y eficiencia y generando a la vez nuevas ideas y perspectivas actuando como un asistente que sugiere soluciones y libera a los abogados de tareas repetitivas. Es cierto que la eficiencia puede mejorarse con IA, pero la creatividad es una cualidad humana que difícilmente puede ser reemplazada, enfrentando a las firmas de abogados al dilema de cómo adoptar la IA pues, si bien esta tecnología aumenta la eficiencia, en este modelo de estructura organizativa no se acostumbra a valorar la eficiencia sino el esfuerzo y la cantidad de trabajo realizado por los abogados, a lo que cabe añadir que la creatividad de los abogados no es incentivada tanto como el trabajo rutinario y detallado. Así, mientras que la IA puede transformar la práctica legal aumentando la productividad y creatividad individual, podría alterar los fundamentos económicos de los bufetes que dependen del trabajo intensivo en horas. Sea como fuere, la IA obligará a los bufetes a replantear su modelo de gestión, alejándose de la facturación por hora hacia un enfoque centrado en la productividad y creatividad de sus abogados lo que exigirá nuevas estructuras organizativas y modelos de valor que se adapten mejor a un entorno post–IA. La implantación de la IA augura, pues, una transformación profunda del sector legal, centrada en la eficiencia y creatividad, que podría beneficiar tanto a los abogados como a los clientes.

En el contexto actual de creciente digitalización, los abogados deben adquirir un sólido conocimiento sobre medidas de protección de datos para salvaguardar la información confidencial de sus clientes y proteger sus sistemas contra amenazas cibernéticas. Esto incluye la instalación de cortafuegos vigorosos y el uso de tecnologías para fortalecer contraseñas.

4. Inteligencia artificial y acceso a la justicia

4.1. Contradicciones en un Estado de Derecho

El acceso a la justicia es un principio fundamental del Derecho procesal civil para garantizar la igualdad y la protección de los derechos humanos. Este acceso equilibra el campo de juego, asegurando que todos puedan enfrentar situaciones de vulnerabilidad y desigualdad, convirtiéndose en un pilar ético y moral de un Estado de Derecho democrático. Sin embargo, enfrenta obstáculos como la falta de información, los costos legales y la lentitud de los procesos judiciales. La IA podría ayudar a superar estas barreras, mejorando así el acceso a la justicia y la tutela judicial efectiva.

La efectiva realización del acceso a la justicia requiere un enfoque proporcional que considere cuidadosamente las posibilidades y desafíos específicos de cada caso. La IA ha sido anunciada por su potencial para ayudar a cerrar la brecha en el acceso a la justicia y puede aumentar la eficiencia, democratizar el acceso a la información jurídica y ayudar a los consumidores a resolver sus propios problemas legales o ponerlos en contacto con profesionales autorizados que puedan hacerlo. Pero se corre el riesgo que una mayor dependencia de la IA conduzca a uno o más sistemas de dos niveles: los menos favorecidos podrían quedar atrapados con una asistencia inferior basada en la IA y únicamente las grandes y costosas firmas de abogados podrían ser capaces de aprovechar eficazmente los beneficios que suministra la IA; o el impacto de la IA podría no alterar el statu quo en el que sólo algunos pueden permitirse cualquier tipo de asistencia jurídica.

Los estudios jurídicos y las nuevas tecnologías muestran una contradicción evidente: mientras la tecnología avanza rápidamente hacia la internacionalización y globalización, el Derecho reacciona lentamente y permanece confinado a las fronteras nacionales. Incluso se llega a considerar a la IA como una amenaza al Estado de Derecho al introducirse en la toma de decisiones y, en algunos casos, reemplazar a los responsables humanos, como en la asistencia a jueces. La opacidad de la IA, debido a su complejidad, genera preocupaciones sobre su protección legal, transparencia, reputación, imparcialidad en la justicia y la credibilidad de los principios del Estado de Derecho.

El Estado de Derecho exige que las leyes sean accesibles y previsibles para los ciudadanos, promoviendo la publicación y la inteligibilidad de las normativas, socavando la complejidad de la IA estos atributos, haciendo que sus aportaciones sean menos comprensibles y transparentes. La IA realiza cálculos matemáticos complejos que superan la comprensión humana, lo que dificulta explicar sus procesos y resultados de manera clara con los consiguientes desafíos para la transparencia y comprensión al producirse una contraposición entre el “lenguaje natural” y el lenguaje matemático y estadístico, a menudo oculto en una “caja negra” (Greenstein 2022, 291–323). Al basarse el Estado de Derecho en un lenguaje natural, muchos procesos jurídicos pueden automatizarse con éxito. Sin embargo, a medida que la gobernanza se digitaliza, la comprensión ciudadana puede disminuir, especialmente con sistemas opacos incluso para sus creadores.

La complejidad de los algoritmos aumenta el potencial de error, subrayando la importancia del derecho a reclamar decisiones críticas tomadas por máquinas autónomas. Cuando la IA toma decisiones sin transparencia, desafía el Estado de Derecho. Si la automatización puede mejorar la eficiencia de los servicios públicos, por el contra, la opacidad tecnológica es susceptible de socavar la confianza en su uso, planteando si el futuro será un Estado de Derecho algorítmico o basado en principios humanos. La tecnología no es directamente responsable de la erosión del Estado de Derecho, pero puede perturbar el equilibrio entre los intereses en conflicto que se logra a través del derecho tradicional. En la UE el RGPD es un ejemplo de cómo el Derecho tradicional busca equilibrar los derechos de propiedad intelectual y los derechos de privacidad en el contexto de la IA.

Siendo consustancial al Estado de Derecho la capacidad de impugnar decisiones, la opacidad de la IA y las barreras legales de la propiedad intelectual debilitan este derecho, haciendo necesario integrar la impugnabilidad en el diseño de sistemas IA. La falta de transparencia dificulta identificar e impugnar decisiones automatizadas fuera del ámbito judicial, dejando a las personas sin conocimiento de decisiones que les afectan, siendo menester establecer un mecanismo de notificación que informe a las personas cuando han sido objeto de una decisión tomada por IA, implementando un “derecho a saber” que permita a los individuos conocer y comprender dichas decisiones.

El debido proceso, fundamental en cualquier procedimiento judicial, garantiza la protección contra abusos de poder y arbitrariedades, proporcionando a los ciudadanos instrumentos para defenderse, y se configura como un derecho humano fundamental que busca asegurar la igualdad de derechos para todos los individuos (Añón 2018, 31). El derecho de acceso a un tribunal de justicia, también conocido como derecho a la tutela judicial efectiva, está consagrado en el en el art. 8 Declaración Universal de Derechos Humanos y en el art. 471 de la Carta de los Derechos Fundamentales de la Unión Europea, así como en el art. 6 del Convenio Europeo de Derechos Humanos (CEDH) (Leslie et al, 2021, 3). y en el art. 24.1 de la Constitución Española, e implica no solo la existencia de recursos legales, sino también su efectividad y eficacia. Bien entendido que el ejercicio de este derecho, al estar sujeto a limitaciones implícitas, debe para garantizar que las personas cuyos derechos y libertades han sido vulnerados tengan la posibilidad de recurrir a la justicia (Gómez Colomer 2022, 275–276).

En este contexto, es importante que la utilización de la IA para resolver controversias en línea, a través de los procedimientos de Resolución de Disputas en Línea (ODR), no menoscabe el derecho de acceso a un tribunal (Scherer 2019, 539–573). En 2015, la Asamblea Parlamentaria del Consejo de Europa destacó la importancia de garantizar que las partes involucradas en estos procedimientos de ODR conserven el derecho a recurrir a un proceso de apelación judicial que cumpla con los requisitos de un tribunal justo, de acuerdo con el art. 6 CEDH. En todo el mundo, el acceso a la justicia sigue siendo un desafío importante desde hace décadas.

4.2. Componente ético

El creciente uso y relevancia de la IA en todos los ámbitos de la vida y de los negocios ha desencadenado en los últimos años un amplio debate público sobre sus consecuencias. Aspectos éticos como la falta de transparencia en las decisiones respaldadas por IA, la discriminación por algoritmos y la preocupación por la protección de datos están en el centro de este debate (Esparza 2022, 181). A pesar de los numerosos ejemplos individuales, en la actualidad sólo existen unos pocos estudios que examinen de forma holística el impacto real de la IA sobre los derechos fundamentales. Independientemente de las diferencias entre sectores, la IA ofrece en general oportunidades para las empresas, la economía en su conjunto y el sector público. Dadas las oportunidades económicas, resulta obligado analizar su impacto en los derechos fundamentales. En particular, cuando la IA sustituye (en lugar de simplemente apoyar) la toma de decisiones humana, pueden surgir problemas éticos y de derechos fundamentales.

Es susceptible la IA de impactar en diversos derechos fundamentales contemplados en la Carta de los Derechos Fundamentales de la Unión Europea (CDFUE): a) En el ámbito de la dignidad, puede tener efectos tanto positivos como negativos, especialmente en la asistencia sanitaria; b) en cuanto a la libertad, su empleo puede afectar especialmente al derecho a la vida privada y a la protección de los datos personales, dado el uso de grandes cantidades de datos; c) también puede influir en otros derechos fundamentales, como la igualdad y la solidaridad; por ejemplo, los algoritmos pueden generar sesgos que afecten al derecho a la no discriminación, como se ha visto en casos de decisiones judiciales sesgadas por algoritmos; d) en orden a la solidaridad, se debate si la IA podría aumentar el desempleo, al margen de la existencia de aplicaciones positivas, como en la protección del medio ambiente; e) en relación con los derechos de la ciudadanía, la IA podría mejorar la eficiencia de la administración pública, pero también plantea riesgos para la integridad de las elecciones al facilitar la difusión de información falsa para influir en los votantes; f) por último, la Carta establece que toda persona tiene derecho a la tutela judicial efectiva, a un juez imparcial y a la defensa; de esta suerte, la IA utilizada en el sistema judicial conduce a la problemática relativa al derecho a un juicio justo (v.gr., si tales sistemas contienen sesgos).

Por su parte, el Consejo de Europa, en el seno de la Comisión para la eficiencia de la Justicia (CEPEJ), aprobó en 2018 la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno donde se recogen cinco principios éticos que deben informar el uso de IA por parte de un juzgado o tribunal, pero también cualquier operador jurídico que trabaje en su entorno.

La llegada de la IA ha abierto numerosas posibilidades para mejorar la eficiencia y calidad en la administración de justicia. Si se utiliza de manera responsable y ética, puede incrementar la eficiencia, accesibilidad y calidad de la justicia. La intersección entre ética y Derecho de la IA busca buscan establecer normas y valores que rijan la conducta humana y los sistemas sociotécnicos habilitados por la IA. Los derechos humanos y los valores sociales son elementos centrales en ambos campos, proporcionando un marco normativo para políticas y regulaciones que promuevan el uso ético y responsable de la IA (Sartor 2020, 708–719). Esta convergencia fomenta un enfoque holístico que aborda consideraciones éticas y legales, contribuyendo al desarrollo equilibrado y sostenible de la IA en la sociedad. En el contexto actual, la IA es una herramienta valiosa para mejorar el acceso a la justicia y fortalecer los derechos de defensa, siempre que se maneje con precaución y se promueva la transparencia y alfabetización digital en su uso. La IA puede proporcionar a las partes en un juicio acceso a información relevante para comprender mejor las decisiones judiciales y presentar argumentos fundamentados. No obstante, el aseguramiento de estos beneficios requiere la alfabetización digital entre los participantes del sistema judicial y el establecimiento de mecanismos de transparencia que permitan entender y cuestionar el funcionamiento de los algoritmos y las decisiones generadas.

5. Proyección: utilidades y contraindicaciones

5.1. Utilidades

El acceso a la justicia y la digitalización del sistema judicial constituyen, en definitiva, dos caras de la misma moneda y en la medida en la cual el sistema judicial puede digitalizarse de forma integral y fundamental, la aceptación y la eficiencia del sistema jurídico aumentará, indudablemente, de forma masiva. Cabe cuestionarse, sin embargo, la afectación que la IA podría ejercer en el derecho a un juicio justo; esto es, si una gran firma, al disponer de mayores medios que un pequeño despacho, podría unir datos públicos y privados con mayor facilidad y fidelidad, obteniendo así un perfilado muy concreto del juez que deba resolver un asunto y generando un desequilibrio en el caso. También se cuestiona si el derecho a un recurso efectivo puede verse comprometido por las aplicaciones de la IA. En principio, todos los derechos humanos mencionados exigen transparencia, trazabilidad (capacidad de rastrear y seguir el recorrido de un producto desde su origen hasta su destino final) y “explicabilidad” de las aplicaciones de la IA, ya que es la única manera de garantizar el enjuiciamiento efectivo de una violación de tal derecho humano puede garantizarse. Esto se debe a que parte del derecho a un recurso judicial efectivo es la garantía de una decisión motivada e individualizada.

Las obligaciones de transparencia pueden incluir, entre otras cosas obligaciones de notificación u obligaciones de divulgación. La Sentencia del TEDH de 4 de diciembre de 2015, en el asunto Zakharov c. Rusia consideró que, en el caso de algoritmos automatizados utilizados para la prevención de delitos, como la vigilancia secreta del tráfico móvil, era necesaria la notificación para garantizar la eficacia de los recursos legales. Por último, también debe ser posible una indemnización adecuada, pero no basada puramente en términos de pérdidas económicas, sino que deba tener en cuenta adecuadamente el daño por la violación de un concreto derecho humano.

La IA asiste a particulares, litigantes y jueces en la organización y enriquecimiento de la información legal, proporcionando consejos y sugerencias útiles. Por ello los jueces deben comprender el funcionamiento de la IA y sus avances para utilizarla de manera efectiva. Es ineludible, pues, que los tribunales digitalicen su información y la doten de interpretación jurídica para que la IA pueda aprovecharla al máximo. Con ello pueden alcanzarse resultados como los siguientes:

a)Eficiencia. La IA optimiza la eficiencia y velocidad en los procedimientos judiciales, reduciendo la carga de trabajo de los profesionales legales, permitiendo resoluciones más rápidas y minimizando errores humanos con análisis objetivos y recomendaciones basadas en datos. Esto mejora la precisión y equidad en la toma de decisiones. Automatiza tareas rutinarias, acelera los procedimientos, disminuye la carga de trabajo de jueces y abogados, y mejora la evaluación de la evidencia al analizar grandes volúmenes de pruebas. Sin embargo, es crucial no prescindir de la interpretación humana en las decisiones judiciales para evitar desafíos éticos y prácticos.

b)Duración razonable. En el ámbito judicial, un volumen significativo de trabajo depende de investigaciones y redacciones individuales, lo que genera desafíos internos en capacidad y calidad, y una crisis externa por retrasos inaceptables. El art. 6.1. CEDH enfatiza la necesidad de procedimientos judiciales de duración razonable, obligando a los Estados a organizar eficazmente el sistema para evitar demoras. La IA puede simplificar y acelerar el proceso judicial, especialmente en contextos de escasez de personal. Estudios empíricos demuestran que la IA puede analizar contratos más rápido y con mayor precisión que los abogados, sugiriendo su potencial para mejorar la eficiencia del sistema judicial. Integrar adecuadamente la IA podría ayudar a abordar estos desafíos y asegurar una justicia más ágil y efectiva.

c)Costes. En el ámbito legal, un desafío principal para acceder a la justicia es el costo del asesoramiento y representación legal. Los programas de asistencia jurídica pueden mejorar estas estrategias, toda vez que evaluación de circunstancias personales y financieras para la asistencia legal y costos judiciales suele requerir decisiones claras. Los sistemas algorítmicos, técnicamente viables, podrían ser una solución eficiente para estas evaluaciones.

Herramientas como las que se han indicado, podrían agilizar el proceso de evaluación, garantizando una asignación más justa y eficiente de los recursos disponibles para la asistencia jurídica, manifestándose en una serie de situaciones, entre las que pueden apuntarse, a título meramente ejemplificativo, las siguientes:

a)Conflictos de baja intensidad. La tecnología está demostrando ser una herramienta eficaz para la resolución rápida y económica de conflictos de baja intensidad en el ámbito legal. Plataformas de resolución en línea, respaldadas por IA, están facilitando la solución de litigios sin necesidad de procesos judiciales costosos y prolongados, respondiendo a una demanda creciente de mecanismos simplificados. Esta tendencia no solo está cambiando la forma en que se abordan los conflictos legales, sino también transformando el propio sistema legal. Sin embargo, aún queda mucho por explorar en cuanto a los posibles usos de la IA en el ámbito jurídico, especialmente debido a la incertidumbre sobre las herramientas inteligentes disponibles y su aplicación real. La IA podría facilitar la resolución de conflictos de baja intensidad que no plantean cuestiones éticas y jurídicas complejas, lo cual es beneficioso ya que estos conflictos no requieren intervención judicial debido a su naturaleza básica y predecible. Esto podría mejorar la confianza en la institución judicial y fortalecer los principios del Estado de Derecho en democracias que enfrentan crisis de definición.

b)Personas con discapacidad. Los sistemas de IA mejoran la asistencia legal mediante herramientas de traducción automática, comprensión de documentos y recursos adaptados, lo que promueve una justicia más inclusiva para personas con discapacidad. Con financiación pública y sin fines de lucro, se podrían desarrollar aplicaciones tecnológicas legales para atender necesidades especiales, como plataformas accesibles y asesoramiento jurídico de bajo umbral. Estas aplicaciones también pueden impulsar mejoras sostenibles en el sistema legal. El papel del facilitador ha de garantizar la participación de las personas con discapacidad, proporcionando apoyo e información accesible, asegurando igualdad de oportunidades. La integración de la IA complementa el trabajo del facilitador en la justicia inclusiva.

c)Acceso igualitario a la justicia por parte de las mujeres. El acceso a la justicia, como derecho fundamental, debe garantizarse plenamente, especialmente para las mujeres, considerando las barreras y prejuicios de género arraigados en las instituciones jurídicas. La integración de una perspectiva de género en el desarrollo y uso de sistemas de IA en el ámbito judicial es esencial para corregir desigualdades y mejorar el acceso igualitario a la justicia y la IA puede ser una herramienta para revelar y abordar realidades injustas, permitiendo la denuncia de dinámicas que vulneran los derechos de las mujeres, lo que se consigue incorporando la perspectiva de género en la implementación de esta tecnología para eliminar obstáculos y avanzar hacia la igualdad de género en el acceso a la justicia.

d)Personas con bajos ingresos, como las que son objeto de discriminación de género, como trabajadoras precarias, informales, desempleadas o madres solteras, la comprensión del marco legal que regula sus vidas cotidianas (Carrizo 2019, 287–310). Esto determina en gran medida su ejercicio de la ciudadanía y las consecuencias de sus decisiones. Su conocimiento del ordenamiento jurídico puede influir en aspectos como su estatus legal, acceso a beneficios ciudadanos, protección como consumidoras, derechos como inquilinas o madres, y su tratamiento justo en situaciones legales como separaciones, divorcios o la custodia de sus hijos (Ortiz de Zárate y Guevara 2021).

5.2. Presencia de sesgos

También puede ser considerado el uso de sistemas de IA y algorítmicos en la revisión de las circunstancias personales y económicas en su determinación para recibir asistencia legal. En el contexto de la justicia digital, los algoritmos pueden parecer neutrales, pero en realidad son susceptibles, en unos casos, de reflejar los sesgos de sus diseñadores, perpetuando la discriminación contenida en los materiales introducidos en el sistema y, en otros casos, de ser lo suficientemente opacos dificultando la averiguación o la corrección de los sesgos, lo que plantea serias preocupaciones sobre la imparcialidad del proceso judicial. Y ello sin olvidar que la falta de transparencia y motivación en las decisiones del sistema judicial digital también socava la confianza en su imparcialidad, ya que los litigantes no pueden verificar cómo se llegó a una determinada conclusión (Nieva 2018, 144–146).

Indudablemente las decisiones humanas también pueden estar sesgadas, los algoritmos tienen el potencial de amplificar y perpetuar estas desigualdades de manera sistemática, lo que añade un desafío para mantener la imparcialidad en las decisiones judiciales. Pese una apariencia de imparcialidad los algoritmos pueden generar decisiones discriminatorias, incluso si fueron diseñados con buenas intenciones, contraviniendo la prohibición de discriminación en los derechos fundamentales. Por eso, los desarrolladores deben corregir estos sesgos, lo que implica manejar definiciones filosóficas sobre la igualdad y tomar decisiones sobre qué elementos favorecer o neutralizar. Minimizar los sesgos en la IA requiere abordar los sesgos presentes en los datos de origen y los sistémicos acumulados durante décadas. No se trata de evitar la tecnología, sino de buscar soluciones que equilibren las decisiones basadas en máquinas y las humanas, proponiendo soluciones concretas a los problemas identificados.

6. Riesgos y salvaguardias

6.1. Implementación controles y supervisión adecuados

La IA ofrece una oportunidad valiosa para mejorar la eficiencia y precisión del proceso judicial, pero su implementación requiere precauciones para evitar violaciones de derechos fundamentales. A medida que la IA se integra cada vez más en la vida cotidiana, la comunidad jurídica muestra un interés creciente al considerar que la tecnología robótica puede beneficiar el bienestar humano, pero no deben olvidarse los riesgos y desafíos asociados con su uso no regulado. Por eso, es necesario la toma en consideración de la normativa internacional y nacional para garantizar un uso responsable de la IA que proteja los derechos humanos y promueva el bienestar general. Al regular la IA, es necesario considerar su naturaleza legal y la posibilidad de otorgarle personalidad jurídica, especialmente en términos de su impacto en los individuos y los derechos humanos.

El uso de tecnologías de IA en los procedimientos jurisdiccionales ofrece oportunidades para mejorar la aplicación del derecho a la tutela judicial, pero también presenta riesgos de violación del derecho a un juicio justo. Esto incluye: a) establecer salvaguardias para un uso justo, transparente y ético de la IA, junto con políticas que aseguren la rendición de cuentas y supervisión; b) identificar y mitigar sesgos algorítmicos, protegiendo la privacidad y derechos fundamentales; y c) equilibrar la eficiencia y justicia con la protección de los derechos humanos y el Estado de Derecho. Esto es, un enfoque colaborativo que involucre a legisladores, autoridades judiciales, expertos en tecnología y defensores de derechos humanos.

La autonomía de los sistemas de IA aumenta el riesgo de usos indebidos y accidentes por instrucciones mal especificadas. Para aprovechar su potencial, es crucial que la tecnología sea accesible y diseñada según las necesidades de los usuarios, asegurando una distribución equitativa de sus beneficios evitando la manipulación por parte del agente, su desarrollador, el usuario o entidades sociales, con el establecimiento de salvaguardas que garanticen transparencia, imparcialidad y equidad en el uso de la IA en el sistema judicial, la implementación de controles adecuados y la capacitación del personal judicial en su uso.

El avance de la IA ha llevado a su integración en procesos administrativos y judiciales, complementando o sustituyendo a responsables humanos en áreas como la policía predictiva y la evaluación automatizada del riesgo penal y, si bien puede mitigar sesgos humanos y mejorar la eficiencia, también presenta riesgos significativos al reducir el componente humano en decisiones gubernamentales. Por ello, es necesario desarrollar marcos normativos sólidos que garanticen transparencia, equidad y rendición de cuentas en el uso de la IA por parte de los gobiernos (Schäferling 2023).

El uso de la IA presenta tanto oportunidades como riesgos, especialmente debido a la falta de regulación específica. En áreas como el reconocimiento facial y la contratación de personal, la IA puede introducir sesgos que fomentan actitudes discriminatorias, afectando a trabajadores y exponiendo a empleadores a sanciones legales. La ausencia de un marco jurídico específico para la IA sugiere que la regulación actual no aborda adecuadamente estas discriminaciones en el proceso de contratación. Legisladores e industria deben establecer condiciones adecuadas para maximizar ventajas y minimizar riesgos. En los últimos años, han surgido diversas iniciativas no legislativas a nivel nacional e internacional y muchos agentes privados han adoptado medidas de autorregulación.

6.2. Un ejemplo de la práctica: el asunto State v. Loomis

El programa COMPAS es una herramienta de justicia predictiva utilizada en varios Estados de EE.UU., que ha sido objeto de debate debido a preocupaciones sobre su equidad y discriminación. Utilizando algoritmos de aprendizaje automático, evalúa el riesgo de reincidencia de los acusados para ayudar a los jueces a determinar las penas. A través de un cuestionario de 137 preguntas, el programa asigna una puntuación de peligrosidad en una escala del 1 al 10, clasificando el riesgo como bajo (verde), medio (naranja) o alto (rojo). Aunque no incluye preguntas sobre origen étnico, se ha demostrado que perpetúa prejuicios raciales indirectos basados en otros criterios, conocidos como proxies (Forrest 2021).

En el caso State v. Loomis, resuelto en 2016 por el Tribunal Supremo de Wisconsin, Eric Loomis fue condenado a prisión basándose en una evaluación de riesgo realizada por el programa COMPAS. Loomis impugnó su condena, argumentando que el uso del COMPAS violaba sus derechos procesales porque el código fuente del software no fue revelado, impidiéndole cuestionar la validez científica de los resultados. Además, alegó que el programa utilizaba su sexo como factor en la evaluación, violando su derecho a una condena individualizada y a la igualdad de protección según la XIV Enmienda. El Tribunal Supremo de Wisconsin, al abordar por primera vez la constitucionalidad del uso de algoritmos en la imposición de penas, aceptó el uso del COMPAS, argumentando que el derecho de los acusados a las garantías procesales no se veía vulnerado por no poder acceder a una explicación del algoritmo. El Tribunal consideró que el derecho del acusado a una condena individualizada había sido violado, pero rechazó la demanda entendiendo que la precisión de las herramientas y la capacidad de los jueces para comprender su posible mal funcionamiento eran suficientes para garantizar los derechos de los acusados. Así las cosas, Loomis apeló ante el Tribunal Supremo de EE.UU., pero este decidió el 18 de septiembre de 2017 no considerar el caso, lo que confirmó la decisión del Tribunal Supremo de Wisconsin. Las razones esgrimidas por el Tribunal Supremo de Wisconsin merecen un análisis detallado por mostrar cierto respaldo hacia programas como COMPAS, afirmando que estos son solo uno de los muchos factores a considerar en la imposición de la pena. Destacó que la puntuación de riesgo del COMPAS no puede ser decisiva por sí sola, ya que eso sería contrario a la ley. En resumen, el Tribunal sostuvo que, al no poder basarse exclusivamente en los resultados del COMPAS, no se infringía el debido proceso. En este caso el Tribunal Supremo, enumeró cinco razones que justificaban la cautela: en primer lugar, el programa informático COMPAS era de propiedad privada y carecía de transparencia en su funcionamiento; en segundo lugar, este sistema evaluaba el riesgo de reincidencia para grupos, no para individuos; en tercer lugar, se basaba en datos a nivel nacional en lugar de datos locales de Wisconsin; en cuarto lugar, existían inquietudes sobre el potencial sesgo de los algoritmos de imposición de penas hacia minorías étnicas; y, en quinto lugar, el COMPAS fue diseñado para asistir al Departamento de Instituciones Penitenciarias, no necesariamente para su aplicación en el ámbito de los tribunales penales.

La decisión de utilizar software de IA en el proceso judicial ha generado escepticismo en la doctrina. Se critica que esta decisión no considera la presión sobre los jueces para usar estas herramientas ni los sesgos cognitivos que pueden surgir. Por ejemplo, los jueces tienden a confiar en datos empíricos como estadísticas pese a que no sean completamente fiables. En el caso antes referido, Tribunal Supremo de Wisconsin fue criticado por no discernir adecuadamente al considerar que un acusado podía verificar la exactitud de un informe de evaluación de riesgos realizado por el software COMPAS. Es cierto que los datos eran públicos, pero el acusado no pudo verificar las variables influyentes en el resultado, ya que la empresa desarrolladora protegía sus secretos comerciales y no revelaba el funcionamiento del sistema. Por eso, el asunto State v. Loomis es un claro exponente de cómo los mecanismos de justicia algorítmica operan bajo un velo de opacidad, lo que impide que los litigantes cuestionen los resultados que producen. Es vital, por ello, supervisar estas herramientas, bajo el principio de neutralidad tecnológica, pues la IA de ayuda a la toma de decisiones corre el riesgo de generar discriminación o incluso crear nuevas formas de discriminación.

Esta falta de transparencia en el uso de software de IA en procesos judiciales plantea serias preocupaciones, ya que el acusado no puede defenderse adecuadamente si desconoce cómo se ponderaron las variables en su contra, ignorándose el sesgo de anclaje, que influye en la toma de decisiones judiciales. La falta de comprensión de los jueces sobre el funcionamiento del software aumenta el riesgo de seguir ciegamente sus resultados. Para abordar esto, es necesario mejorar la formación de los profesionales del derecho en tecnologías emergentes y aumentar la cooperación con investigadores y desarrolladores de IA. Estos desafíos subrayan la necesidad de mayor transparencia y conciencia sobre los posibles sesgos en el uso de IA en decisiones judiciales.

7. Hacia una justicia algorítmica

7.1. Metamorfosis del ámbito jurídico

La irrupción de las nuevas tecnologías está marcando un cambio significativo en el ámbito jurídico. Por parte del Poder Judicial la creciente influencia de la IA en el sistema judicial plantea interrogantes sobre su conformidad con el art. 6 CEDH, que garantiza el acceso a un tribunal y a un juicio imparcial e independiente. Si una hipotética “máquina de subsunción” pudiera tomar decisiones automatizadas basadas en el Derecho aplicable y los hechos del caso, se cuestionaría su compatibilidad con el CEDH. El acceso al tribunal estaría garantizado, pero la ausencia de un elemento humano en el proceso de toma de decisiones no deja de plantear desafíos. Las máquinas carecen del sentido de justicia inherente a los humanos, lo cual no excluye que la IA pueda desarrollar habilidades emocionales en el futuro. La aplicación del Derecho va más allá de la simple interpretación de la ley escrita, requiriendo un análisis complejo de intereses jurídicos, doctrinas y jurisprudencia relevante. Por lo tanto, la IA podría ser adecuada solo para decisiones judiciales donde no haya discrecionalidad en las consecuencias jurídicas. Sería posible un proceso en el que un humano utilice la IA como apoyo, pero manteniendo la autonomía para tomar decisiones y anunciarlas requiriéndose para ello una definición clara de las funciones de la IA y un análisis detallado de la influencia del humano en la decisión final para garantizar el cumplimiento de los principios judiciales fundamentales.

La irrupción de las nuevas tecnologías está transformando la naturaleza del trabajo de los abogados, presentando desafíos y oportunidades. Un cambio notable es la influencia de las aplicaciones informáticas en tareas que tradicionalmente requerían juicio humano experto, como la predicción de resultados judiciales. Esto puede aumentar la transparencia jurídica y mejorar la eficiencia en la resolución de litigios y el acceso a la justicia. Sin embargo, también desafía el modelo tradicional de las empresas de Derecho privado, que se basan en horas facturables y el modelo socio-asociado. Las nuevas tecnologías ofrecen ventajas, permitiendo un trabajo más eficiente y una mayor especialización, proporcionando un valor agregado a los clientes.

En última instancia, estos avances tecnológicos están destinados a transformar tanto la forma en que los abogados llevan a cabo su trabajo como la manera en que abordan y resuelven los litigios en nombre de sus clientes. La capacidad de adaptación y la disposición a abrazar estos cambios serán fundamentales para el éxito en el panorama legal del futuro por eso los bufetes de abogados la utilizan para optimizar y simplificar procesos legales. Tecnologías como los contratos inteligentes, que monitorean la ejecución de los contratos y responden automáticamente a incumplimientos, están siendo cada vez más comunes, pero que dejan en el aire la pregunta sobre qué pasaría si una máquina representara a una parte ante un tribunal en lugar de un abogado humano. En el contexto de procesos penales, el derecho a la defensa está garantizado por el art. 6, ap. 3, letra c) CEDH. La representación por una máquina violaría el principio de un juicio justo, ya que se impediría sistemáticamente el acceso a un abogado defensor y aunque se pudiera considerar el uso de defensa técnica generada automáticamente por IA, esto no sería compatible con el principio de juicio oral, congénito a un juicio justo según el CEDH.

En contraste, en procedimientos civiles, donde el litigio es iniciado por el demandante, el uso de IA se contempla desde una perspectiva diferente. Aquí, la IA podría generar alegatos escritos para simplificar los procedimientos, siempre y cuando se respeten los requisitos de oralidad. En procedimientos sin representación obligatoria por abogado, y si se cumplen los requisitos para renunciar a la oralidad, el uso de IA podría ser viable.

Ciertamente, la IA no puede reemplazar por completo a un abogado defensor en procesos penales, pero puede ser útil para apoyar actividades legales y en procedimientos civiles, la IA utilizarse en la fase preparatoria y en la generación de escritos, siempre que se respeten los requisitos legales y procesales pertinentes.

7.2. Desafíos y preocupaciones

La utilización de la IA en el ámbito legal plantea desafíos y preocupaciones que demandan un alto nivel de precisión y transparencia, así como la resolución de posibles sesgos o discriminaciones congénitas a los algoritmos. En este contexto, los profesionales del Derecho deben asumir un papel activo y crítico en el uso de esta tecnología, empleando su juicio y experiencia para complementar y contextualizar la información proporcionada por los sistemas de IA. Si se emplean de manera adecuada y ética, las herramientas de IA tienen el potencial de mejorar significativamente la eficacia y la calidad de la administración de justicia proporcionando a los abogados y otros operadores jurídicos recursos poderosos que les permitan desempeñar sus funciones de manera más eficiente y precisa. No obstante, resulta fundamental abordar los desafíos y preocupaciones asociados con el uso de la IA garantizando que estas tecnologías se implementen de manera que beneficien a la sociedad en su conjunto, evitando cualquier forma de perjuicio o inequidad. La responsabilidad de los profesionales del Derecho en este proceso tendrá la virtualidad de asegurar que la incorporación de la IA en el ámbito jurídico se realice de manera responsable, ética y orientada al bien común.

La implementación de la IA en la sociedad plantea desafíos que deben abordarse protegiendo los derechos humanos y las libertades fundamentales, evitando que pueda restringir la libertad ideológica, promoviendo un marco regulatorio que garantice los derechos de las personas y fomentando la innovación y la ética en el desarrollo algorítmico. En el ámbito educativo, deben implementarse programas específicos sobre la IA y sus desafíos éticos, y la formación en Derecho debe incluir asignaturas dedicadas a la IA. La ética debe ser central en todo el proceso de desarrollo algorítmico, considerando aspectos como la transparencia, la “explicabilidad”, los sesgos y la privacidad. Es crucial reflexionar sobre el propósito y las posibles consecuencias de la IA antes de su implementación. Las políticas y regulaciones deben diseñarse para prevenir el abuso de la IA y asegurar que su desarrollo se alinee con valores de justicia y equidad. Los desarrolladores y usuarios de IA deben estar comprometidos con la creación de sistemas justos y transparentes, evitando perpetuar desigualdades preexistentes, e implicando una reflexión constante sobre las implicaciones éticas y sociales de la IA.

La garantía de un uso ético y responsable de la IA amerita mecanismos de supervisión y rendición de cuentas que involucren a diversos actores, incluidos gobiernos, organizaciones de la sociedad civil y el sector privado capaces de identificar y corregir posibles desviaciones éticas en el uso de la IA, porque la integración de la ética en el desarrollo y uso de la IA no es solo una cuestión de responsabilidad técnica, sino un imperativo moral. Debemos asegurar que esta poderosa tecnología se utilice de manera que respete y promueva los derechos humanos, la libertad y la dignidad, construyendo así un futuro en el que la IA sea una fuerza para el bien común.

Es preciso que los abogados y las partes comprendan las limitaciones de la IA y no dependan exclusivamente de ella en decisiones legales, ya que la adopción de algoritmos predictivos plantea importantes cuestiones éticas y de transparencia sobre su funcionamiento y los datos utilizados para entrenarlos. Por esa razón la IA debe alinearse con el interés general, ser confiable, no aumentar desigualdades sociales y evitar que su evolución sea dictada exclusivamente por el mercado, lo que podría llevar a resultados inequitativos, con el concurso principal de cuatro acciones:

a)Abastecer a la IA de capacidad explicativa a través de una combinación de sistemas de aprendizaje profundo con IA simbólica, permitiendo mejorar la comprensión y la semántica en el procesamiento del lenguaje y la interpretación visual. La capacidad explicativa es fundamental para asegurar que las decisiones y recomendaciones de los sistemas de IA sean comprensibles y transparentes para los usuarios, lo que a su vez aumenta la confianza en estas tecnologías.

b)Proveer una IA más general y versátil, capaz de realizar múltiples tareas, lo cual requiere dotar a las máquinas de conocimientos de sentido común, un problema complejo y de larga data en la IA. Los sistemas de IA actuales suelen ser altamente especializados y carecen de la flexibilidad y adaptabilidad que caracterizan a la inteligencia humana. Desarrollar una IA con habilidades de sentido común implicaría avances sustanciales en la representación del conocimiento y en la capacidad de razonamiento de las máquinas.

c)Abordar los aspectos éticos y sociales del desarrollo de la IA. Esto incluye garantizar que los sistemas de IA no perpetúen ni exacerben las desigualdades existentes, así como asegurar que su uso respete los derechos humanos y promueva la equidad y la justicia. Los desarrolladores de IA deben ser conscientes de los posibles sesgos en sus algoritmos y trabajar activamente para mitigarlos.

d)Proporcionar marcos legales y normativos que garanticen la gobernanza responsable de la IA, protegiendo a los individuos y a la sociedad en su conjunto de posibles abusos y mal uso de estas tecnologías.

Aún no se ha evaluado convenientemente la amenaza que representa la IA para las políticas públicas de los Estados y las instituciones democráticas, pero existe una preocupación legítima sobre la seguridad de los datos, la privacidad y el potencial pirateo de información sensible, especialmente en casos que involucran personalidades públicas y estatales. Siendo preocupaciones legítimas sobre la implementación de la IA en el ámbito jurídico, no pueden negarse sus potenciales beneficios, debiéndose abordar de manera adecuada los desafíos y riesgos asociados con su uso, mientras se aprovechan sus ventajas para mejorar la eficiencia, accesibilidad y equidad del sistema judicial.

7.3. Necesidad de un marco regulatorio

El acceso a la justicia constituye un pilar fundamental dentro del sistema jurídico, ya que su ausencia mina la integridad del debido proceso. En una sociedad marcada por un constante avance tecnológico, emergen herramientas como la IA que prometen facilitar las tareas humanas en diversos campos; sin embargo, para los Poderes Judiciales, la integración de esta tecnología aún representa un desafío significativo. Su ascenso se fundamenta en la convergencia de una mayor capacidad de procesamiento, la ampliación del acervo de datos y los avances en algoritmos, consolidando así su posición como un concepto amplio que abarca algunos de los desarrollos tecnológicos más revolucionarios de nuestra era. La relevancia de la IA se desprende tanto de las oportunidades que brinda como de los desafíos que plantea.

Sin descuidar las aplicaciones de la IA tendentes a impulsar el crecimiento económico y a mejorar la eficiencia, no debe olvidarse que también suscitan importantes riesgos e incertidumbres. De ahí la importancia de implementar un sistema efectivo de justicia algorítmica que identifique y erradique los sesgos computacionales discriminatorios de manera rápida y eficiente. Este sistema: a) promovería un acceso más amplio a la justicia; b) aumentaría la confianza en la tecnología de IA; c) establecería medidas para medir y comunicar el progreso hacia la eliminación de los sesgos indeseables; d) proporcionaría un marco para el desarrollo de políticas y regulaciones significativas para la IA; y e) facilitaría el cumplimiento y la litigación contra la discriminación algorítmica ilegal. Como puede observarse, se trata de una compleja tarea cuyo resultado sería nuevo modelo hacia un sistema de justicia algorítmica.

La justicia algorítmica puede mejorar la accesibilidad a la justicia y acelerar la toma de decisiones, pero amenazar paralelamente otras garantías consustanciales al derecho a un juicio justo, al poner en riesgo el deber de motivación, la independencia e imparcialidad de los jueces y la igualdad de armas entre las partes (Nieva 2018, 128–130). De ahí la necesidad de una gobernanza adecuada de la IA para guiar el desarrollo, despliegue y mantenimiento de las tecnologías que la conforman de manera ética y responsable. Incluye principios, normas y marcos que abordan aspectos como la ética, la transparencia, la responsabilidad y la gestión de riesgos y su finalidad principal es asegurar el uso ético de la IA mitigando los riesgos asociados, como la parcialidad y las violaciones de la privacidad. Una gobernanza sólida generará confianza entre los usuarios y las partes interesadas al garantizar que las tecnologías de IA se utilicen de manera beneficiosa y cumplan con las expectativas legales y sociales. Pero requiere, en primer lugar, el establecimiento de marcos regulatorios que equilibren la innovación con la protección del interés público y los derechos individuales; en segundo lugar, la revisión y actualización de las normativas relacionadas con la responsabilidad civil, los derechos de los consumidores y la protección de datos; y, por último, la implementación de modelos de IA explicables y transparentes, abordando los desafíos éticos y sociales asociados con esta tecnología para que los usuarios puedan comprender y confiar en sus decisiones (Martín Diz 2021, 65–85; Barona 2021). Entre estos requerimientos ocupa un lugar prioritario la consideración de que la perspectiva de género en la IA y la concienciación social sobre sus implicaciones son etapas a superar para garantizar un uso responsable y ético de esta tecnología pues, de lo contrario, podría tener consecuencias negativas para la humanidad.

La garantía del uso ético y seguro de la IA parte de una regulación adecuada para asegurar su uso ético y seguro y del establecimiento de marcos normativos que definan los límites y responsabilidades de los desarrolladores, fabricantes y usuarios de la IA, siendo fundamentales la transparencia y la responsabilidad para generar confianza en la IA, por lo que se deben establecer mecanismos para que los desarrolladores y proveedores de servicios sean responsables de las decisiones tomadas por sus sistemas a través de evaluaciones éticas para garantizar que la IA se utilice de manera no discriminatoria. En su consecución, resulta conveniente, de un lado, la creación de comités de ética y de mecanismos de revisión que protejan los derechos humanos y los valores éticos y, de otro lado, la implementación actual de la justicia algorítmica para que asuma las garantías de equidad necesarias según el principio de no discriminación y el derecho a un proceso equitativo, tal como se define en la jurisprudencia del TEDH, del TJUE y del Tribunal Constitucional.

En suma, es fundamental implementar un sistema efectivo de justicia algorítmica con el objeto de:

a)Identificar y erradicar los sesgos computacionales discriminatorios de manera rápida y eficiente. Con ello no solo se promoverá un acceso más amplio a la justicia y aumentaría la confianza en la tecnología de IA, sino que también se establecerán medidas para medir y comunicar el progreso hacia la eliminación de dicho sesgo, proporcionado un marco para el desarrollo de políticas y regulaciones significativas para la IA, facilitando el cumplimiento y la litigación contra la discriminación algorítmica ilegal.

b)Asegurar que la integración de la IA en el sistema judicial cumpla con los estándares legales de justicia y equidad. El desafío futuro consiste en maximizar los beneficios de la IA para la sociedad al tiempo que se mitigan sus riesgos, fomentando la innovación y equilibrando los intereses sociales y ello plantea la necesidad de definir qué valores guiarán el desarrollo tecnológico y qué principios del Estado de Derecho brindarán una base sólida para este propósito como una prioridad para preservar los valores fundamentales de la sociedad.

Bibliografía

Añón, María José. 2018. «El derecho de acceso como garantía de justicia: perspectivas y alcance», Acceso a la justicia y garantía de los derechos en tiempos de crisis: de los procedimientos tradicionales a los mecanismos alternativos, coordinado por Cristina García–Pascual, 19-75. Valencia: Tirant lo Blanch.

Ashley, Kevin D. 2017. Artificial Intelligence and Legal Analytics. New Tools for Law Practice in the Digital Age, Cambridge: Cambridge University Press.

Barona, Silvia. 2021. Justicia algorítmica y neuroderecho. Una mirada multidisciplinar, Valencia: Tirant lo Blanch.

Buiten, Miriam C. n.d. «Towards intelligent regulation of artificial intelligence.» European Journal of Risk Regulation 10 (1): 41–59.

Carrizo, Adán. 2019. «El acceso a la justicia de las personas en condición de vulnerabilidad: un reto pendiente para los derechos humanos», Los Derechos Humanos 70 años después de la Declaración Universal, dirigido por Nieves Sanz, 287-310. Valencia, Tirant lo Blanch.

Castillejo, Raquel. 2022. «Digitalización y/o inteligencia artificial», Inteligencia artificial legal y administración de justicia, dirigido por Sonia Calaza y Mercedes Llorente, 55-90. Cizur Menor: Thomson–Reuters–Aranzadi.

Chatterjee, Payel, Aman Singhania y Yuvraj S. Sharma. 2023. Technology and artificial intelligence: Reengineering arbitration in the new world, International Bar Association. Arbitration Commitee Articles, 20 de diciembre. Acceso el 17 de septiembre de 2024 https://www.ibanet.org/tchnology-and-artificial-intelligence-reengineering-arbitration-in-the-new-world.

Ebers, Martin y Paloma Krõõt. 2023. Artificial intelligence and machine learning powered public service delivery in Estonia: opportunities and legal challenges, Cham: Springer.

Esparza, Iñaki. 2022. «Derecho fundamental a la protección de datos de carácter personal en el ámbito jurisdiccional e inteligencia artificial. en especial la LO 7/2021, de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales», Inteligencia artificial legal y administración de justicia, dirigido por Sonia Calaza y Mercedes Llorente (181–209). Cizur Menor: Thomson–Reuters–Aranzadi.

Fernández Pérez, Ana. 2024. «Tránsito del arbitraje de las tecnologías de la información a la inteligencia artificial en las controversias internacionales», Anuario de Arbitraje 2024, editado por Mª José Menéndez, Cizur Menor: Aranzadi.

Fernández Rozas, José Carlos. 2024. «La ley de inteligencia artificial de la Unión Europea: un modelo para innovaciones radicales, responsables y transparentes basadas en el riesgo», La Ley: Unión Europea 124, abril.

Forrest, Katherine B. 2021. When machines can be judge, jury, and executioner: justice in the age of artificial intelligence, New Jersey: World Scientific.

Gómez Colomer, Juan L. 2022. «Derechos fundamentales, proceso e inteligencia artificial: una reflexión», Inteligencia artificial legal y administración de justicia, dirigido por Sonia Calaza y Mercedes Llorente, 257-287. Cizur Menor: Thomson–Reuters–Aranzadi.

Greenstein, Stanley. 2022. «Preserving the rule of law in the era of artificial intelligence (AI)», Artificial Intelligence and Law 30: 291–323.

Leslie, David, Christopher Burr, Mhairi Aitken, Josh Cowls, Mike Katell y Morgan Briggs. 2021. Artificial intelligence, human rights, democracy, and the rule of law: a primer. Council of Europe, The Alain Turing Institute.

Marrow, Paul B., Mansi Karol y Steven Kuyan. 2020. «Artificial intelligence and arbitration: the computer as an arbitrator - are we there yet?», Dispute Resolution Journal 74 (4): 35–76.

Martín Diz, Fernando. 2021. «Modelos de aplicación de Inteligencia Artificial en justicia: asistencial o predictiva versus decisoria», Justicia algorítmica y Neuroderecho. Una mirada multidisciplinar, dirigido por Sonia Calaza y Mercedes Llorente, 65-85. Cizur Menor: Thomson–Reuters–Aranzadi.

Mercan, Gamze y Zumrut V. Seiçuk. 2024. «Artificial intelligence (AI) activities in legal practices», International Journal of Eurasian Education and Culture 9 (25): 131–144

Nieva, Jordi. 2018. Inteligencia artificial y proceso judicial, Madrid: Marcial Pons.

Ortiz de Zárate, Lucía y Ariana Guevara. 2021. «Inteligencia artificial e igualdad de género. Un análisis comparado entre la UE, Suecia y España», Estudios de Progreso 101, Fundación Alternativas. Acceso el 17 septiembre 2024, https://www.igualdadenlaempresa.es/recursos/estudiosMonografia/docs/Estudio_Inteligencia_artificial_e_igualdad_de_genero_Fundacion_Alternativas.pdf

Re, Richard M. y Solow–Niedermann, Alicia. 2019. «Developing artificially intelligent justice», Stanford Technology Law Review 22 (2): 242–289.

Sartor, Giovanni. 2020. «Artificial intelligence and human rights: Between law and ethics». Maastricht Journal of European and Comparative Law 27 (6): 705–719.

Schäferling, Stefan. 2023. Governmental Automated Decision–Making and Human Rights: Reconciling Law and Intelligent Systems. Cham: Springer.

Scherer, Maxi. 2019. «Artificial intelligence and legal decision–making: The wide open?», Journal of International Arbitration 36 (5): 539–573.

Završnik, Aleš, 2020. «Criminal justice, artificial intelligence systems, and human rights», ERA Forum: Journal of the Academy of European Law 20 (4): 567–583.

 

Copyright (©)

Deusto Journal of Human Rights / Revista Deusto de Derechos Humanos is an Open Access journal; which means that it is free for full and immediate access, reading, search, download, distribution, and reuse in any medium only for non-commercial purposes and in accordance with any applicable copyright legislation, without prior permission from the copyright holder (University of Deusto) or the author; provided the original work and publication source are properly cited (Issue number, year, pages and DOI if applicable) and any changes to the original are clearly indicated. Any other use of its content in any medium or format, now known or developed in the future, requires prior written permission of the copyright holder.

 

Derechos de autoría (©)

Deusto Journal of Human Rights / Revista Deusto de Derechos Humanos es una revista de Acceso Abierto; lo que significa que es de libre acceso en su integridad inmediatamente después de la publicación de cada número. Se permite su lectura, la búsqueda, descarga, distribución y reutilización en cualquier tipo de soporte sólo para fines no comerciales y según lo previsto por la ley; sin la previa autorización de la Editorial (Universidad de Deusto) o la persona autora, siempre que la obra original sea debidamente citada (número, año, páginas y DOI si procede) y cualquier cambio en el original esté claramente indicado. Cualquier otro uso de su contenido en cualquier medio o formato, ahora conocido o desarrollado en el futuro, requiere el permiso previo por escrito de la persona titular de los derechos de autoría.