Algorithmic discrimination and its impact on human dignity and human rights. Special reference to immigrants
Abstract
Algorithmic discrimination, also known as algorithmic bias, refers to the phenomenon in which artificial intelligence algorithms and machine learning perpetuate or even amplify existing human prejudices and biases in the data they are trained on. This issue raises serious concerns regarding human rights, especially in the context of immigrants. It can lead to social exclusion, marginalization, and the perpetuation of negative stereotypes. These opaque algorithms can hinder accountability and the appeal of unfair decisions. Addressing this problem requires the implementation of ethical algorithm development practices, such as transparency in design and data collection, algorithm auditing, and diversity in development teams. Additionally, effective regulation is needed to ensure the protection of human rights in the context of algorithmic discrimination, particularly for immigrants.
Received: 31 May 2023
Accepted: 19 October 2023
Downloads
References
Aguado i Cudolà, Vicenç, Vera Parisio y Oscar Casanovas i Ibàñez. 2018. El derecho a la ciudad: el reto de las smart cities. Barcelona: Atelier. Acceso el 15 de mayo de 2022: https://ucm.on.worldcat.org/oclc/1346587615.
Arrieta, Enrique y Amanda Vargas. 2021. «Analítica de datos aplicada al Plan Nacional de Desarrollo de 2018-2022, “Pacto por Colombia, Pacto por la equidad”». Estudios Políticos 62: 215-239. https://doi.org/10.17533/udea.espo.n62a09.
Asís, Rafael. 2020. «Inteligencia artificial, diversidad y derechos», Uc3m Working paper, Materiales de Filosofía del derecho, 20-04. Universidad Carlos III de Madrid.
Ausín, Txetxu. 2021. «¿Por qué ética para la Inteligencia Artificial? Lo viejo, lo nuevo y lo espurio». Sociología y Tecnociencia 11, n. 2. Acceso el 27 de mayo de 2022: https://dialnet.unirioja.es/servlet/oaiart?codigo=8155412.
Barona, Silvia. 2021a. Algoritmización del derecho y de la justicia: de la inteligencia artificial a la smart justice. Valencia: Tirant lo Blanch. Acceso el 13 de marzo de 2021: https://biblioteca-tirant-com.bucm.idm.oclc.org/cloudLibrary/ebook/info/9788413786667.
Barona, Silvia. 2021b. «Justicia algorítmica y neuroderecho: una mirada multidisciplinar». Alternativa 124. Acceso el 5 de Julio de 2021: https://biblioteca-tirant.com.bucm.idm.oclc.org/cloudLibrary/ebook/info/9788413972022.
Benítez, Lucía. 2019. «Ethics and transparency for detection of gender bias in algorithms». Estudios sobre el mensaje periodístico 25, n. 3: 1307-1320. Acceso el 6 de enero de 2022: https://revistas.ucm.es/index.php/ESMP/article/view/66989.
Blanco, Carlos G. 2022. «El tratamiento de los algoritmos de IA para evitar sesgos discriminatorios y la regulación jurídica de los robots y la IA». En Los Derechos Humanos en la inteligencia artificial: su integración en los ODS de la Agenda 2030, dirigido por Elena García-Antón, 235-252, Cizur Menor: Thomson Reuters Aranzadi.
Boczkowski, Pablo J. y Eugenia Mitchelstein. 2022. El entorno digital. Madrid: Siglo XXI Editores.
Campione, Roger. 2021. «Recopilar y vigilar: Algunas consideraciones filosófico- jurídicas sobre inteligencia artificial», Sociología y Tecnociencia 11, n. 2: 123-139. Acceso el 8 de febrero de 2013: https://dialnet.unirioja.es/servlet/oaiart?codigo=8155418.
Cippitani, Roberto, Antonella Mirabile y Martina Onofri. 2021. «“Objetividad científica” y sesgos en la toma de decisiones jurídicas: los casos de genética forense y de algoritmos», Revista Justicia y Derecho 4, n. 2: 1-22. https://doi.org/10.32457/rjyd.v4i2.1440.
Corrales, José M. 2022. «Derecho al trabajo y discriminación: las políticas públicas de empleo como instrumento de igualdad», en Los derechos humanos en la inteligencia artificial: su integración en los ODS de la Agenda 2023, dirigido por Elena García-Antón, 399-422, Cizur Menor: Thomson Reuters Aranzadi.
Cotino, Lorenzo. 2017. «Big data e inteligencia artificial. una aproximación a su tratamiento jurídico desde los derechos fundamentales», Dilemata 24: 131-150. Acceso el 6 de marzo de 2019: https://dialnet.unirioja.es/servlet/oaiart?codigo=6066829.
Cotino, Lorenzo. 2019. «Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el Derecho», Revista Catalana de Dret Públic 58: 29-48. https://doi.org/10.2436/rcdp.i58.2019.3303.
Cotino, Lorenzo. 2023a. «Una regulación legal y de calidad para los análisis automatizados de datos o con inteligencia artificial. Los altos estándares que exigen el Tribunal Constitucional alemán y otros tribunales, que no se cumplen ni de lejos en España», Revista General de Derecho Administrativo 63: 1-22. Acceso el 22 de agosto de 2023: https://www.uv.es/cotino/publicaciones/publicadoRGDACotin.pdf.
Cotino, Lorenzo. 2023b. «Qué concreta transparencia e información de algoritmos e inteligencia artificial es la debida», Revista Española de la Transparencia 16: 17-63. https://doi.org/10.51915/ret.272.
Cotino, Lorenzo. 2023c. «Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público». En Inteligencia artificial y sector público: retos, límites y medios, dirigido por Eduardo Gamero, 257-351. Valencia: Tirant lo Blanch.
Cueva, Javier. 2019. «El derecho a no ser gobernados mediante algoritmos secretos», El Notario del siglo XXI 87. Acceso el 17 de septiembre de 2020: https://www.elnotario.es/index.php/hemeroteca/revista-87/9636-el-derecho-a-no-ser-gobernados-mediante-algoritmos-secretos.
Danesi, Cecilia C. 2022. «Inteligencia artificial y metaverso: el ordenamiento jurídico frente a los sesgos algorítmicos y los estereotipos de género en la realidad virtual». En Los derechos humanos en la inteligencia artificial. Su integración en los ODS de la Agenda 2030, dirigido por Elena García- Antón, 253-274, Cizur Menor: Thomson Reuters Aranzadi.
Eguíluz, Josu A. 2020. «Desafíos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales», Estudios de Deusto 68, n. 2: 325-367: https://doi.org/10.18543/ed-68(2)-2020pp325-367.
Esteban, Francisco J. 2022. «La inteligencia artificial, inteligencia emocional y derechos humanos: las enseñanzas del caso del genocidio uigur». Los Derechos Humanos en la inteligencia artificial: su integración en los ODS de la Agenda 2030, dirigido por Elena García-Antón, 381-398, Cizur Menor: Thomson Reuters Aranzadi.
Febles, Gustavo. 2012. «Falsos negativos en mamografía», Revista de Imagenología, Época II - Vol. XVI, n. 2 / Junio 2013: 17-22. Acceso el 9 de abril de 2018: https://www.webcir.org/revistavirtual/articulos/diciembre13/uruguay/uru_espanol_a.pdf.
Ferrante, Enzo. 2021. «Inteligencia Artificial y sesgos algorítmicos ¿por qué deberían importarnos?», Nueva Sociedad, 294: 27-36. Acceso el 25 de mayo de 2022: https://biblat.unam.mx/hevila/Nuevasociedad/2021/no294/3.pdf.
García León, Alejandra G., Lima Sánchez, Dania Nimbe y Lucía Abascal. 2023. «Revisión sobre aspectos bioéticos en las decisiones de triaje en la unidad de cuidados intensivos durante la pandemia por Covid-19», Revista de Bioética y Derecho 57: 193-206: https://doi.org/10.1344/rbd2023.57.37282.
García-Antón, Elena y Francisco García Pascual. 2022. Los derechos humanos en la inteligencia artificial: su integración en los ODS de la Agenda 2030. Cizur Menor: Aranzadi.
Gutiérrez David, María Estrella. 2021. «Administraciones inteligentes y acceso al código fuente y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales», Derecom 30: 143-228. Acceso el 6 de septiembre de 2022: https://www.derecom.com/derecom/.
Jiménez Schlegl, Pablo. 2021. «El aprendizaje en sistemas autónomos e inteligentes: visión general y sesgos de fuentes de datos», Arbor 197, n. 802: https://doi.org/10.3989/arbor.2021.802005.
López Flores, Luis M. 2022. «Colonialidad algorítmica: racialización y sexualización mecanizada en el capitalismo digital». Teknokultura 19, n. 2: 231-239. https://doi.org/10.5209/tekn.78681.
López Pinilla, Ana Mª. 2021. «Inteligencia Artificial en el proceso penal: análisis a la luz del Fiscal Watson». Pensamiento Jurídico 54: 147-164. Acceso 12 de octubre de 2022: https://revistas.unal.edu.co/index.php/peju/article/view/96091.
Martín López, Jorge. 2022. «Inteligencia Artificial, sesgos y no discriminación en el ámbito de la inspección tributaria», Crónica Tributaria 182: 51-89. https://doi.org/10.47092/CT.22.1.2.
Morales, Gabriela. 2023. «Problemática antropológica detrás de la discriminación generada a partir de los algoritmos de la Inteligencia Artificial», Medicina y ética 34, n. 2: 429-455. https://doi.org/10.36105/mye.2023v34n2.04.
Roa, Marcela del Pilar, Jesús E. Sanabria y Katherin Dinas. 2022. «Uso del algoritmo compas en el proceso penal y los riesgos a los derechos humanos», Revista Brasileira De Direito Processual Penal 8, n. 1: 275-310. https://doi.org/10.22197/rbdpp.v8i1.615.
Salas, Javier. 2019. «El algoritmo que discrimina a los pacientes negros sin conocer su raza», El País, 24 de octubre. Acceso el 24 de octubre de 2019: https://elpais.com/elpais/2019/10/24/ciencia/1571909798_596622.html.
Serrano, Fernando. 2021. Inteligencia artificial y administración tributaria: eficiencia administrativa y defensa de los derechos de los contribuyentes, Cizur Menor: Thomson Reuters Aranzadi.
Simón, Pere. 2021. Justicia cautelar e inteligencia artificial: la alternativa a los atávicos heurísticos judiciales. Barcelona: Bosch.
Sued, Gabriela E. 2022. «Culturas algorítmicas: conceptos y métodos para su estudio social», Revista Mexicana de Ciencias Políticas y Sociales 67, n. 246: 43-73. https://doi.org/10.22201/fcpys.2448492xe.2022.246.78422.
Valencia, Eduardo. 2018. People analytics: analítica y datos para recursos humanos. Cizur Menor: Aranzadi.
Van Est, Rinie and Joost Gerritsen. 2017. Human rights in the robot age: Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality, The Hague: Rathenau Instituut. Acceso el 10 de julio de 2020: https://www.rathenau.nl/sites/default/files/2018-02/Human%20Rights%20in%20the%20Robot%20Age-Rathenau%20 Instituut-2017.pdf.