Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial

  1. Simón Castellano, Pere 1
  1. 1 Profesor Titular de Derecho Constitucional. Universidad Internacional de la Rioja
Revue:
Revista de Derecho Político

ISSN: 0211-979X

Année de publication: 2023

Número: 117

Pages: 153-196

Type: Article

DOI: 10.5944/RDP.117.2023.37929 DIALNET GOOGLE SCHOLAR lock_openAccès ouvert editor

D'autres publications dans: Revista de Derecho Político

Résumé

En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.

Références bibliographiques

  • Adadi, A. y Berrada, M. (2018). «Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)». IEEE Access, vol. 6, 52138-52160.
  • Ada Lovelace Institute (2020). «Examining the Black Box: Tools for assessing algorithmic systems». Disponible en Internet: https://www.adalovelaceinstitute.org/wp-content/uploads/2020/04/Ada-Lovelace-Institute-DataKind-UK-Examining-the-Black-Box-Report-2020.pdf (última consulta el 9 de julio de 2022).
  • AIEI Group (2020). «AI Ethics Impact Group: From Principles to Practice – An interdisciplinary framework to operationalise AI ethics», disponible en Internet: https://www.ai-ethics-impact.org/en (última consulta el 9 de julio de 2022).
  • Alguacil González Aurioles, J. (2006). «Objeto y contenido de los Derechos Fundamentales: presupuestos e implicaciones de una nueva diferenciación dogmática». Teoría y Realidad Constitucional, 18, 305-320.
  • Ananny, M. y Crawofrd, K. (2018). «Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability». New media & society, vol. 20, 3, 973-989.
  • Athey, S. y Imbens, G. (2015). «Machine Learning Methods for Estimating Heterogeneous Causal Effects». arXiv: 1504.01132
  • Barata, J. (2021). «The Digital Services Act and its impact on the right to freedom of expression: special focus on risk mitigation obligations». PLI, Plataforma por la Libertad de Información, disponible en https://libertadinformacion.cc/wp-content/uploads/2021/06/DSA-AND-ITS-IMPACT-ON-FREEDOM-OF-EXPRESSION-JOAN-BARATA-PDLI.pdf (última consulta el 9 de julio de 2022).
  • Bastida et al. (2004). Teoría general de los derechos fundamentales en la Constitución española de 1978, Madrid, Tecnos.
  • Barredo Arrieta, A. et al. (2020). «Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI». Information Fusion, 58, 82-115.
  • Bernhard Walt, R. V. (2018). «Increasing Transparency in Algorithmic Decision-Making with Explainable AI». Datenschutz und Datensicherheit, 10, 613-617.
  • Boix Palop, A. (2020a). «Algorithms as Regulations: Considering Algorithms, when Used by the Public Administration for Decision-making, as Legal Norms in order to Guarantee the proper adoption of Administrative Decisions». European Review of Digital Administration & Law, Vol. 1, 1-2, 75-100.
  • Boix Palop, A. (2020b). «Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones». Revista de Derecho Público: Teoría y método, Vol. 1.
  • Bueno de Mata, F. (2020). «Macrodatos, inteligencia artificial y proceso: luces y sombras». Revista General de Derecho Procesal, 51.
  • Cerrillo i Martínez, A. (2020). «La transparencia de los algoritmos que utilizan las administraciones públicas». Anuario de Transparencia Local, 3, 41-78.
  • Cotino Hueso, L. (2018). «La necesaria actualización de los derechos fundamentales como derechos digitales ante el desarrollo de internet y las nuevas tecnologías», en Pendás García, B. (dir.), España constitucional (1978-2018): trayectorias y perspectivas, Vol. 3, Tomo 3, Madrid, Centro de Estudios Políticos y Constitucionales, 2347-2361.
  • Cotino Hueso, L. et al. (2021). «Un análisis crítico constructivo de la propuesta de Reglamento de la Unión Europea por le que se establecen normas armonizadas sobre la Inteligencia Artificial (Artificial Intelligence Act)». Diario La Ley.
  • Cotino Hueso, L. (2022a). «Nuevo paradigma en las garantías de los derechos fundamentales y una nueva protección de datos frente al impacto social y colectivo de la inteligencia artificial», en Bauzá Reilly, M. (Coord.) y Cotino Hueso, L. (Dir.), Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas, Cizur Menor, Aranzadi, 69-105.
  • Cotino Hueso, L. (2022b). «Quién, cómo y qué regular (o no regular) frente a la desinformación». Teoría y Realidad Constitucional, 49, 199-238.
  • Cotino Hueso, L. (2022c). «Transparencia y explicabilidad de la inteligencia artificial y “compañía” (comunicación, interpretabilidad, inteligibilidad, auditabilidad, testabilidad, comprobabilidad, simulabilidad…). Para qué, para quién y cuánta», en Cotino Hueso, L. y Castellano Claramunt, J. (Eds.), Transparencia y explicabilidad de la inteligencia artificial, Valencia, Tirant lo Blanch, 25-70.
  • Daranas, M. (1984). «Sentencia de 15 de diciembre de 1983: Ley del Censo. Derecho de la Personalidad y Dignidad Humana». Boletín de Jurisprudencia Constitucional, Dirección de Estudios y Documentación del Congreso de los Diputados, vol. IV, 3, 126-170.
  • De Laat, P. B. (2018). «Algorithmic Decision-making Based on Machine Learning from Big Data: Can Transparency Restore Accountability?». Philos. Technol., 31, 525-541.
  • De Miguel Beriain, I. (2018). «Does the use of risk assessments in sentences respect the right to due process? A critical analysis of the Wisconsin v. Loomis ruling». Law, Probability and Risk, vol. 17, 1, 45-53.
  • Di Gregorio, G. (2022). Digital Constitutionalism in Europe Reframing Rights and Powers in the Algorithmic Society, Cambridge, Cambridge University Press.
  • Doshi-Velez, F. y Kim, B. (2017). «Towards a rigorous science of interpretable machine learning». arXiv preprint: 1702.08608.
  • Edwards, L. y Veale, M. (2017). «Slave to the Algorithm? Why a ‘Right to Explanation’ is probably not the Remedy you are looking for». Duke Law & Technology Review, 16, 18-84.
  • Ferguson, A. G. (2017). The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement, Nueva York, New York University Press.
  • Fernández, A. (2019). «Evolutionary Fuzzy Systems for Explainable Artificial Intelligence: Why, When, What for, and Where to?». IEEE Computational Intelligence Magazine, 14, 1, 69-81.
  • García Mexía, P. (Dir.) (2022). Claves de Inteligencia Artificial y Derecho, Madrid, Wolters Kluwer – La Ley.
  • Gobierno de Canadá. (2022). «Algorithmic Impact Assessment». Disponible en Internet: https://open.canada.ca/aia-eia-js/?lang=en (última consulta el 9 de julio de 2022).
  • Gobierno de Holanda. (2021). «Fundamental Rights and Algorithms Impact Assessment (FRAIA)». Disponible en Internet: https://www.government.nl/binaries/government/documenten/reports/2021/07/31/impact-assessment-fundamental-rights-and-algorithms/fundamental-rights-and-algorithms-impact-assessment-fraia.pdf (última consulta el 9 de julio de 2022).
  • Grimalt Servera, P. (1999). La responsabilidad civil en el tratamiento automatizado de datos personales, Colección Estudios de Derecho Privado núm. 8, Granada, Comares.
  • Grimm, D. (2010). «Identidad y transformación: la Ley fundamental en 1949 y hoy». Teoría y Realidad Constitucional, 25, 263-277, pp. 273-274.
  • Gutiérrez Gutiérrez, I. y Alguacil González Aurioles, J. (2011). «La dimensión objetiva de los derechos fundamentales», materiales para el estudio de la asignatura Aspectos subjetivo y objetivo de los derechos fundamentales, del Máster en Derecho Fundamentales de la UNED, recurso disponible en Internet: https://www2.uned.es/dpto-derecho-politico/11aspectos4.pdf (última consulta el 9 de julio de 2022).
  • Hernández Peña, J. C. (2022). El marco jurídico de la inteligencia artificial. Principios, procedimientos y estructuras de gobernanza, Cizur Menor, Aranzadi.
  • Herrán Ortiz, A. I. (2003), El derecho a la protección de datos personales en la sociedad de la información, Bilbao, Cuadernos Deusto de Derechos Humanos núm. 26.
  • Hesse, K. (2001). «Cap. III. Significado de los derechos fundamentales», en Benda, E. et al., Manual de Derecho Constitucional, Madrid, Marcial Pons.
  • Huergo Lora, A. J. (Dir.) (2020), La regulación de los algoritmos, Cizur Menor, Aranzadi.
  • Jobin, A. et al. (2019. «The global landscape of AI ethics guidelines». Nat Mach Intell, 1, 389–399.
  • Kroll, J. A. (2021). «Outlining traceability: A principle for operationalizing accountability in computing systems». Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 758-771.
  • Leslie, D. (2019). «Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector». Disponible en Internet: https://zenodo.org/record/3240529/files/understanding_artificial_intelligence_ethics_and_safety.pdf?download=1 (última consulta el 9 de julio de 2022).
  • Lipton, Z. C. (2018). «The Mythos of Model Interpretability». Queue, 16, 3.
  • Lucas Murillo De La Cueva, P. (2020). «Encuesta sobre la protección de datos personales». Teoría y Realidad Constitucional, 46, 40.
  • Madaio, M. A. et al. (2020). «Co-designing checklists to understand organizational challenges and opportunities around fairness in AI». Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1-14.
  • Mantelero, A. (2022). Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI, La Haya, Springer, pp. 1-91 y 185-197.
  • Mantelero, A. (2018). El big data en el marco del Reglamento General de Protección de Datos, Barcelona, UOC, 1-46; Mantelero, A. (2017). «From group privacy to collective privacy: towards a new dimension of privacy and data protection in the big data era», en Taylor, L. et. al (Eds.), Group Privacy: New Challenges of Data Technologies, La Haya, Springer, 173-198.
  • Martínez Garay, L. (2018). «Peligrosidad, algoritmos y due process: El caso State vs. Loomis». Revista de Derecho Penal y Criminología, 20, 485-502, en especial p. 492.
  • Martín Retortillo, L. y De Otto y Pardo, I. (1988). Derechos fundamentales y Constitución, Madrid, Civitas, 163 y ss.
  • Markus, A. F. et al. (2021). «The role of explainability in creating trustworthy artificial intelligence for health care: A comprehensive survey of the terminology, design choices, and evaluation strategies». Journal of Biomedical Informatics, 113.
  • Medina Guerrero, M. (2022). «El derecho a conocer los algoritmos utilizados en la toma de decisiones. Aproximación desde la perspectiva del derecho fundamental a la protección de datos personales». Teoría y Realidad Constitucional, 49, 141-171.
  • Miguel Asensio, P. A. (2021). «Propuesta de Reglamento sobre inteligencia artificial». La Ley Unión Europea, núm. 92.
  • Miró Llinares, F. (2020). «Predictive policing: Utopia or dystopia? On attitudes towards the use of big data algorithms for law enforcement». Revista de Internet, Derecho y Política (IDP), 30.
  • Morley, J. et al. (2020). «From what to how: an initial review of publicly available AI ethics tools, methods and research to translate principles into practices». Science and Engineering Ethics, 26, 4, 2141-2168, más concretamente pp. 2157 y ss.
  • Montavon, G. et al. (2018). «Methods for interpreting and understanding deep neural networks». Digital Signal Processing, 73, 1-15.
  • Ni Loideain, N. (2018). «A Port in the Data-Sharing Storm: The GDPR and the Internet of Things». King's College London Law School Research Paper, 2018-27.
  • OEIAC. (2021). «Inteligencia artificial, ética y sociedad: Una mirada y discusión a través de la literatura especializada y de opiniones expertas», disponible en Internet: https://www.udg.edu/ca/Portals/57/OContent_Docs/Informe_OEIAC_2021_cast-4.pdf (última consulta el 9 de julio de 2022).
  • OEIAC (2021). «El Model PIO (Principis, Indicadors i Observables): Una proposta d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’intel·ligència artificial», disponible en Internet: https://www.udg.edu/ca/Portals/57/OContent_Docs/modelPIO_v6.pdf (última consulta el 9 de julio de 2022).
  • Ortiz de Zárate Alcarazo, L. (2022). «Explicabilidad (de la inteligencia artificial)». Eunomía. Revista en Cultura de la Legalidad, 22, 328-344, más concretamente, 334-335.
  • Pérez Luño, A. E. (2016). «Nuevo derecho, nuevos derechos». Anuario de filosofía del derecho, 32, 15-36.
  • Pérez Luño, A. E. (2014). «Los derechos humanos ante las nuevas tecnologías», en Pérez Luño, A. E. (ed.), Nuevas tecnologías y derechos humanos, Valencia, Tirant lo Blanch, 15-34.
  • Presno Linera, M. A. (2016). «Premisas para la introducción del voto electrónico en la legislación electoral española». Revista de Estudios Políticos, 173, 277-304.
  • Presno Linera, M. A. (2022a). «Una aproximación a la inteligencia artificial y su incidencia en los derechos fundamentales». IDP: Observatorio de Derecho Público, disponible en Internet: https://idpbarcelona.net/una-aproximacion-a-la-inteligencia-artificial-y-su-incidencia-en-los-derechos-fundamentales/ (última consulta el 4 de agosto de 2022).
  • Presno Linera, M. A. (2022b). Libre desarrollo de la personalidad y derechos fundamentales, Madrid, Marcial Pons.
  • Presno Linera, M. A. (2022c). Derechos fundamentales e Inteligencia Artificial, Madrid, Marcial Pons, Fundación Manuel Giménez Abad.
  • Rallo Lombarte, A. (2019a). «Del derecho a la protección de datos a la garantía de nuevos derechos digitales», en Rallo Lombarte, A. (dir.) Tratado de protección de datos. Actualizado con la ley orgánica 3/2018, de 5 de diciembre, de protección de datos personales y garantía de los derechos digitales, Valencia, Tirant lo Blanch, 23-52.
  • Rallo Lombarte, A. (2019b). «El nuevo derecho de protección de datos». Revista Española de Derecho Constitucional, 116, 45-74.
  • Rallo Lombarte, A. (2020). «Una nueva generación de derechos digitales». Revista de Estudios Políticos, 187, 101-135.
  • Ranchordas, S. (2021). «Experimental Regulations for AI: Sandboxes for Morals and Mores». University of Groningen Faculty of Law Research Paper, 7/2021, disponible en Internet: http://dx.doi.org/10.2139/ssrn.3839744 (última consulta el 9 de julio de 2022).
  • Roig Batalla, A. (2020). Las garantías frente a las decisiones automatizadas, Barcelona, J. M. Bosch.
  • Rosales Torres, C. S. et. al. (2021). «Autoevaluación ética de IA para actores del ecosistema emprendedor: Guía de aplicación». Disponible en Internet: https://publications.iadb.org/publications/spanish/document/Autoevaluacion-etica-de-IA-para-actores-del-ecosistema-emprendedor-Guia-de-aplicacion.pdf (última consulta el 9 de julio de 2022).
  • Russell, S. J. y Norvig, P. (1995). Artificial Intelligence: A Modern Approach. New Jersey, Prentice Hall.
  • Rustad, M. L. y Koenig, T. H. (2019). «Towards a global data privacy standard». Florida Law Review, 71, 365-454.
  • Salvador Martínez, M. (2001). «Sobre el contenido objetivo de los derechos fundamentales», en Aparicio, M. A. (Coord.). Derechos constitucionales y formas políticas. Actas del Congreso sobre derechos constitucionales y Estado autonómico, Barcelona, Cedecs, 199-219.
  • Sarrión Esteve, J. (2020). «El derecho constitucional en la era de la inteligencia artificial, los robots y los drones», en Pérez Miras, A. et. al (Dirs.), Setenta años de Constitución Italiana y cuarenta años de Constitución, Vol. 5, Madrid, Centro de Estudios Políticos y Constitucionales, 321-334, p. 328.
  • Shahriari, K. y Shahriari, M. (2017). IEEE standard review — Ethically Aligned Design. A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, p. 70, disponible en Internet: https://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf (última consulta el 9 de julio de 2022).
  • Simón Castellano, P. y Dorado Ferrer, J. (2022). «Límites y garantías constitucionales frente a la identificación biométrica». Revista de Internet, Derecho y Política (IDP), 35, 1-13.
  • Simón Castellano, P. (2015). El reconocimiento del derecho al olvido digital en España y en la UE, Barcelona, Bosch.
  • Simón Castellano, P. (2021). Justicia cautelar e inteligencia artificial: la alternativa a los atávicos heurísticos judiciales, Barcelona, J. M. Bosch.
  • Simón Castellano, P. (2022). La prisión algorítmica: Prevención, reinserción social y tutela de derechos fundamentales en el paradigma de los centros penitenciarios inteligentes, València, Tirant lo Blanch.
  • Smuha, N. A. et al. (2021). «How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission’s Proposal for an Artificial Intelligence Act». Disponible en Internet: http://dx.doi.org/10.2139/ssrn.3899991 (última consulta el 9 de julio de 2022).
  • Tulio Ribeiro, M. et al. (2016). «Why Should I Trust You?: Explaining the Predictions of Any Classifier». KDD '16: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135–1144.
  • UNESCO. (2021). «First draft of the recommendation on the ethics of artificial intelligence». Disponible en Internet: https://unesdoc.unesco.org/ark:/48223/pf0000373434 (última consulta el 9 de julio de 2022).
  • Wachter, S. y Mittelstadt, B. (2019). «A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI». Columbia Business Law Review, 2, 494-620.
  • Warren, S. D. y Brandeis, L. D. (1890). «The Right to Privacy». Harvard Law Review, 4, 5, 193-220.
  • Wright, D. (2011). «A framework for the ethical impact assessment of information technology». Ethics Inf Technol, 13, 3, 199-226.