Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial
Autor:
Simón Castellano, Pere
Fecha:
2023Palabra clave:
inteligencia artificial; protección de datos; transparencia; explicabilidad; seguridad; dignidad humana; dimensión objetiva de los derechos fundamentales; garantías institucionales; gobernanza algorítmica; igorithmic governance; artificial intelligence; data protection; explainability; human dignity; institutional guarantees; objective dimension of fundamental rights; security; transparency; Scopus; Emerging
Revista / editorial:
Revista de Derecho PoliticoCitación:
Simón Castellano, P. (2023). Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial. Revista De Derecho Político, (117), 153–196. https://doi.org/10.5944/rdp.117.2023.37929Tipo de Ítem:
Articulo Revista IndexadaResumen:
En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.
Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.
El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.
La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.
Descripción:
This article studies the enormous challenge projected by artificial intelligence systems for the rights of people, proposing the terms of the debate with a proposal that responds to key questions —what, why, who and how— and that is specified in the definition of the taxonomy of guarantees against the use of algorithms for decision-making that produce legal effects for individuals. Given the insufficiency of a response based on the legal framework of data protection, and the limitations of an approach focused exclusively on transparency and the right of access, the author defends the need to find support for systemic measures and guarantees in the human dignity, the free development of the personality and the objective dimension of fundamental rights. A broader vision, which goes beyond individual rights and considers the social or collective dimension of the problem, along the same lines as the European proposal for a harmonized regulation on the matter. The debate should focus, in the author’s opinion, around plausible, possible uses and the guarantees linked to their use, accepting a co-regulation model based on the principle of proactive responsibility and self-assessments of impact, which are imposed in the practice by pragmatism, to obtain certain efficiency and mitigate risks in the design, training, use and monitoring of technological tools. The proposal formulated in the work incorporates up to five categories —transparency, explainability, security, subjective and institutional guarantees— which, in turn, are made up of different properties and subcategories, and whose effectiveness or relevance depends on each specific case —nature, context and scope of the technology and its use.
Ficheros en el ítem
Nombre: Taxonomía_de_las_garantías_jurídicas_en_el_empleo.pdf
Tamaño: 812.3Kb
Formato: application/pdf
Este ítem aparece en la(s) siguiente(s) colección(es)
Estadísticas de uso
Año |
2012 |
2013 |
2014 |
2015 |
2016 |
2017 |
2018 |
2019 |
2020 |
2021 |
2022 |
2023 |
2024 |
Vistas |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
56 |
243 |
Descargas |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
95 |
198 |
Ítems relacionados
Mostrando ítems relacionados por Título, autor o materia.
-
Internet, redes sociales y juicios paralelos: un viejo conocido en un nuevo escenario
Simón Castellano, Pere (Revista de derecho politico, 2021)En el presente artículo se estudia la patología informativa que suponen los llamados juicios paralelos, así como sus efectos para los derechos y garantías jurídico-constitucionales. El problema, en los últimos años, lejos ... -
Remand in Spain and the state's liability: two reforms that remain outstanding
Simón Castellano, Pere (Revista Catalana de Dret Públic, 12/2020)This article examines the controversial measure of remand in Spain in the light of two striking facts: firstly, the ubiquity of this preventative measure in judicial practice (at the beginning of the year, 16% of the prison ... -
Inteligencia artificial y Administración de Justicia: ¿Quo vadis, justitia?
Simón Castellano, Pere (Universitat Oberta de Catalunya, 2021)La presencia en nuestra vida cotidiana de las más modernas tecnologías de la información y la comunicación, así como de la llamada inteligencia artifi cial (IA), es cada vez mayor a la par que más valiosa. Las ...