Mostrar el registro sencillo del ítem

dc.contributor.authorAlvear-Aguirre, Isabel Gardenia
dc.contributor.authorFlores-Villamil, Edwin Vladimir
dc.contributor.authorOrtiz-Albán, Iván Josué
dc.date2025-02-12
dc.date.accessioned2025-12-04T12:39:10Z
dc.date.available2025-12-04T12:39:10Z
dc.identifier.urihttps://reunir.unir.net/handle/123456789/18545
dc.descriptionWith the rise of artificial intelligence, humans use AI but also with every action they inevitably leave behind information that will train AI algorithms to make automatic decisions. In this context, different proposals have emerged in the West to establish ethical and responsible boundaries for the use of AI and personal information. This paper analyses the current risks of AI use, the self-regulations of the big companies that develop and use it (Google, Meta, Amazon, Open AI and Microsoft), the regulations in force in the European Union, such as the guidelines for trustworthy AI (2019), the general data protection regulation (2016), the AI regulation (2024), as well as different initiatives from researchers and academia (Cisco Systems - Oxford University, Stanford University) and combines them to provide companies in the West with a tool or framework to assess their level of responsible AI compliance with current regulations to support them in defining the necessary controls, processes and structures to deliver responsibly conceived, developed and implemented AI products or services that are human-centric without putting them or their fundamental rights at risk. The combination of the Western initiatives resulted in 181 final questions (171 related to the AI product or service and 10 about the company), which were applied to one company to assess its level of responsible AI. As a result, the company reached the overall level 2 (on a scale of 5) of responsible AI with 422 points and a weighted level of responsible AI of 2,4294, which matches the overall level. The level of each area was also assessed to identify specific recommendations to entrench level 2 and take it to level 4 to be considered a responsible AI.es_ES
dc.description.abstractCon el apogeo de la inteligencia artificial, el hombre utiliza ésta, pero también con cada acción inevitablemente deja información que entrenará algoritmos de IA que tomarán decisiones automáticas. En este contexto, en occidente han surgido diferentes propuestas para establecer límites éticos y responsables para el uso de IA y la información personal. Este trabajo analiza los riesgos actuales del uso de la IA, las autorregulaciones de las grandes empresas que la desarrollan y la utilizan (Google, Meta, Amazon, Open AI y Microsoft), las reglamentaciones vigentes en la Unión Europea, como las directrices para una IA fiable (2019), el reglamento general de protección de datos (2016), el reglamento de la IA (2024), así como diferentes iniciativas de investigadores y de la academia (Cisco Systems - Universidad de Oxford, Universidad de Stanford) y las combina para ofrecer a las empresas de occidente, una herramienta o marco de trabajo que les permita evaluar su nivel de cumplimiento de IA responsable conforme la normativa vigente para apoyarlos a definir los controles, procesos y estructuras necesarias para ofrecer productos o servicios de IA concebidos, desarrollados e implementados responsablemente, que estén centrados en el ser humano sin arriesgarlo a él o a sus derechos fundamentales. Con la combinación de las iniciativas de occidente se llegó a 181 preguntas finales (171 relacionadas al producto o servicio de IA y 10 acerca de la empresa), que se aplicaron a una empresa para evaluar su nivel de IA responsable. Como resultado se obtuvo que la empresa alcanzó el nivel global 2 (en una escala de 5) de IA responsable con 422 puntos y un nivel ponderado de IA responsable de 2,4294 que coincide con el nivel global. También se evalúo el nivel de cada área para identificar recomendaciones específicas para afianzar el nivel 2 y llevarla al nivel 4 para ser considerada IA responsable.es_ES
dc.language.isospaes_ES
dc.rightsopenAccesses_ES
dc.subjectIA responsable en Occidentees_ES
dc.subjectIA éticaes_ES
dc.subjectIA confiablees_ES
dc.subjectmodelo de madurez en IA responsablees_ES
dc.subjectIA responsablees_ES
dc.subjectmedición IA responsablees_ES
dc.subjectResponsible AI in the Westes_ES
dc.subjectehical AIes_ES
dc.subjecttrusthworthy AIes_ES
dc.subjectresponsible IA maturity modeles_ES
dc.subjectresponsible IAes_ES
dc.subjectresponsible IA measurees_ES
dc.subjectMáster Universitario en Inteligencia artificiales_ES
dc.titleDefinición de Controles, Procesos y Estructuras para el Diseño de un Sistema de Inteligencia Artificial Responsablees_ES
dc.typemasterThesises_ES
reunir.tag~MIAes_ES


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem