Mostrar el registro sencillo del ítem
Definición de Controles, Procesos y Estructuras para el Diseño de un Sistema de Inteligencia Artificial Responsable
| dc.contributor.author | Alvear-Aguirre, Isabel Gardenia | |
| dc.contributor.author | Flores-Villamil, Edwin Vladimir | |
| dc.contributor.author | Ortiz-Albán, Iván Josué | |
| dc.date | 2025-02-12 | |
| dc.date.accessioned | 2025-12-04T12:39:10Z | |
| dc.date.available | 2025-12-04T12:39:10Z | |
| dc.identifier.uri | https://reunir.unir.net/handle/123456789/18545 | |
| dc.description | With the rise of artificial intelligence, humans use AI but also with every action they inevitably leave behind information that will train AI algorithms to make automatic decisions. In this context, different proposals have emerged in the West to establish ethical and responsible boundaries for the use of AI and personal information. This paper analyses the current risks of AI use, the self-regulations of the big companies that develop and use it (Google, Meta, Amazon, Open AI and Microsoft), the regulations in force in the European Union, such as the guidelines for trustworthy AI (2019), the general data protection regulation (2016), the AI regulation (2024), as well as different initiatives from researchers and academia (Cisco Systems - Oxford University, Stanford University) and combines them to provide companies in the West with a tool or framework to assess their level of responsible AI compliance with current regulations to support them in defining the necessary controls, processes and structures to deliver responsibly conceived, developed and implemented AI products or services that are human-centric without putting them or their fundamental rights at risk. The combination of the Western initiatives resulted in 181 final questions (171 related to the AI product or service and 10 about the company), which were applied to one company to assess its level of responsible AI. As a result, the company reached the overall level 2 (on a scale of 5) of responsible AI with 422 points and a weighted level of responsible AI of 2,4294, which matches the overall level. The level of each area was also assessed to identify specific recommendations to entrench level 2 and take it to level 4 to be considered a responsible AI. | es_ES |
| dc.description.abstract | Con el apogeo de la inteligencia artificial, el hombre utiliza ésta, pero también con cada acción inevitablemente deja información que entrenará algoritmos de IA que tomarán decisiones automáticas. En este contexto, en occidente han surgido diferentes propuestas para establecer límites éticos y responsables para el uso de IA y la información personal. Este trabajo analiza los riesgos actuales del uso de la IA, las autorregulaciones de las grandes empresas que la desarrollan y la utilizan (Google, Meta, Amazon, Open AI y Microsoft), las reglamentaciones vigentes en la Unión Europea, como las directrices para una IA fiable (2019), el reglamento general de protección de datos (2016), el reglamento de la IA (2024), así como diferentes iniciativas de investigadores y de la academia (Cisco Systems - Universidad de Oxford, Universidad de Stanford) y las combina para ofrecer a las empresas de occidente, una herramienta o marco de trabajo que les permita evaluar su nivel de cumplimiento de IA responsable conforme la normativa vigente para apoyarlos a definir los controles, procesos y estructuras necesarias para ofrecer productos o servicios de IA concebidos, desarrollados e implementados responsablemente, que estén centrados en el ser humano sin arriesgarlo a él o a sus derechos fundamentales. Con la combinación de las iniciativas de occidente se llegó a 181 preguntas finales (171 relacionadas al producto o servicio de IA y 10 acerca de la empresa), que se aplicaron a una empresa para evaluar su nivel de IA responsable. Como resultado se obtuvo que la empresa alcanzó el nivel global 2 (en una escala de 5) de IA responsable con 422 puntos y un nivel ponderado de IA responsable de 2,4294 que coincide con el nivel global. También se evalúo el nivel de cada área para identificar recomendaciones específicas para afianzar el nivel 2 y llevarla al nivel 4 para ser considerada IA responsable. | es_ES |
| dc.language.iso | spa | es_ES |
| dc.rights | openAccess | es_ES |
| dc.subject | IA responsable en Occidente | es_ES |
| dc.subject | IA ética | es_ES |
| dc.subject | IA confiable | es_ES |
| dc.subject | modelo de madurez en IA responsable | es_ES |
| dc.subject | IA responsable | es_ES |
| dc.subject | medición IA responsable | es_ES |
| dc.subject | Responsible AI in the West | es_ES |
| dc.subject | ehical AI | es_ES |
| dc.subject | trusthworthy AI | es_ES |
| dc.subject | responsible IA maturity model | es_ES |
| dc.subject | responsible IA | es_ES |
| dc.subject | responsible IA measure | es_ES |
| dc.subject | Máster Universitario en Inteligencia artificial | es_ES |
| dc.title | Definición de Controles, Procesos y Estructuras para el Diseño de un Sistema de Inteligencia Artificial Responsable | es_ES |
| dc.type | masterThesis | es_ES |
| reunir.tag | ~MIA | es_ES |





