Mostrar el registro sencillo del ítem

dc.contributor.authorCárdenas-Londoño, Sebastián
dc.date2024-10-23
dc.date.accessioned2025-11-28T10:33:27Z
dc.date.available2025-11-28T10:33:27Z
dc.identifier.urihttps://reunir.unir.net/handle/123456789/18493
dc.descriptionThis study examines the reliability and effectiveness of Large Language Models (LLMs) in configuring next-generation firewalls, offering a comparative perspective with conventional methods in cybersecurity. To this end, reference guidelines from organizations such as NIST and CIS were identified, and four LLMs (ChatGPT, Gemini, LLaMA 3, and Claude) were selected to generate security configurations in real-world scenarios. These configurations were assessed against standards and official guides from two leading manufacturers (Fortinet and Check Point). The analysis included policies for access control, application control, intrusion prevention (IPS), and user identity-based authentication. The results indicate that, while LLMs can produce initial configurations in less time with a reasonable degree of adequacy, shortcomings persist in advanced parameters and in detecting encrypted threats. These omissions may increase exposure to risks, highlighting the continued need for expert validation. Nevertheless, it is concluded that LLMs represent a valuable resource to support less-experienced professionals by accelerating the learning curve and facilitating firewall policy implementation. Finally, this work proposes further research to align these models with more demanding security practices and to explore automated methods for verification and correction of configurations.es_ES
dc.description.abstractEste piloto experimental examina la confiabilidad y eficacia de los Modelos de Lenguaje de Gran Escala (LLMs) en la configuración de firewalls de próxima generación, ofreciendo una visión comparativa con los métodos convencionales en ciberseguridad. Para ello, se identificaron lineamientos de referencia a partir de organizaciones como el NIST y el CIS, y se seleccionaron cuatro LLMs (ChatGPT, Gemini, LLaMA 3 y Claude) con el propósito de generar configuraciones de seguridad en escenarios reales. Dichas configuraciones se evaluaron frente a estándares y guías oficiales de dos fabricantes líderes (Fortinet y Check Point). El análisis incluyó políticas de control de acceso, aplicaciones, prevención de intrusiones (IPS) y autenticación basada en identidad de usuario. Los resultados indican que, si bien los LLMs producen configuraciones iniciales en menor tiempo y con un grado razonable de adecuación, persisten carencias en parámetros avanzados y en la detección de amenazas cifradas. Estas omisiones pueden incrementar la exposición a riesgos, por lo que la validación experta sigue siendo necesaria. Aun así, se concluye que los LLMs constituyen un recurso de apoyo valioso para profesionales con menor experiencia, al permitir una curva de aprendizaje acelerada y facilitar la implementación de políticas de firewall. Se propone, finalmente, profundizar en la alineación de estos modelos con prácticas de seguridad más exigentes y explorar métodos automatizados de verificación y corrección de configuraciones.es_ES
dc.language.isospaes_ES
dc.rightsopenAccesses_ES
dc.subjectinteligencia artificiales_ES
dc.subjectmodelos de lenguajees_ES
dc.subjectciberseguridades_ES
dc.subjectfirewalls de nueva generaciónes_ES
dc.subjectconfiguración seguraes_ES
dc.subjectlarge language modelses_ES
dc.subjectcybersecurityes_ES
dc.subjectnext-generation firewallses_ES
dc.subjectbest practiceses_ES
dc.subjectconfiguration automationes_ES
dc.subjectMáster Universitario en Ciberseguridades_ES
dc.titleEvaluación del Impacto de los LLM en la Ciberseguridad: Mejoras y Riesgos Potenciales.es_ES
dc.typemasterThesises_ES
reunir.tag~MUCSes_ES


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem