El GitHub Security Lab ha iniciado un experimento utilizando modelos de lenguaje de gran escala (LLMs) para clasificar alertas de seguridad de manera más eficiente. Estos modelos, integrados en el marco de trabajo GitHub Security Lab Taskflow Agent, muestran prometedores resultados al tratar con patrones difusos que los métodos tradicionales no pueden detectar fácilmente, logrando identificar y corregir cerca de 30 vulnerabilidades desde agosto.
Este enfoque se centra en automatizar tareas repetitivas, típicamente manuales, mediante flujos de trabajo conocidos como «taskflows», descritos como archivos YAML que especifican una serie de tareas a realizar con un LLM. Esto no sólo reduce el número de falsos positivos en los reportes, sino que también agiliza el trabajo de los auditores que, antes, debían identificar manualmente ciertos patrones complejos en el código.
Durante el procedimiento, se obtienen y auditan resultados de CodeQL. A través de procesos estructurados y colaborativos, el LLM se encarga de revisar los indicadores y generar informes detallados que permiten a los humanos tomar decisiones precisas sobre la seguridad de un sistema. Cabe destacar que los taskflows dividen las tareas en etapas, recolectando información crítica sobre permisos y disparadores, y validando la existencia de medidas de control correctas.
El uso de estos flujos de trabajo no invalida la revisión manual; aún se recomienda una revisión humana exhaustiva en todas las etapas para asegurar la exactitud de los informes generados. El enfoque también busca evitar errores comunes, ofreciendo instrucciones claras y criterios específicos para definir lo que constituye una vulnerabilidad legítima.
Además, el proceso abarca la creación de Issues en GitHub para el seguimiento de las alertas, lo que no solo facilita la revisión, sino también la incorporación de conocimientos específicos de repositorios, aumentando así la eficacia del sistema para futuras evaluaciones de seguridad.
Este avance tecnológico es un paso más hacia la integración de la inteligencia artificial en procesos críticos de seguridad, donde el GitHub Security Lab está dispuesto a compartir su tecnología y resultados, esperando que inspire a otros a desarrollar sus propios flujos de trabajo automatizados.
vÃa: Github Open Source

