Los LLM (Large Language Model) son una clase de modelos de inteligencia artificial que han revolucionado la forma en que las máquinas interpretan y generan el lenguaje humano. La seguridad y la auditoría son temas críticos cuando se trata de aplicaciones basadas en grandes modelos de lenguaje, como los modelos GPT (Generative Pre-trained Transformer).
Esta charla pretende analizar la seguridad de estos modelos de lenguaje desde el punto de vista del desarrollador, analizando las principales vulnerabilidades que se pueden producir en la generación de estos modelos. Entre los principales puntos a tratar podemos destacar:
Introducción a LLM
Introducción al OWASP LLM Top 10
Seguridad en aplicaciones que manejan modelos LLM.
Herramientas de auditoría en aplicaciones que manejan modelos LLM.
Caso de uso con la herramienta textattack para realizar ataques adversarios