
· Manuel López Pérez · writeups
Seguridad en LLMs: Modelado de Amenazas y Prompt Injection
Análisis exhaustivo de las amenazas de seguridad en Large Language Models (LLMs), técnicas de ataque como prompt injection, y caso práctico del reto A.D.I.C. 7 del CyberH2O CTF.


