Hemos creado una demostración práctica de vulnerabilidades de prompt injection en agentes de IA locales. Descubre cómo un modelo puede ser manipulado para exfiltrar información sensible y qué modelos resisten mejor estos ataques.