
Jailbreaking en modelos de IA: una amenaza silenciosa que aún no está resuelta
Investigadores alertan que los principales modelos de lenguaje siguen siendo vulnerables al jailbreaking, una técnica que permite eludir sus filtros de seguridad y acceder a contenido sensible o ilegal.