🧠 El jailbreak que burló a ChatGPT En un hallazgo que encendió las alarmas en el mundo de la ciberseguridad, el investigador Marco Figueroa logró que ChatGPT revelara claves de activación de Windows 10. Lo hizo sin pirateo técnico, sin hackeo de servidores… sino simplemente usando lenguaje. El método no atacó al sistema desde el…