
Jailbreaking en modelos de IA: una amenaza silenciosa que aún no está resuelta
Investigadores alertan que los principales modelos de lenguaje siguen siendo vulnerables al jailbreaking, una técnica que permite eludir sus filtros de seguridad y acceder a contenido sensible o ilegal.

Geoffrey Hinton advierte sobre los límites del RLHF y los riesgos reales de la IA avanzada 🚨
¿Qué tan seguros son los sistemas de inteligencia artificial que usamos hoy? Geoffrey Hinton, pionero del deep learning, cree que los estamos «pintando por fuera» sin resolver los verdaderos riesgos que esconden.

¿Es Peligrosa la IA? Las Advertencias de los Creadores de OpenAI y Google DeepMind
Si quienes crearon la IA están preocupados por su avance, ¿deberíamos preocuparnos también? Demis Hassabis y Ilya Sutskever advierten sobre un futuro incierto en el que la IA podría superar a la humanidad.