🚨 Una oferta laboral fuera de lo común
En un sector acostumbrado a sueldos elevados, una advertencia pública como esta no pasa desapercibida. Sam Altman, director ejecutivo de OpenAI, anunció una vacante con un mensaje directo: “Será un trabajo estresante y tendrás que sumergirte de lleno desde el primer momento”.
La compensación acompaña la franqueza: hasta 555.000 dólares anuales de salario base, más acciones. La misión no es menor: anticipar, medir y contener los riesgos más graves de la inteligencia artificial avanzada.
🧠 ¿Qué es el “Responsable de Preparación” en OpenAI?
El puesto, denominado Head of Preparedness, no es simbólico ni consultivo. Se trata de un rol con poder real de decisión, encargado de determinar si un modelo de IA debe o no ser lanzado al público, incluso si eso implica perder ventaja competitiva.
Sus responsabilidades incluyen:
-
Evaluaciones técnicas de riesgo
-
Modelos de amenazas
-
Pruebas de abuso deliberado
-
Estrategias de mitigación
-
Decisiones críticas de despliegue
No se busca un portavoz, sino el responsable directo de evitar daños a gran escala.
⚠️ Qué riesgos preocupan realmente a OpenAI
Según la propia compañía, los modelos actuales ya han comenzado a mostrar capacidades sensibles:
-
Detección de vulnerabilidades críticas en ciberseguridad
-
Influencia en estados mentales y comportamiento humano
-
Potencial reutilización con fines destructivos
Altman ha reconocido que en 2025 OpenAI ya observó impactos reales en salud mental y un avance acelerado en capacidades de seguridad ofensiva.
📊 Qué entiende OpenAI por “daño severo”
El marco interno de OpenAI define daño severo como escenarios que pueden implicar:
| Tipo de impacto | Escala considerada |
|---|---|
| Daños humanos | Miles de muertes o lesiones graves |
| Impacto económico | Pérdidas de cientos de miles de millones |
| Seguridad | Riesgos biológicos, químicos o ciberataques críticos |
| IA avanzada | Sistemas con capacidad de auto-mejora |
Este lenguaje es más propio de planes de contingencia gubernamentales que de una oferta publicada en redes sociales.
🏗️ Seguridad antes que velocidad
Durante años, la crítica recurrente a las grandes empresas de IA fue priorizar lanzamientos rápidos sobre seguridad. Con esta contratación, OpenAI intenta institucionalizar la responsabilidad, colocando a una persona concreta —bien pagada y bajo enorme presión— al frente del peor escenario posible.
El responsable de preparación supervisará áreas consideradas de máximo riesgo: ciberseguridad, capacidades biológicas y químicas, y sistemas con potencial de auto-mejora.
🌍 Un contexto de presión creciente
La oferta llega en un momento delicado para OpenAI:
-
Tensiones internas y salidas de responsables de seguridad
-
Críticas públicas por relegar la cultura de seguridad
-
Creciente escrutinio regulatorio y judicial
-
Desconfianza social hacia la expansión de la IA
Encuestas recientes en Estados Unidos muestran que la mayoría de la población percibe más riesgos que beneficios en la IA avanzada y prefiere regulaciones estrictas, incluso si ralentizan la innovación.
🧩 Un empleo que no es para cualquiera
Este puesto no promete comodidad ni visibilidad pública. Promete presión constante, decisiones impopulares y la responsabilidad directa de frenar una tecnología poderosa cuando sea necesario.
El salario, más que un incentivo, funciona como una señal clara: el coste del error sería inmenso.
❓ Preguntas frecuentes (FAQ)
¿Por qué OpenAI paga tanto por este puesto?
Porque implica responsabilidad directa sobre riesgos existenciales y decisiones estratégicas críticas.
¿El responsable puede frenar un lanzamiento?
Sí. Esa es una de sus funciones principales.
¿Es un rol técnico o ético?
Principalmente técnico y operativo, con implicaciones éticas y estratégicas.
¿Refleja un cambio de enfoque en OpenAI?
Indica un intento explícito de reforzar la seguridad frente a la presión competitiva.
👉 Para más análisis sobre inteligencia artificial, riesgos tecnológicos y el futuro del trabajo, visita fernandojuca.com y el canal youtube.com/fernandojucamaldonado.




