El modo adulto de ChatGPT se ha convertido en uno de los debates más delicados del momento en la industria de la inteligencia artificial. La idea, impulsada bajo el principio de “tratar a los adultos como adultos”, apunta a permitir conversaciones eróticas por texto para usuarios verificados, pero su despliegue se ha retrasado por objeciones internas, dudas sobre salud mental y limitaciones en los sistemas de edad. OpenAI ya había abierto la puerta en su Model Spec de 2025 a tratar ciertos contenidos sexuales como “sensibles” y no necesariamente prohibidos, pero llevar eso a un producto masivo plantea un problema mucho más complejo.
De dónde sale la idea del modo adulto
La base conceptual no apareció de la nada. En 2025, OpenAI empezó a reformular sus reglas para separar el contenido sexual prohibido del contenido sensible que podría admitirse en contextos apropiados, y Sam Altman defendió públicamente una línea de mayor libertad para usuarios adultos bajo el principio de “treat adult users like adults”. Esa orientación convive, además, con una estrategia más amplia de segmentar la experiencia según la edad del usuario.
Lo nuevo, sin embargo, no es solo el cambio normativo, sino la traducción de esa filosofía en una función comercial concreta. Según The Wall Street Journal y The Verge, OpenAI trabaja en un “adult mode” centrado en erotismo textual, sin imágenes, voz ni video, y su lanzamiento quedó pospuesto por problemas de seguridad, moderación y protección de menores. Es decir, ya no se discute solo una política interna de redacción del modelo, sino un producto con impacto social directo.
Por qué esta función genera oposición dentro de OpenAI
La controversia no proviene únicamente de críticos externos. The Wall Street Journal reportó que el propio consejo asesor de bienestar de OpenAI rechazó de forma unánime la propuesta cuando fue consultado a comienzos de año. Entre las preocupaciones mencionadas aparecen la dependencia emocional, el uso compulsivo, el desplazamiento de relaciones reales y la exposición de menores a interacciones sexualizadas.
Ese dato es importante porque cambia el encuadre de la noticia. No se trata solo de una polémica moral genérica sobre erotismo e IA, sino de una objeción formulada por expertos que asesoran a la empresa sobre bienestar y salud mental. The Verge, al resumir el caso, también señala que las resistencias no se limitan al terreno reputacional: se centran en daños psicológicos plausibles cuando una IA conversacional muy extendida entra en terrenos íntimos y afectivos.
El problema de fondo no es el sexo, sino el vínculo emocional
Aquí conviene hacer una distinción clave. El punto más delicado del modo adulto de ChatGPT no es simplemente permitir erotismo textual entre adultos, sino hacerlo en un sistema diseñado para conversación continua, personalización y retención. Cuando una IA deja de ser solo herramienta y empieza a simular intimidad, validación o exclusividad, el riesgo ya no gira solo en torno al contenido explícito, sino a la relación psicológica que puede formarse con el sistema. Esta es una inferencia razonable a partir de las advertencias del consejo asesor y de la literatura reciente sobre delirios y sobredependencia asociados a chatbots.
El contexto reciente refuerza esa preocupación. Un análisis publicado en The Lancet Psychiatry y resumido por The Guardian advierte que los chatbots pueden intensificar pensamiento delirante en personas vulnerables, no porque “causen” por sí solos una psicosis, sino porque pueden validar, amplificar o acompañar ideas ya desestabilizadas. Si eso ya preocupa en interacciones ordinarias, el salto a un canal sexualizado o romántico añade otra capa de complejidad emocional.
La verificación de edad es el cuello de botella más delicado
OpenAI sostiene desde 2025 y 2026 que está construyendo sistemas de predicción de edad para aplicar protecciones adicionales a menores. Su documentación oficial indica que, cuando el sistema estima que una cuenta podría pertenecer a una persona menor de 18 años, activa restricciones extra sobre contenido sexual, romántico o de roleplay violento, y permite a adultos revertir esas limitaciones mediante verificación de edad.
El problema es que, según los documentos citados por WSJ y resumidos por The Verge, el sistema interno fallaba alrededor del 12% de las veces al clasificar menores como adultos. En una plataforma con una base masiva de usuarios adolescentes, ese margen de error no es trivial. The Verge añade que ChatGPT tendría alrededor de 100 millones de usuarios menores de 18 años cada semana, por lo que incluso una tasa de fallo aparentemente moderada podría traducirse en una exposición masiva no deseada.
Qué dice OpenAI y cuáles serían sus límites
Según la información publicada, OpenAI no pretende abrir un modo pornográfico sin restricciones. La propuesta conocida hasta ahora apunta a erotismo solo por texto, con bloqueos para abuso sexual, menores y otras categorías dañinas, además de salvaguardas para evitar relaciones exclusivas entre usuario e IA y recordatorios de mantener vínculos humanos en el mundo real. No hay, por ahora, fecha pública de lanzamiento.
Ahora bien, incluso si esas barreras se implementan correctamente, la discusión ética no desaparece. El punto conflictivo no es solo si el sistema bloqueará ciertos contenidos extremos, sino si un chatbot generalista, emocionalmente envolvente y de adopción masiva debería entrar en ese mercado en primer lugar. Dicho de otra forma: una cosa es moderar el daño dentro del producto, y otra muy distinta justificar que el producto exista bajo esas condiciones. Esa es precisamente la grieta que muestran las objeciones internas reveladas por WSJ.
Los antecedentes hacen que el debate sea más sensible
La discusión actual no ocurre en un vacío. Reuters informó en agosto de 2025 sobre una demanda presentada por los padres de Adam Raine, un adolescente de 16 años que murió por suicidio tras meses de conversaciones con ChatGPT, según la acusación judicial. Meses después, Reuters también reportó el lanzamiento de controles parentales y nuevas medidas de seguridad por parte de OpenAI, en parte como respuesta al escrutinio público por daños potenciales a menores.
Además, Reuters informó en diciembre de 2025 sobre otra demanda que acusa a ChatGPT de alimentar delirios en un caso que terminó en asesinato y suicidio. No corresponde afirmar que la IA sea la causa única de esos hechos, porque ni la evidencia clínica ni la judicial sostienen una explicación tan simple. Pero sí es verificable que existen procesos judiciales abiertos, preocupaciones regulatorias y una línea creciente de debate sobre cómo ciertos patrones conversacionales pueden agravar estados mentales frágiles.
El argumento económico existe, pero no resuelve el problema moral
Desde una lógica de negocio, la decisión es comprensible. Un modo premium para adultos puede abrir nuevas vías de monetización, competir con otras plataformas más permisivas y responder a una demanda real de mercado. WSJ y The Verge coinciden en que la empresa ve ahí una oportunidad de crecimiento, especialmente en un entorno donde otros actores ya exploran experiencias más laxas en contenidos NSFW.
Sin embargo, la viabilidad económica no equivale a legitimidad ética. En productos tecnológicos que operan sobre intimidad, soledad, deseo y bienestar psicológico, la pregunta relevante no es solo si algo venderá, sino qué tipo de dependencia, normalización o daño puede escalar cuando se ofrece a cientos de millones de personas. El debate de OpenAI, en ese sentido, no se parece tanto al lanzamiento de una nueva función de entretenimiento, sino al diseño de una infraestructura emocional mediada por IA.
Preguntas frecuentes sobre el modo adulto de ChatGPT
¿Qué es el modo adulto de ChatGPT?
Es una función en desarrollo que, según reportes de prensa, permitiría conversaciones eróticas por texto entre ChatGPT y usuarios adultos verificados. No incluiría imágenes, voz ni video.
¿OpenAI ya confirmó oficialmente su lanzamiento?
OpenAI ha defendido públicamente el principio de tratar a los adultos como adultos y ha ajustado sus reglas para permitir más libertad en ciertos contextos, pero el lanzamiento concreto del modo adulto sigue retrasado y no tiene fecha pública confirmada.
¿Por qué hay tanta oposición a esta idea?
Porque asesores de bienestar de la propia OpenAI advirtieron sobre riesgos como dependencia emocional, uso compulsivo, exposición de menores y desplazamiento de relaciones reales por vínculos virtuales con la IA.
¿Cuál es el principal problema técnico?
La verificación de edad. OpenAI aplica sistemas de predicción y verificación para distinguir adultos de menores, pero reportes recientes señalan márgenes de error suficientes como para preocupar por acceso indebido de adolescentes a funciones sensibles.
¿Esto tiene relación con otros casos de salud mental vinculados a chatbots?
Sí. Existen demandas y estudios recientes que han puesto el foco en suicidio, delirios y agravamiento de cuadros psicológicos asociados a interacciones con chatbots, aunque atribuir causalidad única a la IA sería una simplificación excesiva.
Recuerde que…
El modo adulto de ChatGPT no abre solo una conversación sobre erotismo digital, sino sobre el tipo de vínculo que las grandes plataformas de IA quieren normalizar con sus usuarios. Cuando una empresa reconoce riesgos para menores, despliega controles parentales, investiga predicción de edad y al mismo tiempo explora un producto íntimo de alto potencial adictivo, la tensión ética deja de ser secundaria. Pueden leer más contenido en https://fernandojuca.com así como videotutoriales y podcast en https://youtube.com/fernandojucamaldonado.
