🤖 ¿Qué ha cambiado en Claude?
Anthropic, creadora de Claude, anunció una actualización en sus condiciones de servicio y política de privacidad que cambia la forma en que se gestionan los datos de los usuarios:
-
Los planes Free, Pro y Max, incluidos Claude Code, ahora requieren que cada usuario decida si permite que sus conversaciones se utilicen para entrenar futuros modelos.
-
El plazo para aceptar o rechazar esta política vence el 28 de septiembre de 2025.
-
Quedan fuera los servicios sujetos a términos comerciales como:
-
Claude for Work
-
Claude Gov
-
Claude for Education
-
Accesos mediante API en Amazon Bedrock o Vertex AI de Google Cloud
-
👉 La medida afecta solo a conversaciones y sesiones de código futuras. Los chats antiguos sin actividad no se usarán para entrenar modelos.
📊 ¿Por qué este cambio?
Anthropic argumenta que los modelos de lenguaje necesitan grandes cantidades de datos para mejorar en áreas clave como:
-
Razonamiento lógico
-
Comprensión contextual
-
Corrección y generación de código
Además, existe un contexto más amplio:
-
La web abierta se está agotando como fuente fresca de información.
-
Las compañías de IA buscan nuevas formas de obtener datos relevantes.
-
Las conversaciones reales de usuarios representan un insumo estratégico para mantener la competencia frente a OpenAI y Google.
🛡️ Privacidad y seguridad: lo que promete Anthropic
La compañía asegura que el objetivo es mejorar la seguridad y reforzar las salvaguardas frente a abusos como el phishing o las estafas. Entre las medidas anunciadas destacan:
-
📁 Retención de datos ampliada:
-
5 años si el usuario acepta el uso de sus datos.
-
30 días si el usuario no activa esta opción.
-
-
🗑️ Los chats eliminados no se utilizarán en entrenamientos futuros.
-
📝 El feedback enviado por usuarios puede conservarse para análisis.
-
🔒 Procesos de filtrado y ofuscación de información sensible.
-
🚫 No venta de datos a terceros.
📐 Qué significa para los usuarios
Este cambio supone que, por primera vez, Claude seguirá la misma lógica que la mayoría de chatbots: alimentarse de las interacciones de los usuarios para entrenar sus modelos.
Sin embargo, hay una diferencia clave: Anthropic exige una decisión explícita. No se aplicará por defecto; cada usuario debe aceptar o rechazar el uso de sus datos para continuar con el servicio.
| Plan / Servicio | ¿Entrenamiento con datos? | Retención de datos |
|---|---|---|
| Free / Pro / Max | Sí, solo si el usuario acepta | 5 años |
| Free / Pro / Max | No (si el usuario rechaza) | 30 días |
| Claude for Work / Gov / Education | No aplica | Términos comerciales |
| API (Bedrock, Vertex AI) | No aplica | Términos de terceros |
🌍 El trasfondo: competencia y dependencia de datos
Aunque Anthropic insiste en la seguridad, la decisión también refleja la carrera de la IA:
-
Sin suficientes datos, Claude corre el riesgo de quedarse atrás frente a ChatGPT o Gemini.
-
Los datos de usuarios son ahora un recurso estratégico para sostener el crecimiento de los modelos.
-
La medida responde a un problema estructural: la IA necesita nuevas fuentes de información a medida que la web abierta se agota.
🌟 Conclusión
La actualización de Anthropic marca un antes y un después en la relación entre los usuarios y Claude. Por primera vez, tendrás que decidir si compartes tus conversaciones para mejorar la IA o prefieres limitar su uso.
La decisión no es menor: supone un equilibrio entre privacidad personal y avance tecnológico. Lo que está claro es que los datos, más que nunca, se han convertido en la materia prima esencial de la inteligencia artificial.
❓ Preguntas frecuentes (FAQ)
1. ¿Qué pasa si no acepto que usen mis datos en Claude?
Podrás seguir usando el servicio, pero tus conversaciones solo se almacenarán durante 30 días y no se usarán para entrenar modelos.
2. ¿Esto afecta a las empresas que usan Claude for Work o API?
No. Estos servicios siguen con términos comerciales distintos y no entran en la nueva política.
3. ¿Qué ocurre con los chats eliminados?
No se utilizarán en entrenamientos futuros.
4. ¿Por qué Anthropic necesita los datos de los usuarios?
Porque la IA depende de grandes volúmenes de interacciones reales para mejorar capacidades de razonamiento, seguridad y corrección.
5. ¿Mis datos serán vendidos a terceros?
Anthropic asegura que no vende datos y que utiliza procesos de filtrado para proteger información sensible.
👉 Si quieres estar al día de los cambios en la IA, ciberseguridad y tecnología aplicada a la vida real, visita mi web fernandojuca.com y mi canal youtube.com/fernandojucamaldonado.




