🚫 Reddit limita el acceso de Wayback Machine por uso indebido de empresas de IA

🧠 Las redes sociales no están rotas: fueron construidas así

Durante años se ha culpado a los algoritmos de recomendación por amplificar la polarización, crear cámaras de eco y priorizar lo más viral o incendiario. Pero un estudio reciente de Petter Törnberg y Maik Larooij (Universidad de Ámsterdam) demuestra que el problema no se soluciona desactivando el algoritmo, porque no es un error, es una consecuencia estructural del diseño mismo de las redes.

Incluso con un entorno sin feeds manipulados, sin likes ni recompensas explícitas, los mismos patrones tóxicos emergen inevitablemente: concentración extrema de atención, burbujas ideológicas y amplificación del contenido más extremo.


🧪 Seis soluciones propuestas… y sus efectos secundarios

El estudio probó seis intervenciones populares en la academia y la industria para reducir la toxicidad. Estas fueron sus conclusiones:

Intervención Resultado positivo Efecto colateral negativo
🕓 Feed cronológico Reduce desigualdad de atención Aumenta visibilidad de contenido extremo
🔄 Algoritmos de puente Mayor diversidad y menos partidismo Aumenta concentración de atención
🌍 Diversidad de puntos de vista Nulo impacto real
👁️ Ocultar métricas sociales Reduce señales de influencia artificial No revierte el ciclo estructural
❌ Eliminar biografías Reduce marcadores identitarios No afecta el contenido ni la dinámica
🔄 Feed aleatorio Reducción leve en patrones de concentración Pérdida de relevancia y contexto

Conclusión: Cada medida alivia un síntoma, pero genera otro. Ninguna cambia el núcleo del problema.


💥 El poder del contenido extremo: la lógica del engagement

Las redes sociales siguen la lógica del “engagement a toda costa”. Esto genera una desigualdad extrema de atención: una minoría ruidosa acapara la mayoría de las interacciones.

Además, el contenido que genera reacciones emocionales fuertes —especialmente indignación— se propaga más rápido, creando una falsa percepción de radicalización general.


⚠️ La IA ya está empeorando el problema

Con la llegada de los modelos de lenguaje como ChatGPT o Gemini, algunos actores ya están automatizando la producción de contenido polarizante para captar atención masiva. Esto genera una escalada artificial del conflicto y pone en duda la sostenibilidad del modelo actual de redes.

📌 Las IA no solo amplifican los discursos: pueden fabricarlos a escala industrial.


🔁 Una red tóxica por definición: emociones que moldean estructuras

El estudio explica un bucle peligroso:

  1. El usuario actúa emocionalmente (repostea indignado).

  2. Esto modifica la red (quién sigue a quién).

  3. Esa red selecciona qué contenido verás.

  4. Vuelves a actuar emocionalmente…

Este círculo vicioso sucede incluso sin algoritmos recomendadores. Basta con permitir publicar, seguir y republicar. El propio formato de red social ya siembra las condiciones para que emerjan estos fenómenos.


🤔 ¿Y ahora qué?

No hay una solución simple. Las plataformas que dependen de mantener la atención constante no pueden adoptar cambios drásticos sin poner en riesgo su modelo de negocio.

🔹 Tal vez haya que repensar desde cero el diseño de los espacios digitales.
🔹 O migrar hacia comunidades más pequeñas y deliberativas, con otras reglas.

Lo cierto es que tocar los algoritmos no es suficiente. Y mientras tanto, la polarización y la toxicidad seguirán siendo el “precio de entrada” al actual internet social.

Previous Post
Next Post