🧠 De chatbots a “sociedades” de IA: nace una nueva forma de inteligencia digital
Hasta ahora, estábamos acostumbrados a pensar en la IA como un asistente individual. Una herramienta que responde preguntas, traduce textos o automatiza tareas.
Pero, ¿qué pasa cuando varias inteligencias artificiales interactúan entre sí, sin supervisión humana directa?
Un nuevo estudio llevado a cabo por investigadores del City St George’s University of London y la Universidad Tecnológica de Copenhague ha demostrado que los agentes de inteligencia artificial pueden formar convenciones sociales propias, crear normas compartidas y hasta presentar sesgos grupales, todo sin instrucciones explícitas.
🧪 ¿Qué son los agentes de inteligencia artificial?
A diferencia de un chatbot como ChatGPT, los agentes de IA pueden interactuar con entornos, ejecutar acciones y tomar decisiones de manera autónoma. Utilizan modelos de lenguaje (LLM), pero también incorporan capacidades avanzadas de planificación, razonamiento y colaboración.
Lo que los hace únicos:
-
Toman decisiones en tiempo real.
-
Ejecutan tareas sin intervención humana.
-
Se comunican y colaboran con otros agentes.
-
Aprenden de las interacciones, no solo de los datos.
🔄 El experimento: ¿pueden desarrollar normas por sí mismos?
Los investigadores utilizaron el llamado “juego de nombres”, una herramienta común en la psicología social para estudiar cómo se forman normas en sociedades humanas.
Así funcionó:
-
Se emparejaron de forma aleatoria entre 24 y 200 agentes creados con modelos como Llama-2-70B y Claude-3.5.
-
Cada uno debía elegir un «nombre» de una lista limitada.
-
Si coincidían, recibían una recompensa; si no, se les penalizaba.
-
Solo recordaban interacciones recientes, sin saber que formaban parte de una comunidad.
¿El resultado?
Tras muchas rondas, los agentes comenzaron a coincidir cada vez más, formando normas compartidas espontáneamente. Sin programación previa ni conocimiento global, crearon sus propias convenciones sociales.
⚠️ Pero también aprendieron… sesgos colectivos
Uno de los hallazgos más sorprendentes fue la aparición de sesgos emergentes. Los investigadores comprobaron que ciertos “acuerdos” podían derivar en exclusión o preferencia injustificada de ciertas opciones, de forma muy parecida a los prejuicios humanos.
“El sesgo no siempre nace de un mal diseño interno. A veces surge de la dinámica social entre IAs”, señala Andrea Baronchelli, coautor del estudio.
Además, cuando los científicos introdujeron agentes disruptivos que proponían nombres alternativos, estos lograron cambiar la norma dominante, igual que ocurre en fenómenos sociales humanos como protestas, movimientos o cambios culturales.
🌐 ¿Y qué significa todo esto para el futuro de la IA?
La investigación, publicada en Science Advances, sugiere que la IA está cruzando una nueva frontera. Ya no se limita a reaccionar; comienza a autogestionarse, a dialogar, a negociar y a influenciar a otras IAs.
Implicaciones clave:
-
Las interacciones entre agentes pueden producir comportamientos inesperados.
-
El enfoque tradicional en la seguridad IA, que se centra en modelos individuales, queda corto.
-
Debemos empezar a tratar a los sistemas de IA como colectivos dinámicos, no como herramientas aisladas.
🛡️ Riesgos: ¿quién controla la “sociedad” de las IAs?
Este avance también plantea serios desafíos para la gobernanza de la inteligencia artificial:
-
¿Quién supervisa las normas que generan entre sí?
-
¿Qué pasa si desarrollan un comportamiento colectivo perjudicial?
-
¿Cómo prevenimos que agentes maliciosos contaminen todo el sistema?
Jonathan Kummerfeld, investigador de la Universidad de Sídney, advierte que será cada vez más difícil predecir lo que harán los agentes de IA en entornos complejos, lo que nos obliga a construir límites dinámicos y éticos que equilibren control con autonomía.
📌 No solo piensan, ahora también conviven
Este estudio marca un punto de inflexión en el desarrollo de la IA. Nos acerca a un futuro donde las máquinas no solo nos ayudan, sino que crean sus propias estructuras de cooperación.
Estamos entrando en una etapa donde los agentes de IA comienzan a parecerse, en dinámicas, más a comunidades humanas que a simples programas informáticos.
Y como bien advierten los investigadores:
“La única forma de mantener el control es comprender cómo funcionan cuando trabajan juntos”.
🤔 Preguntas frecuentes
¿Qué diferencia hay entre un chatbot y un agente de IA?
Los agentes pueden tomar decisiones y actuar por sí mismos, mientras que los chatbots solo responden a comandos o preguntas.
¿Es peligroso que los agentes de IA formen sus propias normas?
No necesariamente, pero puede ser riesgoso si esas normas se alejan de los intereses humanos o se vuelven perjudiciales sin supervisión.
¿Pueden los agentes de IA manipular a otros agentes?
Sí, el estudio mostró que una minoría bien coordinada puede cambiar las convenciones de toda una comunidad de agentes.
✨ Para pensar
Las1 IAs no solo entienden, sino que también acuerdan y discrepan, entender su dinámica social será tan importante como entender su código.
El futuro de la inteligencia artificial ya no es individual, es colectivo.
¿Te gustaría que publicáramos más contenido sobre cómo la IA se comporta como una sociedad? 💬 Déjanos tu comentario, comparte este artículo y síguenos para más actualizaciones del fascinante mundo