Mucho más que código: cuando los algoritmos deciden por nosotros
Antes de que existieran los ordenadores, ya usábamos algoritmos para resolver problemas cotidianos. ¿Una receta de cocina? Algoritmo. ¿Una operación matemática paso a paso? También. Pero algo cambió radicalmente: los algoritmos ahora tienen poder de decisión sobre nuestras vidas. Desde si accedemos a una hipoteca hasta qué contenidos vemos en redes sociales, su alcance es enorme.
Y ahí es donde nace un nuevo reto: la justicia algorítmica. No basta con que un algoritmo funcione bien técnicamente. También debe hacerlo de forma justa, transparente y responsable.
¿Qué es un algoritmo y cómo hemos llegado hasta aquí?
Un algoritmo es un conjunto de instrucciones paso a paso para lograr un objetivo. Con la revolución digital y la inteligencia artificial (IA), estos procesos se volvieron tan sofisticados que ya no solo siguen instrucciones, también aprenden de los datos. Así nacieron los modelos de aprendizaje automático y, más recientemente, la IA generativa como ChatGPT.
Gracias al aprendizaje automático, los algoritmos comenzaron a tomar decisiones complejas. El problema: se entrenan con datos históricos, que muchas veces están llenos de sesgos sociales.
Cuando los algoritmos toman decisiones humanas
Hoy en día, los algoritmos intervienen en:
-
Contrataciones laborales
-
Concesiones de préstamos o hipotecas
-
Evaluación de riesgos judiciales
-
Reparto de recursos sociales
-
Recomendaciones en plataformas (como LinkedIn o TikTok)
Y no todo va bien. En Reino Unido, un sistema automatizado de calificaciones fue retirado porque penalizaba sistemáticamente a estudiantes de escuelas con menos recursos. En España, algoritmos han causado cierres de cuentas bancarias sin justificación. En EE.UU., la puntuación de crédito baja si vives en ciertos códigos postales.
¿Notas el patrón? Lo que en teoría debería ser neutral, a menudo refuerza desigualdades estructurales.
¿Por qué sucede esto?
Hay muchas causas posibles:
-
Datos de entrenamiento sesgados: si un sistema aprende de un historial discriminatorio, va a replicar esa discriminación.
-
Diseño deficiente del algoritmo: sin criterios éticos o mecanismos de corrección.
-
Falta de supervisión humana: decisiones automáticas sin revisión o apelación.
-
Complejidad y opacidad: ni los propios desarrolladores pueden explicar cómo llegó a esa conclusión (el famoso “black box”).
Justicia algorítmica: ¿cómo se logra?
La justicia algorítmica estudia cómo asegurar que los sistemas automatizados tomen decisiones justas, transparentes y responsables.
Las claves son:
-
Evaluar la equidad entre subgrupos: ¿el modelo funciona igual de bien para mujeres, personas racializadas o personas con discapacidad?
-
Medir la incertidumbre: ¿qué tan seguro está el algoritmo de su propia decisión?
-
Aplicar técnicas como el multicalibraje: que permiten que el sistema funcione bien en múltiples grupos poblacionales a la vez.
Estas medidas no solo corrigen errores, sino que además abren nuevas vías de investigación matemática y computacional.
¿Y si dos algoritmos deciden cosas opuestas?
Una misma persona puede recibir un diagnóstico de alto riesgo en un hospital y uno bajo en otro, usando diferentes algoritmos entrenados con diferentes datos. Esto nos plantea una pregunta fundamental: ¿qué significa tomar una decisión justa en un sistema automatizado?
-
¿Debe ser explicable?
-
¿Debe poder ser apelada?
-
¿Debe compararse con decisiones humanas?
Necesitamos una mezcla de criterios técnicos, éticos y legales para responder.
Cuando la IA moldea nuestra realidad (sin que lo notemos)
No solo toman decisiones. Los algoritmos nos presentan un mundo filtrado. ¿Te suena?
-
LinkedIn muestra ciertas ofertas laborales
-
Amazon te sugiere ciertos productos
-
TikTok te lanza un contenido tras otro sin parar
Lo que ves, lo que compras, lo que lees… ya fue decidido por un sistema algorítmico antes de que tú lo hicieras. Y sí, muchos están diseñados para maximizar tu atención (y tu consumo), no necesariamente tu bienestar.
Ejemplos reales: los algoritmos nos observan
-
En EE.UU., Uber y DoorDash usan sistemas opacos para decidir quién gana cuánto y cuándo trabaja.
-
En Facebook, la personalización de anuncios políticos ha influido en campañas electorales.
-
En e-commerce, algoritmos coluden entre sí para mantener precios artificialmente altos.
Incluso ChatGPT puede reproducir sesgos de género: se ha comprobado que, al responder sobre carreras u oficios, sugiere estereotipos según el género que cree estar interpretando.
La gran pregunta: ¿dónde quedan nuestros datos?
La IA generativa necesita millones de datos para entrenarse. Y eso tiene un costo:
-
¿Cómo se recopilan esos datos?
-
¿Quién decide cómo se usan?
-
¿Cómo se garantiza la privacidad?
Las investigaciones han demostrado que los modelos actuales pueden filtrar datos privados sin intención. Y eso sin contar con la dificultad de garantizar el anonimato real en sistemas tan complejos.
¿Y entonces qué hacemos?
Estas son algunas líneas de acción urgentes:
-
Regular con visión ética y técnica a la vez: juristas, informáticos y sociólogos trabajando juntos.
-
Exigir auditorías externas a los algoritmos, especialmente en servicios públicos.
-
Transparencia y derecho a explicaciones: si un sistema toma una decisión sobre ti, debes saber cómo lo hizo.
-
Inversión pública en investigación independiente sobre justicia algorítmica.
-
Formación digital ciudadana: necesitamos saber cómo funcionan estos sistemas para poder cuestionarlos.
FAQs
¿Un algoritmo puede ser injusto?
Sí. Si se entrena con datos sesgados o está mal diseñado, puede tomar decisiones discriminatorias.
¿Hay leyes sobre esto?
Cada vez más. En la UE, el Reglamento de IA ya está en marcha y busca evitar estos abusos. Pero aún hay mucho camino por recorrer.
¿ChatGPT también tiene sesgos?
Sí, y OpenAI lo ha reconocido. Aunque se trabaja para mitigarlos, aún puede ofrecer respuestas estereotipadas o inexactas.
¿Los algoritmos pueden explicar sus decisiones?
En algunos casos sí, con técnicas de explicabilidad. Pero muchos modelos complejos siguen siendo cajas negras.
¿Magia o matemáticas? La IA no es infalible
La inteligencia artificial no es magia. Es matemática aplicada con muchos límites y riesgos. Y como toda tecnología poderosa, necesita controles, regulaciones y responsabilidad.
El sueño de una IA justa es posible, pero solo si exigimos que se construya con rigor, transparencia y visión social. Si no, corremos el riesgo de delegar el futuro a sistemas que no entendemos… ni controlamos.