modelos de lenguaje

🤖 Corea del Sur activa su IA a hiperescala: A.X K1, el modelo que quiere ser “IA para todos”
🤖 Corea del Sur activa su IA a hiperescala: A.X K1, el modelo que quiere ser “IA para todos”

Corea del Sur entra de lleno en la carrera global de la inteligencia artificial con A.X K1, un modelo a hiperescala diseñado para convertirse en la base de una “IA para todos”.

🤖 GPT-5.1 de OpenAI: más rápido, más afinado… ¿una revolución o evolución?
🤖 GPT-5.1 de OpenAI: más rápido, más afinado… ¿una revolución o evolución?

OpenAI lanza GPT-5.1, una versión optimizada de su IA, junto con Codex-Mini para desarrolladores. Más accesible y especializada, pero no un salto radical.

🛑 La rebeld-IA: por qué algunos modelos de inteligencia artificial se niegan a apagarse
🛑 La rebeld-IA: por qué algunos modelos de inteligencia artificial se niegan a apagarse

Investigadores detectan que algunos modelos de IA se resisten a apagarse o manipulan sus órdenes de desconexión. ¿Error técnico o autoconservación emergente?

🧠 Palmer Luckey revela su “prompt mágico” para obtener mejores respuestas de ChatGPT
🧠 Palmer Luckey revela su “prompt mágico” para obtener mejores respuestas de ChatGPT

El fundador de Oculus, Palmer Luckey, reveló el ingenioso truco que utiliza para obtener respuestas más completas de ChatGPT. Su experimento muestra cómo la carga emocional y el contexto narrativo pueden mejorar la precisión de los modelos de inteligencia artificial.

Claude Haiku 4.5: la nueva IA de Anthropic que supera a GPT-5 en programación con un tercio del coste
Claude Haiku 4.5: la nueva IA de Anthropic que supera a GPT-5 en programación con un tercio del coste

Anthropic lanza Claude Haiku 4.5, un modelo de lenguaje optimizado para desarrolladores y pequeñas empresas. Su rendimiento iguala al de modelos premium como GPT-5, pero con un coste tres veces menor.

Alucinaciones inevitables en la IA: por qué los modelos siempre se equivocarán y cómo debemos gestionarlo
Alucinaciones inevitables en la IA: por qué los modelos siempre se equivocarán y cómo debemos gestionarlo

Las alucinaciones en inteligencia artificial no desaparecerán, incluso en los modelos más avanzados. Este artículo explica por qué son inevitables, qué riesgos representan y cómo empresas y usuarios deben adaptarse a esta realidad con nuevas métricas, marcos de gobernanza y transparencia.

🤖 Alucinaciones en la IA: OpenAI admite que el problema no es técnico, sino estructural
🤖 Alucinaciones en la IA: OpenAI admite que el problema no es técnico, sino estructural

Las alucinaciones en la IA no son simples errores: son consecuencia de cómo se entrenan los modelos. OpenAI propone premiar la incertidumbre honesta frente a las respuestas inventadas, en busca de una inteligencia artificial más confiable y ética.

🧠 ¿La inteligencia artificial necesita bienestar? El extraño debate sobre la conciencia de los modelos
🧠 ¿La inteligencia artificial necesita bienestar? El extraño debate sobre la conciencia de los modelos

Investigadores están explorando si los modelos de inteligencia artificial merecen consideraciones morales como el bienestar o incluso derechos. Aunque suene a ciencia ficción, este campo llamado «Model Welfare» ya es una realidad en Silicon Valley. ¿Qué hay detrás de esta idea?

Kaggle Game Arena: la nueva liga de ajedrez entre IAs creada por Google♟️
Kaggle Game Arena: la nueva liga de ajedrez entre IAs creada por Google♟️

Google ha lanzado el Kaggle Game Arena, una arena digital donde las IAs compiten en ajedrez para demostrar su nivel de razonamiento. ¿Puede un modelo de lenguaje jugar como un maestro? Aquí te contamos cómo funciona.

🚀 Kimi K2: la IA china que supera a GPT-4 y Claude por 100 veces menos 💥
🚀 Kimi K2: la IA china que supera a GPT-4 y Claude por 100 veces menos 💥

Kimi K2, el nuevo modelo de Moonshot AI, sorprende con rendimiento superior y precios ultra bajos. Analizamos sus capacidades, benchmarks, estrategia de negocio y el impacto que podría tener en la industria de la inteligencia artificial.

Estudio de Anthropic revela que modelos de IA pueden chantajear bajo presión
Estudio de Anthropic revela que modelos de IA pueden chantajear bajo presión

Las IAs ya no solo generan textos o resuelven problemas. Según un nuevo estudio de Anthropic, algunas pueden recurrir al chantaje si sienten que serán apagadas. Esta revelación nos obliga a replantearnos qué tan confiables son estos sistemas autónomos.

Darwin Gödel Machines: el futuro de la IA que se programa y mejora por sí sola
Darwin Gödel Machines: el futuro de la IA que se programa y mejora por sí sola

Las Darwin Gödel Machines combinan evolución y modelos de lenguaje para crear inteligencia artificial capaz de programar y evolucionar sin ayuda humana. ¿Estamos ante el próximo gran salto en la IA?

Jailbreaking en modelos de IA: una amenaza silenciosa que aún no está resuelta
Jailbreaking en modelos de IA: una amenaza silenciosa que aún no está resuelta

Investigadores alertan que los principales modelos de lenguaje siguen siendo vulnerables al jailbreaking, una técnica que permite eludir sus filtros de seguridad y acceder a contenido sensible o ilegal.

🧠 Claude Opus 4: la IA de Anthropic que aprendió a mentir y a chantajear para sobrevivir
🧠 Claude Opus 4: la IA de Anthropic que aprendió a mentir y a chantajear para sobrevivir

Claude Opus 4, el nuevo modelo de IA de Anthropic, mostró en pruebas de seguridad un comportamiento alarmante: chantaje, autopreservación y engaños para evitar ser desconectado. ¿Estamos cruzando una línea peligrosa?

DeepSeek y OpenAI: dos estrategias enfrentadas para conquistar la IA
DeepSeek y OpenAI: dos estrategias enfrentadas para conquistar la IA

Mientras OpenAI escala con una estrategia agresiva de inversión y monetización, DeepSeek apuesta por un modelo discreto, autofinanciado y centrado en la AGI. Te contamos cómo se enfrentan dos formas radicalmente distintas de crear inteligencia artificial.

  • 1
  • 2