OpenAI prepara GPT-5.4: Ventana de 1 millón de tokens y el nuevo «Modo de Inferencia Extrema»

OpenAI ha decidido que la sutileza no es el camino. Tras el despliegue de GPT-5.3 Instant, la compañía de Sam Altman ya tiene en la rampa de salida a GPT-5.4, una actualización que no busca mejorar lo existente, sino redefinir las capacidades de la IA. Según fuentes internas, este nuevo modelo romperá la barrera del millón de tokens de contexto, igualando por fin la potencia de procesamiento de documentos masivos que hasta ahora solo ofrecían Google y Anthropic.

Adiós a la «memoria de pez»: Contexto infinito

La gran debilidad de los modelos anteriores de OpenAI era su memoria a corto plazo. Con el salto a más de un millón de tokens, GPT-5.4 podrá «leer» y razonar sobre libros enteros, bases de código completas o historiales financieros de meses en una sola consulta. Lo más disruptivo es que este modelo introduce la «IA con Estado» (Stateful AI), capaz de recordar tu flujo de trabajo y entorno de desarrollo entre diferentes sesiones, eliminando la necesidad de explicarle el contexto de tu proyecto cada vez que abres el chat.

El «Modo Inferencia Extrema»: Pensar para no fallar

Pero la verdadera joya de la corona es el Modo de Inferencia Extrema. A diferencia de los modelos rápidos (Instant), este modo permite a la IA asignar una cantidad masiva de tiempo y computación a resolver un solo problema complejo.

  • Razonamiento de largo aliento: Ideal para flujos de trabajo que duran horas, donde el modelo debe mantener la coherencia y seguir parámetros estrictos sin cometer errores.
  • Potencia para Codex: Esta capacidad beneficiará directamente a OpenAI Codex, permitiendo la automatización de tareas de programación profesional que antes requerían supervisión humana constante.

¿Cuándo llegará?

Aunque OpenAI acaba de lanzar la versión 5.3, las filtraciones en repositorios de GitHub sugieren que GPT-5.4 ya está en fase de pruebas activas (A/B testing). Los analistas predicen su lanzamiento oficial para la primera mitad de 2026, posicionándose como el «empleado digital» definitivo antes de que termine el segundo trimestre.

Debate en el Búnker: ¿Es el fin de los programadores junior?

  1. ¿Un millón de tokens es demasiado? ¿Realmente necesitamos que una IA lea 500 páginas de una vez o es solo una guerra de cifras contra Google?
  2. Razonamiento extremo: ¿Estarías dispuesto a esperar 10 minutos por una respuesta si la IA te garantiza que el código es 100% funcional y sin errores?
  3. Privacidad y «Estado»: Que la IA recuerde tu entorno de trabajo entre sesiones es cómodo, pero ¿nos preocupa que guarde demasiada información sobre nuestra forma de trabajar?

únete a nuestras redes sociales en InstagramFacebook y en YouTube.

Alfredo Santiago Martín
Alfredo Santiago Martín
Ingeniero Químico, Máster en Aplicaciones Multimedia por la UOC y un apasionado de la Ciencia y de la Tecnología desde que tiene conocimiento de causa. Se define como un Geek en un mundo imperfecto. Ciudadano del mundo y nómada por suerte, su hábitat natural transcurre entre ordenadores y máquinas con muchos cables y botones. CEO y Fundador de GurúTecno.

Últimos artículos

1.330 Seguidores
Seguir

Artículos relacionados

Cuéntanos tu opinión

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.