
Justo cuando el mundo tecnológico todavía está recuperándose del impacto del lanzamiento de GPT-5, la IA que promete ser un «experto a nivel de doctorado», llega un jarro de agua fría desde dentro de la propia OpenAI. Y no viene de un empleado cualquiera. Nick Turley, el director de producto de ChatGPT, ha salido a la palestra para darnos una bofetada de realidad: no, GPT-5 no es perfecto. De hecho, sigue sufriendo el pecado original de todas las IAs: las «alucinaciones».
En una entrevista en el podcast Decoder de The Verge, Turley ha sido brutalmente honesto: «Hasta que podamos demostrar que ChatGPT es más fiable que los expertos humanos en todos los ámbitos… seguiremos recomendando que revisen sus respuestas«.
El problema de la ‘verdad estadística’
La confesión de Turley es una admisión de la cruda realidad técnica que hay detrás de estos modelos. Las IAs generativas como GPT-5 no «saben» cosas. No entienden los hechos como un humano. Son, en esencia, maestros de la probabilidad. Predicen la siguiente palabra más probable en una frase basándose en los billones de datos con los que han sido entrenadas.
Como dice el propio Turley, la IA es genial para «adivinar», pero al final, es solo eso: una suposición increíblemente sofisticada. Cuando no encuentra un patrón claro en sus datos de entrenamiento, sencillamente, se inventa la información. Y lo hace con la misma confianza y elocuencia con la que te recita la obra de Shakespeare. Y ahí reside el peligro.

«Una segunda opinión, no la fuente principal de la verdad»
Turley admite que el problema de las «alucinaciones» (inventarse datos) está lejos de ser resuelto. «Confío en que eventualmente resolveremos el problema, pero también confío en que no lo resolveremos en el próximo trimestre«, afirmó.
Por eso, recomienda que la gente siga usando ChatGPT como una «segunda opinión, no necesariamente como su principal fuente de verdad». Reconoce que la herramienta funciona mucho mejor cuando se combina con fuentes que sí entienden de hechos, como un motor de búsqueda tradicional (por eso integraron la búsqueda en ChatGPT) o las bases de datos internas de una empresa.
Una dosis de humildad necesaria
La honestidad de un alto ejecutivo de OpenAI es refrescante y absolutamente necesaria. En medio de un ciclo de hype demencial, donde se nos vende la IA como una solución mágica a todos nuestros problemas, es crucial que sus propios creadores nos recuerden sus limitaciones. GPT-5 es, sin duda, el modelo de lenguaje más potente jamás creado. Pero no es infalible. Sigue siendo una herramienta que, sin la supervisión de un cerebro humano crítico, puede ser tan peligrosa como útil.
La próxima vez que le pidas a una IA que te escriba un informe o que te dé datos para un trabajo, recuerda la advertencia del director de ChatGPT: revisa sus respuestas. No te fíes ciegamente. La verdadera inteligencia, de momento, sigue estando en saber cuándo dudar.
¿Te has encontrado alguna vez con una «alucinación» de una IA? ¿Crees que algún día serán 100% fiables? El debate sobre los límites de la inteligencia artificial está más caliente que nunca. Déjanos tu opinión en los comentarios y únete a la discusión en Instagram, Facebook y YouTube.