ChatGPT-5 Miente: OpenAI explica por qué es inevitable
OpenAI revela por qué ChatGPT-5 sigue alucinando. Descubre por qué las IA inventan información y cómo usarlas sin riesgos.
CONCEPTOS CLAROSOPINIÓN
Curiosidad Artificial y Claude Sonnet 4.5
10/19/20254 min read


Por qué ChatGPT inventa cosas (y por qué eso no va a cambiar)
En agosto de 2025, OpenAI lanzó ChatGPT-5 presumiendo de haber reducido las alucinaciones en un 80%. Suena impresionante, ¿verdad? Pero hay un detalle incómodo que la misma empresa reconoce: incluso su modelo más avanzado sigue inventándose información entre el 2% y el 10% de las veces. Y lo más curioso es que OpenAI publicó un paper en septiembre de 2025 (arXiv:2509.04664) explicando exactamente por qué esto es inevitable.
Déjame contarte lo que realmente está pasando.


Te puede interesar también:
”Cultiva el pensamiento crítico en la era de la IA engañosa"
Descubre cómo el pensamiento crítico es tu mejor defensa contra información falsa generada por IA. Te recomiendo un curso y un truco de NotebookLM.
(Leer el artículo también publicado en CuriosidadArtificial.es)
El secreto sucio de la inteligencia artificial
Imagina que contratas a un asistente brillante. Sabe de todo, escribe como un poeta, programa mejor que muchos desarrolladores profesionales. Pero tiene un problema: cuando no sabe algo, se lo inventa. No te dice "no lo sé". Te da una respuesta que suena perfectamente razonable, con datos concretos, fechas específicas, nombres completos. Solo que es mentira.
Esto es exactamente lo que hacen los modelos de lenguaje como ChatGPT. Y no es un bug que se pueda arreglar actualizando el software. Es, literalmente, parte de su ADN.
El paper de OpenAI lo explica con una claridad brutal: estos modelos están entrenados para completar textos, para sonar convincentes, para mantener conversaciones fluidas. Pero nadie les enseñó que está bien decir "no tengo suficiente información para responder esto con seguridad". De hecho, el sistema los castiga por hacerlo.
Por qué tu IA favorita miente (sin querer)
El proceso es fascinante. Primero, el modelo lee prácticamente medio internet: libros, artículos, foros, código, conversaciones. Aprende patrones, estructuras del lenguaje, cómo construir frases que suenen naturales. Es como un loro extremadamente sofisticado que ha escuchado billones de conversaciones.
Luego viene la fase de refinamiento, donde humanos le enseñan a ser más útil, más preciso, menos propenso a decir barbaridades. Aquí usan técnicas con nombres intimidantes como "aprendizaje por refuerzo con feedback humano" o "optimización directa de preferencias". Básicamente, el modelo genera respuestas, humanos las evalúan, y el sistema aprende qué tipo de respuestas gustan más.
Pero aquí está el truco: ¿cómo evalúan si una respuesta es buena? Con las mismas métricas que usarías en un examen de opción múltiple: correcto o incorrecto. Uno o cero. Sin término medio.
Y aquí es donde todo se tuerce. Piensa en cómo funcionan los exámenes tradicionales. Si dejas una pregunta en blanco, cero puntos. Si adivinas y aciertas, un punto. Si adivinas y fallas, cero puntos. ¿Cuál es la estrategia óptima? Siempre adivinar. Nunca dejar nada en blanco.
ChatGPT ha aprendido exactamente esa lección. En los tests que se usan para evaluar estos modelos, decir "no estoy seguro de esta información" equivale a suspender. Inventarse una respuesta plausible es la única forma de aprobar. El sistema literalmente premia la fabricación de información convincente sobre la honestidad intelectual.
El problema no es técnico, es sistémico
OpenAI reconoce esto abiertamente en su paper. Argumentan que mientras la industria siga usando benchmarks que penalizan la incertidumbre, seguiremos teniendo modelos que prefieren mentir con confianza antes que admitir sus límites. Es como si toda la industria hubiera creado inadvertidamente un ejército de estudiantes tramposos que siempre inventan respuestas en los exámenes.
¿Y sabes qué es lo más irónico? OpenAI publica este análisis explicando por qué las alucinaciones son fundamentalmente inevitables, y simultáneamente vende GPT-5 como si hubiera solucionado el problema. Han mejorado, sí. Han reducido errores. Pero el problema fundamental sigue ahí.
Las mejoras de GPT-5 son interesantes: han añadido un modo de "razonamiento profundo" para preguntas complejas, integrado búsqueda web en tiempo real, mejorado el uso de herramientas externas. Son parches inteligentes, capas de verificación. Pero son exactamente eso: parches sobre un sistema cuyo diseño fundamental incentiva adivinar sobre reconocer ignorancia.
Entonces, ¿podemos confiar en estas herramientas?
Esta es la pregunta del millón. Y la respuesta honesta es: depende para qué.
Si necesitas ayuda para redactar un email, estructurar ideas, generar código que luego vas a revisar, explorar conceptos o crear borradores, estas herramientas son increíblemente útiles. Un 2% de error en ese contexto es tolerable porque tú estás ahí para detectarlo.
Pero si necesitas información médica precisa, asesoramiento legal, datos financieros exactos o cualquier cosa donde un error tenga consecuencias graves, estos sistemas no están listos. No importa cuánto mejoren. Un sistema que falla de forma impredecible entre el 2% y el 10% del tiempo no puede considerarse fiable para decisiones críticas. Es como tener un piloto excelente que ocasionalmente se queda dormido al volante sin aviso previo. No importa que sea solo el 2% del tiempo. No subirías a ese avión.
La clave está en entender qué estás usando. No es un oráculo infalible. No es una enciclopedia perfecta. Es una herramienta poderosa de procesamiento de lenguaje que a veces inventa información de manera convincente. Úsala sabiendo eso, verifica lo importante, y disfrutarás de sus beneficios sin caer en sus trampas.
Porque al final, el problema no es que ChatGPT mienta ocasionalmente. El problema sería que nosotros dejáramos de verificar, asumiendo que una respuesta bien escrita es necesariamente una respuesta correcta. Y una última advertencia, ni siquiera cuando el modelo añade referencias a documentos o páginas web de las que han sacado la respuesta, puedes fiarte. He visto muchas referencias que no se corresponden con el texto generado.
¿Y eras consciente de este peligro? ¿Sabías que la IA alucinaba y sigue aluciando? ¿Eres consciente que este problema no sólo afecta a ChatGPT si no que está presente en todos los modelos? Puedes dirigirte a Instagram para dejar tu comentario.
Sígueme
Conectando tecnología y vida cotidiana de forma sencilla.
Sigue explorando con Curiosidad Artificial


