• Marketiable
  • Posts
  • Las alucinaciones de ChatGPT y porqué no es tan grave 🤔

Las alucinaciones de ChatGPT y porqué no es tan grave 🤔

La historia que todos comentan sobre las 'mentiras' y lo que realmente significa para el futuro de la Inteligencia Artificial.

🕑 Tiempo de lectura: 5 minutos

ChatGPT está nuevamente en el ojo de la tormenta tras "alucinar" que un hombre noruego llamado Arve Hjalmar Holmen asesinó a sus hijos. Sí, eso mismo. Información completamente falsa, fabricada de la nada, pero con detalles inquietantemente precisos como el número y género de sus hijos y su ciudad natal.

Ahora todos los críticos han salido a atacar a los modelos de IA, generando preocupación en las personas sobre si realmente es correcto creerle a ChatGPT.

Pero será tan grave como lo pintan las noticias?

¿Qué son las alucinaciones de ChatGPT?

Las "alucinaciones" en el contexto de ChatGPT y otros modelos de IA se refieren a un fenómeno donde estos sistemas generan información que es fabricada, falsa o inexistente en la realidad, pero presentada con un tono de confianza y aparente autoridad.

De hecho, desde el auge de ChatGPT, este termino de “alucinación” se ha hecho mas conocido. Del top 5 de palabras que buscan las personas, ‘alucinación llm’ y ‘alucinación ChatGPT’, son de los mas buscados.

Tendencia de búsqueda de la palabra ‘alucinación’

1. La IA está mejorando, no empeorando

Amigos, estamos en la infancia de esta tecnología. ¿Recuerdan los primeros teléfonos móviles? Eran del tamaño de un ladrillo y apenas podían enviar mensajes. La IA está evolucionando a una gran velocidad.

Piensen en estos ejemplos:

  • En 2020, GPT-3 confundía constantemente datos históricos básicos como las fechas de la Segunda Guerra Mundial

  • En 2022, los chatbots inventaban referencias académicas completas con títulos, autores y revistas que jamás existieron

  • En 2025, con modelos como GPT-4.5, estos errores se han reducido significativamente

Es como criticar a un niño de 3 años por no saber álgebra. ¡Dale tiempo!

2. El contexto importa, y mucho

Si le preguntas a ChatGPT: "Escribe una historia de ficción sobre un político corrupto llamado [inserta nombre real]", ¿qué esperarías? ¿Una biografía verificada por historiadores? Creo que no.

La forma en que formulamos las preguntas influye enormemente en las respuestas:

  • Pregunta ambigua: "Háblame de Juan Pérez" → Mayor riesgo de alucinación

  • Pregunta específica: "¿Cuáles son los hechos verificados sobre Juan Pérez según fuentes confiables?" → Menor riesgo

Con las actualizaciones recientes que permiten búsquedas en internet en tiempo real, esto mejorará sustancialmente.

3. La IA es una herramienta, no un oráculo divino

Comparo la IA con una navaja suiza: versátil pero no infalible. Si la usas para tomar decisiones críticas sin verificar, eso es culpa del usuario, no de la herramienta.

Ejemplos cotidianos:

  • Usar ChatGPT para recetas de cocina sin verificar si los ingredientes son tóxicos juntos

  • Pedirle consejos médicos sin consultar a un profesional

  • Solicitar información legal sin contrastar con un abogado

Todos los chatbots incluyen advertencias sobre posibles inexactitudes, pero algunos tratan sus outputs como si fueran la palabra de Dios.

De hecho, hace unos días hice un video que generó varios comentarios divididos. Y es que un grupo de periodistas en EEUU, hizo una investigación a varios chats con IA conectados a Internet y concluyeron que el 60% de respuestas eran erróneas. (Obvio hay que decir que no fue un informe muy imparcial)

4. Los humanos también "alucinan"

Ah, la hipotenusa. Los humanos difundimos rumores, tergiversamos hechos y olvidamos detalles cruciales todo el tiempo:

  • El efecto Mandela: miles de personas "recuerdan" eventos que nunca ocurrieron

  • Testigos oculares que juran haber visto cosas completamente diferentes del mismo incidente

  • El juego del teléfono descompuesto: una historia que cambia radicalmente tras pasar por varias personas

Los periódicos publican rectificaciones. Los testigos oculares se contradicen. Los políticos... bueno, mejor ni hablemos de ellos.

Casos reales de alucinaciones humanas vs. IA

Alucinaciones humanas:

  • Un testigo "recordó" a un sospechoso con cabello rubio cuando era completamente calvo

  • Un periódico importante publicó que una celebridad había fallecido (seguía viva)

  • Un profesor universitario citó durante años un artículo científico que nunca existió

Alucinaciones de IA:

  • Un chatbot "inventó" que un profesor tenía antecedentes de acoso (falso)

  • Una IA generó una lista de publicaciones inexistentes para un investigador real

  • Un asistente virtual fabricó detalles sobre el origen de una empresa

La diferencia: a los humanos los perdonamos, a la IA no tanto.

Regulación sí, pero con cerebro

Las denuncias contra empresas de IA por generar contenido falso son pasos necesarios para responsabilizarlas. Estoy de acuerdo en que las advertencias deben reforzarse, pero también defiendo que los usuarios deben compartir la responsabilidad.

Necesitamos:

  • Educación sobre cómo usar la IA responsablemente

  • Mejores sistemas de verificación integrados

  • Regulación equilibrada que no ahogue la innovación

El futuro es brillante, aunque a veces alucine un poco

Mirando hacia adelante, creo que la IA continuará evolucionando, con alucinaciones cada vez más raras a medida que los modelos incorporen mecanismos de verificación de hechos más robustos y datos en tiempo real.

Mis predicciones:

  • Para 2026: IA con capacidad de admitir cosas sin inventar datos

  • Para 2027: Sistemas que citen fuentes verificables automáticamente

  • Para 2028: Reducción del 90% en casos de alucinaciones graves

Conclusión irreverente

¿La IA alucina? Sí, a veces. ¿Los humanos alucinan? Constantemente.

La IA está aquí para ayudarnos, no para reemplazar nuestro sentido común. Así que la próxima vez que ChatGPT te diga que eres el heredero de la corona británica o que tu vecino es un espía ruso, quizá deberías verificarlo antes de mudarte al Palacio de Buckingham o llamar a la policia.

📕 Lo que estoy leyendo

¿Cómo hacer un plan de go to marketing estratégico? Según el libro T2D3, se resume en:

  • Definición clara del ICP (Ideal Customer Profile): Enfócate en clientes que generan más valor y tienen mayor retención

  • Propuesta de valor diferenciada: Articula claramente por qué tu solución es superior

  • Modelo de ventas repetible: Documenta y estandariza procesos que funcionan