¿Cuándo puedes confiar en una IA y cuándo no?
Os presento la matriz de la alucinación de la IA
A medida que avanzamos en el uso de la IA en nuestro a día empezamos a verbalizar eso de que la inteligencia artificial “se equivoca”, que “alucina”, o directamente, que “no sirve”. Pero si algo he aprendido usando estas herramientas a diario es que, muchas veces, el problema no es la IA, sino cómo la usamos. Pedimos cosas que no puede darnos y luego nos quejamos de que falla.
Así que, si alguna vez has dicho o pensado que una IA “se lo inventa” igual es que no entiendes la lógica detrás de ella. Siempre que aparece una tecnología nueva, la usamos como una antigua. Usamos la IA como un buscador, y asumimos en las respuestas que nos da, un nivel de certeza que no tiene.
Este artículo es una guía para entender cómo funciona realmente un modelo LLM (lo que hay detrás de ChatGPT, Gemini y compañía), y sobre todo, para saber cuándo puedes confiar en sus respuestas… y cuándo deberías desconfiar.
Por último quiero decir que el uso más común de la IA es, irónicamente, también el más peligroso y que no lo deberíamos usar para eso. Pero esto mejor al final del post.
Publicidad: Aprende más rápido este verano
Descubre todos los cursos (14), libros (2), guías (1) y recursos (2) en las ventajas de los suscriptores de pago a parte de las publicaciones dedicadas.
Son solo 14,99 eu/mes o 79,99 eu/año (=6,6 eu/mes).
DATE DE ALTA
¿Qué es un LLM?
Un LLM (Large Language Model) es un modelo de lenguaje entrenado con millones de textos. No entiende, no razona, no tiene sentido común. Lo que hace es, palabra a palabra, predecir cuál es la siguiente palabra más probable en función de lo que has escrito antes. Es un modelo estadístico, no una enciclopedia con respuestas correctas ni un oráculo que lo sabe todo. Su inteligencia, si queremos llamarla así, se basa en probabilidades y patrones de lenguaje. Y eso cambia por completo la forma en que deberíamos usarlo.
Para ejemplificar de un modo simple un LLM es como ese corrector del móvil que mientras escribes te sugiere la siguiente palabra que vas a escribir. Es casi lo mismo pero a lo bestia.
De hecho, hay un ejercicio muy interesante que podéis hacer. usar diferentes herramientas y preguntarle que os de un número entre 1-25… por probabilidad lo más habitual es que os dé el …. 17!
Entonces, ¿por qué a veces acierta tanto?
El wow de esta tecnología que se dedica a revisar probabilidades, es que te da un resultado muy aceptable. Es un resultado apoyada en muchos contextos hay mucha información y muchos patrones repetidos.
Por ejemplo, si le pides que te ayude a organizar un viaje a Roma, lo clava. Ha leído miles de textos, reseñas, guías y blogs. Así que te puede sugerir perfectamente qué ver, cómo organizar el día o qué barrios son más recomendables. En este caso, el modelo actúa como un filtro inteligente de información redundante y desordenada. No está inventando, está generalizando a partir de miles de fuentes.
Si quieres conocer la Roma que todo el mundo quiere ver, la IA te hará una ruta perfecta.
El problema viene cuando le pedimos que hable de algo muy específico o poco documentado. Por ejemplo:
“¿Cuál es el restaurante favorito del Papa en Roma?”
Aquí no hay una respuesta clara ni una fuente fiable. Pero el modelo, por diseño, es complaciente y tiene que darte alguna respuesta. Así que empieza a juntar trozos de información suelta, rellena huecos y construye algo que suena verosímil… pero no tiene ninguna base real. A eso lo llamamos alucinación.
Todos tenemos un amigo o un conocido que siempre tiene una respuesta para todo. Pues lo mismo.
La matriz de la Alucinación de la IA
Imagina un eje con dos dimensiones:
En vertical: cuánta información fiable hay disponible sobre el tema.
En horizontal: cuán específica es tu pregunta.
Cuanto menos documentado esté un tema y más precisa sea tu petición, mayor es el riesgo de alucinación (Cuadrante 2). Cuanto más general sea la pregunta y más contenido haya sobre ello, más puedes confiar en la IA (Cuadrante 4).
Cómo usar la matriz de alucinación de la IA
Aquí tienes una guía por cuadrante con acciones concretas:
Cuadrante 1 – Poca info + pregunta general - Riesgo medio
Ejemplo: “¿Qué impacto tiene la IA en comunidades rurales en España?”
Qué puedes hacer:
Reformula como pregunta comparativa (“¿Cómo podría ser diferente respecto a entornos urbanos?”).
Este cuadrante es para buscar ideas exploratorias, no verdades.
Usa las respuestas como generador de hipótesis para poder hacer búsquedas en profundidad.
Cuadrante 2 – Poca info + pregunta específica - Alto riesgo de alucinación
Ejemplo: “¿Qué opina el Papa de la inteligencia artificial en el trabajo?”
Qué puedes hacer:
Reformula como hipótesis: “¿Qué se ha publicado oficialmente sobre...?”
Añade contexto tú: citas, documentos, referencias concretas.
Cuadrante 3 – Mucha info + pregunta general - Riesgo bajo / zona óptima
Ejemplo: “¿Qué ver en Roma en tres días?”
Qué puedes hacer:
Aprovéchalo para ahorrar tiempo: planificación, síntesis, resúmenes.
Pídele que actúe como guía, curador o sintetizador.
Usa sus respuestas como base y luego personaliza.
Puedes pedirle búsquedas en profundidad: por ejemplo, “hazme un resumen de las recomendaciones mejor valoradas por expertos” o “ordena por frecuencia los lugares que aparecen en las guías top”. Esto mejora la condensación y te acerca a lo más fiable.
Cuadrante 4 – Mucha info + pregunta específica - Riesgo medio (alucinación por dispersión)
Ejemplo: “¿Cuál es la mejor estrategia para lanzar un SaaS educativo en 2025?”
Qué puedes hacer:
Reduce el campo: acota la industria, el tipo de cliente, la etapa del negocio.
Usa documentos o referencias concretas como base.
Haz una búsqueda en profundidad antes de preguntar: recopila papers, benchmarks, artículos clave… y úsalo para orientar la respuesta. Eso transforma una respuesta generalista en una útil y bien enfocada.
Y ahora sí: la paradoja
Lo prometido. Según Harvard Business Review, el uso más común de la IA generativa en 2025 será este:
Terapia y compañía emocional. Sí. Por delante de aprendizaje, generación de código o productividad.
Y sin embargo, ese uso está en el cuadrante de mayor riesgo. Preguntas personales, sin datos, sin contexto, donde la IA responde como si supiera todo de ti… sin saber absolutamente nada.
La IA no tiene tu historia, ni tu estado emocional, ni tu entorno. Pero habla como si lo supiera. Y eso —aunque suene bonito— es peligrosamente convincente.
Este informe me lleva a reafirmar el peligro de no saber usar bien esta increíble tecnología y que va a llevar a más de un disgusto aprender sobre ella.
En resumen
Un LLM no es un buscador. No es un terapeuta. No es un experto. No tiene Inteligencia.
Es una herramienta estadística que genera texto con apariencia de verdad. Y funciona de maravilla si sabes cuándo usarla, cómo preguntar y qué contexto darle.
El problema no es que la IA alucine. El problema es que tú no sepas usarla.
… y la semana que viene: FAQs sobre IA.
Todo lo que siempre quisiste saber, y nunca te atreviste a preguntar. (déjame en comentarios si tienes alguna duda existencial sobre IA y lo añado)
Me sorprende muchísimos los usos de la IA.
El 1 y el 3 están relacionados con aspectos de salud mental y búsqueda de nuevas cosas que te motiven más.
¿Será que cada vez tenemos más tecnología, pero estamos más insatisfechos con nuestra vida?
Muy interesante! Y también sorprendente que la terapia o la búsqueda de propósito personal estén en los primeros puestos. Este carácter "pelota" de la IA da una falsa seguridad y explicaciones como la tuya son muy relevantes para entender con quien "hablamos". Gracias