Por Abog. Not. Carina Castelli
El uso de herramientas de inteligencia artificial generativa se ha extendido rápidamente en ámbitos profesionales que procesan grandes volúmenes de información: derecho, periodismo, investigación, medicina, administración pública y empresas. Sin embargo, junto con su capacidad para analizar y sintetizar datos, estos sistemas presentan un fenómeno conocido como “fabulación” o “alucinación” de la inteligencia artificial: respuestas aparentemente correctas que en realidad contienen errores o información inexistente. Comprender este fenómeno y aplicar mecanismos de verificación se ha vuelto una habilidad esencial para quienes trabajan con datos y documentos.
Qué son las “fabulaciones o alucinaciones” de la inteligencia artificial
En el campo de la informática y la ingeniería de sistemas, se denomina fabulación de inteligencia artificial (AI hallucination) a una situación en la que un modelo de lenguaje genera información incorrecta, inventada o no verificada, pero presentada con una apariencia de precisión.
Este fenómeno ocurre principalmente en los sistemas de IA generativa basados en modelos de lenguaje, diseñados para predecir palabras y construir respuestas a partir de patrones estadísticos aprendidos durante su entrenamiento.
En términos simples:
la IA no “sabe” si algo es verdadero o falso, sino que genera la respuesta más probable según los datos con los que fue entrenada.
Por esa razón puede:
citar leyes inexistentes
inventar autores o estudios académicos
atribuir declaraciones a personas que nunca las realizaron
generar datos numéricos incorrectos
construir explicaciones plausibles pero falsas
Para profesionales que trabajan con información sensible —como abogados, investigadores, médicos, periodistas o analistas— este riesgo exige un uso crítico de estas herramientas.
Por qué se producen las fabulaciones
Desde la perspectiva técnica, las fabulaciones se producen por varias razones estructurales del funcionamiento de los modelos de IA:
1. Predicción probabilística del lenguaje
Los modelos generan texto prediciendo la siguiente palabra más probable. No verifican hechos en una base de datos en tiempo real.
2. Datos de entrenamiento incompletos o desactualizados
Los sistemas aprenden de grandes volúmenes de textos disponibles en internet, que pueden contener errores, sesgos o información antigua.
3. Falta de contexto específico
Cuando una pregunta es demasiado amplia o ambigua, el modelo intenta completar la respuesta con inferencias.
4. Presión por responder
Los modelos están diseñados para producir una respuesta. Cuando no tienen información suficiente, pueden “completar” el contenido con suposiciones.
Cómo detectar una posible fabulacion
En entornos profesionales, existen señales que pueden indicar que una respuesta generada por IA podría contener errores:
citas normativas o jurisprudenciales sin fuente verificable
referencias a instituciones que no existen
fechas demasiado precisas sin origen documental
datos estadísticos sin referencia metodológica
respuestas demasiado seguras en temas altamente especializados
Una regla básica en el uso profesional de IA es considerar cualquier resultado como un borrador inicial de análisis, no como una fuente definitiva.
Estrategias para evitar errores en el uso profesional de IA
Los especialistas en sistemas de información recomiendan adoptar un enfoque de verificación asistida al utilizar herramientas de inteligencia artificial.
Entre las prácticas más eficaces se encuentran:
1. Solicitar siempre fuentes
Cuando se utilice una herramienta de IA para investigación o análisis documental, es recomendable pedir:
referencias bibliográficas
enlaces a documentos
citas textuales verificables
Esto permite comprobar la información en fuentes primarias.
2. Dividir las consultas en preguntas específicas
Las preguntas muy amplias aumentan el riesgo de errores. Es preferible formular consultas delimitadas y precisas.
Por ejemplo:
Incorrecto:
“Explique todo sobre regulación de inteligencia artificial”.
Correcto:
“¿Qué regulaciones sobre inteligencia artificial se aprobaron en la Unión Europea en 2024?”
3. Verificación cruzada
Las respuestas generadas por IA deben contrastarse con:
bases de datos jurídicas
artículos académicos
documentos institucionales
publicaciones oficiales
4. Usar la IA como asistente, no como fuente
En ámbitos profesionales, la inteligencia artificial funciona mejor como:
herramienta de síntesis
generador de borradores
sistema de clasificación documental
asistente de investigación preliminar
La validación final siempre debe realizarse mediante revisión humana.
5. Integrar sistemas de verificación documental
En organizaciones que trabajan con grandes volúmenes de información, la tendencia actual es combinar IA generativa con:

Este enfoque se conoce como arquitectura de IA con recuperación de información (Retrieval Augmented Generation, RAG).
Una nueva alfabetización profesional
El crecimiento de la inteligencia artificial está transformando la manera en que se produce, analiza y distribuye la información. Sin embargo, lejos de reemplazar el juicio humano, estas herramientas requieren una nueva alfabetización profesional basada en pensamiento crítico y verificación de datos.
Para juristas, periodistas, médicos, investigadores y especialistas en información entre otros, el desafío no es solo aprender a usar la inteligencia artificial, sino aprender a dialogar con ella sin delegar la responsabilidad sobre la verdad de los datos.
En ese sentido, comprender el fenómeno de las fabulaciones de la IA se ha convertido en una competencia central en la era de los sistemas generativos.