Nuevo Método Detecta "Alucinaciones" en Modelos de Lenguaje de Caja Negra
Investigadores han desarrollado una técnica para identificar alucinaciones en Modelos de Lenguaje Grandes (LLMs) de caja negra, utilizando la tasa de producción de entropía a nivel de token. Este avance promete mejorar la fiabilidad de los LLMs en tareas de respuesta a preguntas.

Detectando Alucinaciones en LLMs de Caja Negra
Un nuevo método promete mejorar la fiabilidad de los Modelos de Lenguaje Grandes (LLMs), especialmente en tareas de respuesta a preguntas, al detectar las llamadas "alucinaciones". Estas alucinaciones, donde el modelo genera información incorrecta o inventada, son un obstáculo importante para la adopción generalizada de los LLMs.
El estudio, publicado en arXiv, introduce una metodología para la detección de alucinaciones en LLMs de caja negra, es decir, aquellos a los que se accede a través de APIs y cuyo funcionamiento interno no es visible. La técnica se basa en el análisis de la tasa de producción de entropía (EPR) a nivel de token, una medida de la incertidumbre del modelo al generar cada palabra.
Un Enfoque Práctico y Eficiente
La novedad radica en que el método utiliza las probabilidades logarítmicas de los tokens generados durante la decodificación, información que suele estar disponible a través de las APIs. Esto permite una detección de alucinaciones en una sola ejecución, sin necesidad de múltiples consultas al modelo. Además, el sistema se ha optimizado para funcionar con la información limitada que suelen proporcionar las APIs, típicamente las probabilidades de menos de 10 tokens por cada posición.
Implicaciones para el Futuro de los LLMs
Este avance es significativo porque aborda un problema crítico en la aplicación práctica de los LLMs. Al mejorar la capacidad de detectar alucinaciones, se incrementa la confianza en las respuestas generadas por estos modelos. Esto es especialmente relevante en áreas como la recuperación aumentada por generación (RAG) y en aplicaciones sensibles a la precisión, como las finanzas, donde el estudio demuestra su utilidad analizando informes anuales.
La detección efectiva de alucinaciones es un paso crucial para una integración más robusta y fiable de los LLMs en diversas industrias.