Alucinaciones en Modelos de Lenguaje: OpenAI Revela el Origen del Problema
Una nueva investigación de **OpenAI** revela que las "alucinaciones" en los **modelos de lenguaje** (**LLM**) se deben a diferencias estadísticas entre el aprendizaje supervisado y el autosupervisado, un problema agravado por las métricas de evaluación actuales.

El Origen Estadístico de las Alucinaciones
Los modelos de lenguaje (LLM) a menudo generan "alucinaciones": respuestas incorrectas pero plausibles. Un estudio de OpenAI explica que estas alucinaciones no son errores aleatorios, sino que se originan en las diferencias estadísticas entre el aprendizaje supervisado, usado para el ajuste fino, y el autosupervisado, empleado en el preentrenamiento.
Métricas de Evaluación: Un Problema Agravado
La investigación también señala que las métricas de evaluación actuales refuerzan la persistencia de las alucinaciones. Al no penalizar suficientemente las respuestas incorrectas pero que "suenan bien", los modelos no aprenden a evitar este comportamiento. Se necesitan nuevas métricas que evalúen la veracidad y la coherencia de la información generada.
Implicaciones para el Futuro de los LLMs
Entender el origen estadístico de las alucinaciones es crucial para desarrollar LLM más fiables. El estudio de OpenAI abre nuevas vías de investigación para mejorar los métodos de entrenamiento y las métricas de evaluación, apuntando hacia modelos más precisos y menos propensos a la desinformación.
Este avance es fundamental para la adopción responsable de la IA en campos críticos como la medicina, el periodismo y la educación.