Control de la Conversación en LLMs mediante Ontologías: Hacia una IA Conversacional más Predecible
Un nuevo enfoque basado en ontologías promete mejorar el control y la personalización de las respuestas en **Grandes Modelos de Lenguaje (LLMs)**, permitiendo definir formalmente características conversacionales cualitativas.

Definiendo la Conversación con Ontologías
Investigadores proponen un nuevo método para controlar la conversación en LLMs, utilizando ontologías para definir formalmente características conversacionales, tradicionalmente cualitativas. Mediante descriptores lingüísticos, se derivan definiciones cuantitativas para conceptos como el nivel de competencia lingüística, permitiendo su integración en una ontología para el razonamiento y la verificación de consistencia.
El Poder de la Lógica Descriptiva
Este enfoque se basa en la lógica descriptiva, formalizando las definiciones dentro de la ontología. Esta ontología guía la generación de texto controlada de un LLM a través del ajuste fino (fine-tuning). Se utiliza el Marco Común Europeo de Referencia para las Lenguas (MCER) como caso de estudio para el control del nivel de competencia en las conversaciones.
Más Allá de la Palabras: Implicaciones para el Futuro
Esta investigación no solo busca mejorar la predictibilidad de los LLMs, sino también aumentar la transparencia y la explicabilidad en la IA conversacional. Al formalizar las características de la conversación, se abre la puerta a interacciones más personalizadas y controladas, adaptándose a las necesidades específicas de cada usuario. El uso de ontologías podría ser clave para el desarrollo de futuros sistemas de diálogo más robustos y confiables.
La aplicación de este enfoque a otros aspectos de la conversación, como el tono emocional o el estilo, promete un futuro emocionante para la IA conversacional.