La introducción de ChatGPT en noviembre de 2022 demostró el potencial de los modelos amplios de lenguaje (Large Language Model, LLM) en la educación superior. El creciente uso de la inteligencia artificial generativa (GenAI) plantea complicados retos para las universidades que la utilizan. Uno de los problemas es que las respuestas de la IA no siempre son confiables. Una manera de solucionarlo es mediante la generación aumentada por recuperación (Retrieval Augmented Generation, RAG).

Los modelos públicos de GenAI utilizan información disponible públicamente en la Internet. El problema es que dichos datos pueden estar obsoletos o ser directamente erróneos. Los modelos de RAG pueden, en cambio, consultar datos curados o generados por las propias universidades.

Dichas bases se pueden actualizar continuamente y, dado que no están expuestos a la Internet, pueden contener información exclusiva, no disponible públicamente. Eso permite obtener respuestas mucho más precisas y oportunas. Además, por supuesto, a través de Internet pueden complementarse con información relevante de fuentes externas pero confiables.

Cada vez más universitarios tienen la expectativa de tener disponibles chatbots inteligentes que los ayuden a acceder a la información fácilmente. De ahí la importancia de que los modelos de RAG aumenten la tasa de respuestas relevante y precisas. Sin embargo, no es una tarea sencilla.

Para implementar los modelos de RAG se requiere armonizar el hardware, software, los modelos fundamentales y herramientas de desarrollo que alimentan la GenAI. Por otra parte, se necesita una sólida plataforma de almacenamiento unificada. Y no todas las universidades pueden enfrentar ese reto.

Configurar los modelos de RAG

La mayoría de los chatbots disponibles son limitados para comprender preguntas más complejas o específicas o el contexto el que se formulan. Por ende, no sólo dan respuestas erradas, sino que a veces de plano las inventan, lo que en el campo de la IA se denomina “alucinación”. La generación aumentada de recuperación ayuda a mitigar dichas limitaciones.

Por lo general, la RAG trabaja en dos etapas: en la primera, se enfoca en recuperar sólo documentos relevantes; en la segunda, una vez filtradas las fuentes de información, ocupa los datos para generar sus respuestas. Eso resulta en mayor relevancia y precisión de los resultados.

Sin embargo, a pesar de su eficacia, todavía queda mucho por mejorar en los modelos de RAG en la educación universitaria. En primer lugar, es necesario identificar y procesar el contenido relevante para la optimización de la evaluación de documentos. Luego, se deben cargar en una base de datos vectorial. Luego, se debe determinar la manera en que el LLM recibirá las instrucciones sobre el procedimiento a seguir para responder a las preguntas.

Aunque complicado, a largo plazo vale la pena implementar modelos de RAG en las universidades. Existen estudios que muestran su efectividad para mejorar la experiencia de los estudiantes, sobre todo cuando se trata de enseñanza personalizada. Además, es un hecho que mitigan la frecuencia de las alucinaciones de los LLM.