Las universidades adoptan cada vez más el uso de la inteligencia artificial generativa (GenAI). Sin embargo, el aprovechamiento pleno de sus modelos grandes de lenguaje (Large Language Models, LLM) es costoso. Entrenarlos debidamente requiere numerosos recursos computacionales y humanos e implica el uso de mucha energía. Ahora bien, las universidades pueden echar mano de una alternativa viable: el uso de modelos pequeños de lenguaje (Small Language Models, SLM). Dos ejemplos son Microsoft Phi-2 y Google Gemini Nano.

Diseñados para tareas específicas con menores necesidades computacionales, los SLM son más compactos, eficientes y fáciles de integrar con la infraestructura de las universidades. Mientras que los modelos grandes se entrenan con enormes cantidades de datos para responder preguntas más generales, los modelos pequeños de lenguaje requieren menos datos, específicos de cada dominio. En el caso de las universidades, pueden provenir, por ejemplo, de los sistemas de gestión de aprendizaje (Learning Management System, LMS).

Entre las ventajas de los SLM se cuenta la disminución de las llamadas “alucinaciones”. Esto es, se reduce el número de respuestas inexactas o falsas debidas a los intentos de la GenAI por subsanar lagunas en la información. Además, como consumen menos energía, los modelos pequeños de lenguaje son más económicos y fáciles de alinear con objetivos de sostenibilidad ambiental.

A diferencia de los LLM, entrenados con miles de millones o billones de variables, los SLM requieren sólo unos pocos millones. Su puesta a punto puede ser acelerada con por los propios modelos grandes de lenguaje, un proceso denominado compresión o destilación. Es decir, el modelo más grande entrena al más pequeño.

Aplicaciones de los modelos pequeños de lenguaje

Una vez entrenados, los SLM pueden enfocarse en trabajos específicos de departamentos individuales. Es decir, pueden coadyuvar en tareas pedagógicas determinadas que faciliten el aprendizaje personalizado. De hecho, al concentrarse en dominios acotados, los modelos pequeños de lenguaje pueden actuar como agentes autónomos especialistas en esas materias.

Por otra parte, los SLM también tienen utilidad fuera de las actividades estrictamente docentes. Por ejemplo, pueden entrenarse para monitorear el estado de los sistemas de la universidad y facilitar el mantenimiento predictivo. Así, al agilizar la corrección de problemas o el reemplazo de componentes antes de que fallen, contribuyen a evitar averías más costosas.

La gobernanza de datos también puede robustecerse con el uso de los modelos pequeños de lenguaje. Dado que pueden funcionar en conjunto con los modelos grandes de lenguaje, los SLM pueden monitorear que aquellos se apeguen a la normatividad y así atajar posibles infracciones en el manejo de la información.

Ahora bien, los mayores beneficios de los modelos pequeños de lenguaje probablemente provengan de los dispositivos conectados en el borde la red. Dado que muchos de ellos —teléfonos inteligentes, cámaras, sensores y computadoras portátiles— ya incorporan chips de IA, los SLM pueden aprovechar sus datos para inferir mejor las necesidades de los usuarios.

Sin embargo, aunque lucen muy promisorios, los modelos pequeños de lenguaje deben utilizarse con cuidado. Aun cuando son menos propensos a las alucinaciones que los LLM, no son inmunes a ellas. Tampoco están exentos de riesgos de ciberseguridad. Por ende, los SLM en las universidades deben ajustarse y supervisarse con regularidad para asegurar que brindan los mejores resultados posibles.