View Categories

¿El ajuste fino de los modelos de lenguaje grande (LLM) con nuevos conocimientos fomenta alucinaciones?

Introducción y Objetivos

Cuando los modelos de lenguaje grande (LLM) se alinean mediante ajuste fino supervisado, pueden encontrarse con nueva información fáctica no adquirida durante el preentrenamiento. Se conjetura que esto puede enseñar al modelo a alucinar respuestas incorrectas, ya que se entrena para generar hechos no fundamentados en su conocimiento preexistente. Este estudio investiga el impacto de la exposición a nuevos conocimientos en la capacidad del modelo afinado para utilizar su conocimiento preexistente. Se diseña un estudio controlado, centrado en preguntas y respuestas cerradas, variando la proporción de ejemplos de ajuste fino que introducen nuevos conocimientos.

Métodos

Se evaluaron ejemplos conocidos y desconocidos, y se midió la precisión de desarrollo del modelo en función de la duración del ajuste fino. Se demostró que los LLM tienen dificultades para adquirir nuevos conocimientos fácticos a través del ajuste fino, ya que los ejemplos que introducen nuevos conocimientos se aprenden significativamente más lento que aquellos consistentes con el conocimiento del modelo. A medida que se aprenden estos ejemplos con nuevos conocimientos, aumentan linealmente la tendencia del modelo a alucinar.

Resultados

Los resultados muestran que los modelos de lenguaje grande luchan por adquirir nuevos conocimientos fácticos mediante ajuste fino y que los ejemplos de ajuste fino que introducen nuevos conocimientos son aprendidos más lentamente que aquellos que son consistentes con el conocimiento del modelo. Además, a medida que se aprenden los ejemplos con nuevos conocimientos, aumenta la tendencia del modelo a alucinar en relación con su conocimiento preexistente.

Conclusiones

El estudio resalta el riesgo de introducir nuevos conocimientos fácticos a través del ajuste fino y respalda la visión de que los modelos de lenguaje grande adquieren principalmente conocimientos a través del preentrenamiento, mientras que el ajuste fino les enseña a utilizarlo de manera más eficiente. Se recomienda la interrupción temprana del ajuste fino para minimizar el riesgo de alucinaciones.

Referencia Bibliográfica: #

Gekhman, Z., Yona, G., Aharoni, R., Eyal, M., Feder, A., Reichart, R., & Herzig, J. (2024). Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations? arXiv preprint arXiv:2405.05904. https://doi.org/10.48550/arXiv.2405.05904

Enlace al Artículo: #

Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?

Funciona con BetterDocs

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *