AI
Noticias IA

Ampliación de las capacidades del aprendizaje por refuerzo mediante retroalimentación textual

Source:arXiv
Autor original:Yuda Song et al.
Ampliación de las capacidades del aprendizaje por refuerzo mediante retroalimentación textual

Imagen generada por Gemini AI

Un estudio reciente presenta el aprendizaje por refuerzo a partir de retroalimentación textual (RLTF), que aprovecha las críticas textuales para mejorar los modelos de lenguaje grande después de su entrenamiento. A diferencia de los métodos tradicionales, RLTF utiliza el aprendizaje por refuerzo en múltiples turnos, lo que permite a los modelos asimilar la retroalimentación sin necesidad de demostraciones extensivas. Se probaron dos técnicas, la auto-destilación y la modelización de retroalimentación, en diversas tareas, y ambas demostraron superar de manera consistente las líneas base existentes. Esto sugiere que la retroalimentación textual puede mejorar significativamente el rendimiento de los modelos de manera eficiente.

Ampliando las Capacidades de Aprendizaje por Refuerzo con Retroalimentación de Texto

Los avances recientes en el aprendizaje por refuerzo (RL) para modelos de lenguaje grande (LLMs) han revelado un novedoso enfoque que utiliza la retroalimentación de texto como una señal intermedia para mejorar la eficiencia del entrenamiento del modelo. Las estrategias actuales de RL a menudo dependen de retroalimentación mínima, típicamente limitada a recompensas binarias. La introducción de la retroalimentación de texto busca cerrar esta brecha, ofreciendo una alternativa más informativa y, a la vez, rentable.

Introduciendo RL a partir de Retroalimentación de Texto (RLTF)

El marco propuesto, RL a partir de Retroalimentación de Texto (RLTF), formaliza una configuración de entrenamiento de RL de múltiples turnos, donde se utiliza la retroalimentación de texto durante el entrenamiento, pero no está disponible en la inferencia. Los modelos deben internalizar la retroalimentación para mejorar su rendimiento en escenarios de un solo turno durante las pruebas.

Se han introducido dos métodos innovadores:

  • Auto Destilación (RLTF-SD): Este enfoque entrena la política para alinearse con sus propias salidas en el segundo turno condicionadas a la retroalimentación, fomentando la consistencia en las respuestas del modelo.
  • Modelado de Retroalimentación (RLTF-FM): Este método tiene como objetivo predecir la retroalimentación como un objetivo auxiliar, guiando aún más al modelo en su proceso de aprendizaje.

Evaluaciones Teóricas y Empíricas

Los investigadores llevaron a cabo un análisis teórico exhaustivo de ambos métodos RLTF, seguido de evaluaciones empíricas en diversas tareas, incluyendo acertijos de razonamiento y ejercicios de escritura creativa. Los resultados demostraron de manera consistente que ambos métodos RLTF superaron significativamente a modelos base sólidos en estos benchmarks.

Los hallazgos subrayan el potencial de integrar la retroalimentación de texto como una rica fuente de supervisión en RL, sugiriendo que este enfoque podría conducir a LLMs más robustos y adaptables.

Temas relacionados:

aprendizaje por refuerzoretroalimentación textualmodelos de lenguaje de gran tamañoRLTFautodistilación

📰 Fuente original: https://arxiv.org/abs/2602.02482v1

Todos los derechos y créditos pertenecen al editor original.

Compartir este artículo