AI
Noticias IA

FLEx: Modelado del Lenguaje con Explicaciones de Pocas Muestras

Source:arXiv
Autor original:Adar Avsian et al.
FLEx: Modelado del Lenguaje con Explicaciones de Pocas Muestras

Imagen generada por Gemini AI

Investigadores han desarrollado FLEx (Explicaciones de Lenguaje con Pocos Ejemplos), un método que mejora el rendimiento de los modelos de lenguaje utilizando un pequeño conjunto de ejemplos explicativos cuidadosamente seleccionados. Al agrupar los errores del modelo y resumir correcciones efectivas, FLEx aumenta la precisión en tareas como la resolución de problemas matemáticos y la respuesta a preguntas, sin necesidad de modificar los pesos del modelo. Evaluado en conjuntos de datos como CounterBench y GSM8K, FLEx superó significativamente el rendimiento de los métodos tradicionales de razonamiento encadenado, reduciendo los errores hasta en un 83%. Este enfoque podría optimizar el proceso de corrección en dominios que requieren la intervención de expertos.

FLEx Introduce Explicaciones de Lenguaje de Pocos Ejemplos para Mejorar la Precisión de Modelos de Lenguaje

Un nuevo enfoque, FLEx (Explicaciones de Lenguaje de Pocos Ejemplos), tiene como objetivo mejorar la precisión de los modelos de lenguaje utilizando ejemplos explicativos mínimos. FLEx identifica y selecciona errores representativos cometidos por el modelo a través de métodos de agrupamiento basados en incrustaciones y verifica las explicaciones asociadas para corregir estos errores. El resultado es un prefijo de aviso añadido en el momento de la inferencia, guiando al modelo para evitar errores similares en entradas futuras sin cambiar sus pesos subyacentes.

Evaluación y Rendimiento

FLEx fue evaluado utilizando tres conjuntos de datos: CounterBench, GSM8K y ReasonIF. Los resultados muestran que FLEx superó consistentemente el enfoque tradicional de aviso de cadena de pensamiento (CoT), reduciendo hasta un 83% de los errores que persisten con el aviso CoT.

Temas relacionados:

FLExmodelos de lenguajeexplicaciones de pocos ejemploscorrección de erroresprompting de cadena de pensamiento

📰 Fuente original: https://arxiv.org/abs/2601.04157v1

Todos los derechos y créditos pertenecen al editor original.

Compartir este artículo