FLEx: Modelagem de Linguagem com Explicações em Poucos Exemplares

Imagem gerada por Gemini AI
Pesquisadores desenvolveram o FLEx (Few-shot Language Explanations), um método que aprimora o desempenho de modelos de linguagem ao utilizar um pequeno conjunto de exemplos explicativos cuidadosamente selecionados. Ao agrupar erros do modelo e resumir correções eficazes, o FLEx melhora a precisão em tarefas como resolução de problemas matemáticos e resposta a perguntas, sem alterar os pesos do modelo. Avaliado em conjuntos de dados como CounterBench e GSM8K, o FLEx superou significativamente as abordagens tradicionais de raciocínio encadeado, reduzindo erros em até 83%. Essa abordagem pode simplificar o processo de correção em áreas que exigem a contribuição de especialistas.
FLEx Introduz Explicações de Linguagem em Few-shot para Melhorar a Precisão de Modelos de Linguagem
Uma nova abordagem, FLEx (Explicações de Linguagem em Few-shot), visa aumentar a precisão dos modelos de linguagem utilizando exemplos explicativos mínimos. O FLEx identifica e seleciona erros representativos cometidos pelo modelo através de métodos de agrupamento baseados em embeddings e verifica explicações associadas para corrigir esses erros. O resultado é um prefixo de prompt adicionado no momento da inferência, orientando o modelo a evitar erros semelhantes em entradas futuras sem alterar seus pesos subjacentes.
Avaliação e Desempenho
O FLEx foi avaliado utilizando três conjuntos de dados: CounterBench, GSM8K e ReasonIF. Os resultados mostram que o FLEx superou consistentemente a abordagem tradicional de prompting em cadeia de raciocínio (CoT), reduzindo até 83% dos erros que persistem com o prompting CoT.
Tópicos relacionados:
📰 Fonte original: https://arxiv.org/abs/2601.04157v1
Todos os direitos e créditos pertencem ao editor original.