Détection des arguments gagnants avec des modèles de langage de grande taille et stratégies de persuasion

Image générée par Gemini AI
Une nouvelle étude examine les stratégies de persuasion dans les textes argumentatifs, en utilisant des modèles de langage de grande taille (LLMs) pour améliorer les prédictions concernant la persuasivité des textes. En analysant trois ensembles de données annotées, dont Winning Arguments provenant du subreddit Change My View, les chercheurs ont constaté que le raisonnement guidé par des stratégies améliore de manière significative la précision des évaluations. Ils ont également publié une version annotée par sujet de l'ensemble de données Winning Argument afin de soutenir les recherches futures dans ce domaine.
De nouvelles recherches exploitent les grands modèles de langage pour détecter des arguments persuasifs
Des études récentes ont révélé des avancées dans l'utilisation des grands modèles de langage (LLMs) pour identifier des stratégies persuasives au sein de textes argumentatifs. Cette recherche se concentre sur des stratégies spécifiques telles que les attaques contre la réputation, les techniques de distraction et le langage manipulateur.
L'étude explore trois ensembles de données argumentatives annotées : Winning Arguments, dérivé du subreddit Change My View, Anthropic/Persuasion, et Persuasion for Good. Les chercheurs ont utilisé une méthode de notation de persuasion multi-stratégies, qui améliore la prédiction de la persuasivité d'un texte.
Cette recherche met en évidence l'efficacité d'une incitation structurée et consciente des stratégies, tout en soulignant la nécessité d'une plus grande interprétabilité dans l'évaluation de la qualité des arguments. L'équipe a rendu disponible la version annotée par sujet de l'ensemble de données Winning Arguments, dans le but de soutenir les recherches futures.
Sujets connexes :
📰 Source originale : https://arxiv.org/abs/2601.10660v1
Tous les droits et crédits appartiennent à l'éditeur original.