利用大型语言模型和说服策略检测有效论证

Gemini AI生成的图像
一项新研究探讨了论证文本中的劝说策略,利用大型语言模型(LLMs)提升文本说服力的预测效果。通过分析三个带注释的数据集,包括来自“改变我看法”子版块的胜利论证数据集,研究人员发现,基于策略的推理显著提高了评估的准确性。此外,他们还发布了一个主题注释版本的胜利论证数据集,以支持未来在这一领域的研究。
新研究利用大型语言模型检测有说服力的论点
最近的研究揭示了在识别论证文本中的说服策略方面利用大型语言模型(LLMs)的进展。这项研究关注具体策略,如声誉攻击、分散注意力技巧和操控性措辞。
该研究探讨了三个标注过的论证数据集:Winning Arguments(取自Change My View子版块)、Anthropic/Persuasion和Persuasion for Good。研究人员采用了一种多策略说服评分方法,以提高文本说服力的预测能力。
这项研究强调了结构化、关注策略的提示的有效性,并强调了在评估论证质量时需要更高的可解释性。研究团队已将标注主题的Winning Arguments数据集公开,以支持未来的研究。
相关主题:
大型语言模型说服策略论证文本预测准确性数据集
📰 原始来源: https://arxiv.org/abs/2601.10660v1
所有权利和署名均属于原出版商。