提升大语言模型推理能力的研究汇报——利用自我纠错和跨学科数据增强泛化能力



报告人蔡奇栩
报告时间2025-04-10
讨论组语法理论与语言工程
关键词自我纠错、多路径推理、跨学科泛化
摘要或简介

本研究聚焦于提升大语言模型(LLM)在复杂推理任务中的泛化与自我纠错能力。通过系统梳理当前主流方法,如LEMMA、S³C-Math、Reflexion、ReSTEM等,本文提出了一种融合“错误驱动反思”与“多路径推理”的自我改进框架。该框架鼓励模型生成多样化解题路径,自动识别并修正错误,进而构建高质量训练数据进行微调,从而提升模型在数学、编程、常识推理等跨学科任务中的表现。实验设想涵盖不同模型规模、训练策略与领域迁移,旨在验证该方法在准确率、过程质量、错误率降低及推理多样性等方面的综合优势。本研究强调:通过构建自我反思机制与跨领域训练,LLM可实现类似人类的“从错误中学习”,突破传统监督学习的数据瓶颈,迈向更自主、更泛化的智能推理系统。

发布人miaode1
发布范围全网
讨论记录

下载次数12
浏览次数12

下载文献(14.5 MB) 查看幻灯片(14.5 MB)  登录后可执行更多操作


© CCL of   Peking University  2019