报告人 | 蔡奇栩 |
报告时间 | 2025-04-10 |
讨论组 | 语法理论与语言工程 |
关键词 | 自我纠错、多路径推理、跨学科泛化 |
摘要或简介 | 本研究聚焦于提升大语言模型(LLM)在复杂推理任务中的泛化与自我纠错能力。通过系统梳理当前主流方法,如LEMMA、S³C-Math、Reflexion、ReSTEM等,本文提出了一种融合“错误驱动反思”与“多路径推理”的自我改进框架。该框架鼓励模型生成多样化解题路径,自动识别并修正错误,进而构建高质量训练数据进行微调,从而提升模型在数学、编程、常识推理等跨学科任务中的表现。实验设想涵盖不同模型规模、训练策略与领域迁移,旨在验证该方法在准确率、过程质量、错误率降低及推理多样性等方面的综合优势。本研究强调:通过构建自我反思机制与跨领域训练,LLM可实现类似人类的“从错误中学习”,突破传统监督学习的数据瓶颈,迈向更自主、更泛化的智能推理系统。 |
发布人 | miaode1 |
发布范围 | 全网 |
讨论记录 | |
下载次数 | 12 |
浏览次数 | 12 |
© CCL of Peking University 2019