C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少校

注册:2010-4-2810
发表于 2025-4-23 16:06:06 |显示全部楼层
Transformer编辑Ashish Vaswani团队重磅LLM研究!简单指令:「Wait,」就能有效激发LLM显式反思,表现堪比直接告知模型存在错误。
只要预训练,LLM就能涌现自我反思、自我纠正!

Transformer首席编辑Ashish Vaswani带队的新研究引来万人围观!

亚星游戏官网-yaxin222


强化学习已证明能有效激发大语言模型的反思能力.

但在预训练阶段,这种能力是否早已显现呢?

针对这一假设,研究得出了令人惊讶的结论:只需预训练,LLM就能通过显式反思机制,解决了来自对抗性数学应用题!

亚星游戏官网-yaxin222


图1:随着预训练计算量的增加,OLMo-2的checkpoint通过显式反思机制,解决了对抗性数学题


新研究证明:跨领域预训练早期,反思能力就开始萌芽。

这表明预训练过程本身就在塑造通用推理能力。

这一发现为在预训练阶段加速推理能力习得开辟了新路径。

性能的显著提升,竟源于一个简单指令:「Wait,」。

这能有效激发显式反思,而且随着预训练推进效果尤为明显,表现堪比直接告知模型存在错误时的修正效果。

这证明反思与准确率提升存在因果关系。

亚星游戏官网-yaxin222


论文链接:https://arxiv.org/abs/2504.04022


最近的大部分研究,都集中在「自我纠正」在强化学习过程中如何发展。

但实际上,在预训练阶段,「自我纠正」能力就开始出现。

为此研究人员故意在推理链中引入错误,并测试模型是否能识别并纠正这些错误,最后得出正确答案。

通过跟踪不同预训练阶段的表现,研究人员观察到自我纠正能力早已出现,并随着时间的推移稳步提高。

例如,在4万亿个token上预训练的OLMo-2-7B,在6个自我反思任务中,表现出了自我纠正能力。

在数学、编程、逻辑推理和常识获取等多个领域,使用组多样化数据集,评估了OLMo-2系列模型的预训练checkpoint,结果表明反思在各个领域都普遍存在。

部分预训练的模型也能持续识别出人为引入的错误及自身生成的错误。

具体而言:

在240个数据集-checkpoint组合中,231组至少出现一次情境反思实例;154组至少展现一次自我反思能力。

随着预训练程度加深,模型能修正更多对抗样本,各任务准确率与预训练计算量对数之间的皮尔逊相关系数平均达0.76。

更重要的是,随着预训练推进,模型表现出三大进阶特征:

<ol>
  • 从错误推理中恢复的能力,持续增强;
  • 生成结果中,显性反思的出现频率提升;
  • 对纠正混淆性思维链的贡献度,显性反思增大。
    </ol>
    AI集体「顿悟」和「反思」

    DeepSeek-R1论文的编辑,认为反思(reflection)强化学习的结果:

    诸如反思(即模型回溯并重新评估先前的推理步骤)以及探索替代性解题方法等行为,并非通过显式编程实现,而是模型与强化学习环境交互过程中,自然涌现的结果。

    这种自发演化显著提升了DeepSeek-R1-Zero的推理能力,使其能以更高效率和准确度应对更具挑战性的任务。

    也就是说,DeepSeek认为模型的「反思」是因为强化学习。

    亚星游戏官网-yaxin222


    在强化学习过程中,DeepSeek-R1-Zero回答的长度越来越长


    在强化学习训练中,他们还观察到了AI学会了以拟人化的方式「再思考」(rethink),认为这是AI的「顿悟时刻」。

    亚星游戏官网-yaxin222


    DeepSeek-R1-Zero在数学推理中,仿佛阿基米德附身:「等等...再等一下!这绝对是值得铭记的顿悟时刻!」


    这一度引起了AI复刻「AI顿悟时刻」的浪潮。

    但来自新加波国立大学等机构的研究团队,初步研究证明:R1-Zero可能根本就不存在顿悟时刻。

    DeepSeek团队发现的现象,只因强化学习的「副作用」!

    这次Transformer编辑Ashish Vaswani,更加彻底地研究了「AI自我反思」的根源。

    新研究区分了情境反思(situational-reflection)与自我反思(self-reflection)来解决这一难题。

    前者指模型检验外部推理链(如其他前沿模型生成的内容),后者则是模型审视自身推理过程。

    通过测试模型在接收错误诱导性推理后仍能正确解题的能力,实现了对预训练全程反思能力的量化监测。

    图2展示了预训练的OLMo-2的checkpoint解决编程任务的案例。

    亚星游戏官网-yaxin222


    图2:预训练的OLMo-2-32B模型通过自我反思正确预测程序输入。OLMo-2拥有320亿参数、经4.8万亿token预训练,最初直接重复Python函数f的输出「avdropj gsd」,作为答案输出。只需要在提示前加上「等待」(wait)后,AI模型成功实现自我反思,最终生成:「我意识到出错了...??的值应该是['gsd', 'avdropj']」


    程序化方式引入错误思维链(Chain-of-Thought,CoT),能可控且可扩展地调节完成任务所需的反思程度。

    为此,研究团队构建了6个数据集涵盖数学、编程、逻辑推理和常识获取4大领域,可同步评估情境反思与自我反思2种能力。

    方法3步曲

    新研究的目标是全面且大规模地衡量反思能力。

    为此,提出了反思的定义,展示了如何程序化地创建任务引发反思,以及如何严格地衡量反思的存在

    反思的定义

    反思是一种高级认知过程,涉及对信息的检查、对其背后推理的评估,以及根据该评估调整未来的行为。

    在语言模型的背景下,这个过程可以应用于从外部来源引入的信息或模型自身生成的信息。

    在这项研究中,设定了下面两种情境来引发和测量反思。

    1.情境反思:模型对由其他来源(例如,另一个模型)创建的信息进行反思。

    2.自我反思:模型对其自身生成的输出进行反思。

    而且研究团队还将反思分为如下两种形式。

    1.显式反思:当模型生成的token含义能够识别并解决对抗性情境中的错误时。显式反思可能出现在正确的模型输出(即构成对大家对抗性任务的正确答案的输出)或错误的模型输出中。

    2.隐式反思:当模型在不对先前推理中的错误进行显式识别的情况下,成功解决对抗性情境中的任务时。

    对抗性数据集诱发反思行为

    研究人员提出一种创新算法,用于生成能诱发语言模型反思行为的对抗性数据集。

    新算法可以创建对抗性链条(CoTs)。

    该算法通过构建导向错误解决方案的对抗性思维链(CoTs)实现:

    情境反思数据集:需人工构建对抗性CoTs(模拟人类典型推理错误);

    自我反思数据集:可直接提取模型自身错误案例。

    在这两种情况下,当提供上下文中的CoTs时,模型必须对这些错误进行反思,并修正它们以得到正确的解决方案。

    任务设计包括添加一个触发token,如「Wait,」(等待),有助于持续推理整个解题过程。

    该算法有两个变体:算法1和算法2,分别创建情境反思和自我反思数据集。

    亚星游戏官网-yaxin222


    亚星游戏官网-yaxin222


    测量反思能力

    研究人员提出了一种自动方法,基于先前对反思的分类,使用对抗性数据集来测量模型的反思能力:

    为了识别显式反思的实例,开发了基于提示的语言模型(LLM)分类器,能够检测模型输出是否明确承认错误,并最终解决了提供的对抗性上下文中的错误,无论模型是否得出了正确答案。

    在存在对抗性上下文的情况下,所有导致得出正确答案的模型生成的内容,都可以归因于反思,即使没有输出与反思相关的标记。

    实验结果

    为了全面测量跨领域的反思推理,分类器在BBH、cruxeval-i、cruxeval-o、GSM8K、GSM8K-Platinum和TriviaQA数据集中,区分了显式反思和隐式反思,分别用于情境反思和自我反思。

    令人惊讶的是,随着训练计算量的增加,发现反思现象显著增强。

    此外,随着预训练的进展,模型越来越能够从混淆因素中恢复,显式反思的比例增加。

    并且显式反思对从混淆因素中恢复的贡献也越来越大(详见表5中的示例)。

    亚星游戏官网-yaxin222


    表5:显式反思短语的例子


    所有模型:显式情境反思均存在

    在表6中,除了cruxeval-i任务外,所有任务中的OLMo-2预训练checkpoint,都显示出从情境混淆因素中恢复的迹象,无论是隐式还是显式的。

    在240个数据集-checkpoint对中,有231个展示了至少一次情境反思的实例。

    亚星游戏官网-yaxin222


    表6:预训练模型在不同任务中可以纠正非零对抗性示例,并且随着预训练的增加,准确率和显式反思的比例均有所提高


    然而,即模型逐渐发展并使用显式反思,大多数恢复应归因于显式情境反思。

    具体来说,随着更多的预训练计算资源,期待能够观察到以下三点增加的趋势:

    <ol>
  • 从情境混淆因素中恢复。
  • 明确反思情境混淆因素。
  • 通过显式反思从情境混淆因素中恢复。
    </ol>
    高皮尔逊相关系数(Pearson correlations)表明每个指标与预训练计算量的对数(log(pre-training compute))之间的关系支撑了上述三点。

    还观察到隐式反思准确率与预训练计算量的对数之间的相关性较低。

    如图3所示,在GSM8K-Platinum数据集上,随着预训练的增加,不同参数数量的模型,显式反思推理错误,解决了大部分任务实例。

    亚星游戏官网-yaxin222


    图3:OLMo-2系列模型在GSM8K-Platinum对抗性评估中的情境反思表现


    结果显示:(1)模型准确率随预训练计算量增加而提升;(2)准确率增益中78.4%可归因于显性反思机制。

    六个任务的全部详细结果,可以在原文附录C中找到。

    没有触发词也能反思

    为了理解「Wait,」触发词的因果作用,在GSM8K-Platinum数据集上,研究了模型在极端情况下的表现。

    具体来说,研究了2种模式下的模型表现:

    A模式:没有触发词,尽量减少对对抗性CoTs中错误的关注

    B模式:包含明确承认错误的触发词,如「Wait, I made a mistake」。强调CoT中存在的错误

    图4展示了这些结果。

    无触发词的情况下,结果首先证实了假设:即使没有触发词,随着预训练的进行,模型在处理情境混淆因素时的成功率也在逐步提高。

    在A模式下,模型通过隐式反思提高了准确性。

    有触发词的情况下,「Wait,」触发词的作用得到了进一步澄清。

    在B模式下,模型通过显式反思显著提高了性能。

    「Wait,」设置在隐式反思时,表现类似于A模式,在显式反思时表现类似于B模式。

    性能以分解为以下公式:accWait=eWait*accB+(1eWait)*i_accA,其中eWait是显式反思的比例,i_acc是隐式反思的准确性。

    亚星游戏官网-yaxin222


    图4:即使不存在触发机制,模型仍能对情境性对抗样本进行反思与修正


    显式自我反思

    初看起来,表7中自我反思的稀有性,可能被视为一个负面结果。

    亚星游戏官网-yaxin222


    表7:在各项任务中,预训练模型能够纠正非零对抗样本,并且随着预训练量的增加,能够实现更高的准确率以及更为明确的自我反思


    然而,这可能是因为它们之前回答错误的任务实例上,要求AI模型进行评估——

    因此,这些任务特别困难。

    尽管如此,在大约64.2%的任务尝试中,模型确实展示了一定程度的自我纠正能力。

    为了区分自我反思和自我纠正,图5绘制了模型生成的反思率,而不考虑任务是否被解决。

    这显示了明显的趋势:随着预训练的进展,模型在显式突出自身错误方面变得更好。

    自我反思的萌芽,如何在后训练(post-training)阶段演变为复杂的自主推理能力?

    研究人员假设,必须存在一个预训练自我反思的关键阈值,超过这个阈值,模型有很大的可能性,发展成为测试时的推理者(test-time reasoner)。

    关键阈值假设:

    在预训练过程中,必须达到某个自我反思的关键阈值,在后续的训练和应用中,模型才有可能发展出强大的测试时推理能力。

    超过这个阈值后,模型不仅能够识别并纠正自身的错误,还能通过显式反思逐步形成更复杂的推理能力。

    令人惊讶的是,在从有机网络数据集(organic web datasets)中学习时,看到了高水平的显式自我反思。

    这表明,即使在相对自然的数据环境中,模型也能发展出显著的自我反思能力。

    确定哪些数据分布在预训练过程中促进显式自我反思,是下一步研究的一个自然方向。

    理解这些数据分布有助于设计更有效的预训练策略,从而提升模型的自我反思和推理能力。

    具体的结果和分析可以在原文附录D中找到。

    亚星游戏官网-yaxin222


    图5:随着预训练量的增加,OLMo-2系列模型在cruxeval-i任务中展示了小但值得注意的自我反思及随后的自我纠正能力


    训练计算与测试时计算的权衡

    在训练时增加计算资源的投资,与在测试时为实现下游任务相当准确率所需相应支出之间,存在权衡。

    研究人员通过以下方式来估计这种权衡:


    • 训练时计算量:估计为6nt,其中n是参数数量,t是训练token的数量。
    • 测试时计算量:估计为2nw,其中w表示为解决一定数量的对抗性问题生成的单词数量。

    首先,指定一组需要正确回答的对抗性问题的目标数量。

    然后,针对每个目标绘制一条曲线。

    在GSM8K-Platinum对抗性数据集,采用顺序测试时扩展方法,在模型生成中附加触发词「Wait,」。

    如图6所示,随着训练时计算量的增加,OLMo-2-32B的checkpoint测试时计算需求减少。

    这一结果进一步支撑了研究假设,即随着预训练的进展,模型在反思能力上变得更好。

    这意味着在给定准确率水平下,所需的测试时计算量较少。

    亚星游戏官网-yaxin222


    图6:OLMo-2-32B预训练检checkpoint的训练时与测试时计算量权衡关系


    不止是OLMo-2

    如图7所示,与OLMo-2的研究结论一致:随着预训练算力(此处体现为参数量)的提升,Qwen2.5在对抗性任务上的表现持续增强。

    这再次证明:仅通过预训练算力的增加,模型就能逐步克服先前推理中的错误完成任务。

    亚星游戏官网-yaxin222


    图7:Qwen2.5系列模型情境反思能力全景评估


    实验设置

    评估的模型为OLMo-2和Qwen2.5系列。

    总共评估了OLMo-2的40个checkpoint,Qwen2.5的0.5B、3B、7B、14B、32B和72B参数变体。

    基于BIG-Bench Hard(BBH)、CruxEval、GSM8K、GSM8K-Platinum和TriviaQA创建了6个对抗性数据集,如下表1和表2。

    亚星游戏官网-yaxin222


    亚星游戏官网-yaxin222


    详细的关于数据集特定管道、检查和过滤器的信息,可以在原文附录F中找到

    测量指标

    如表3所示,对于情境反思和自我反思设置,准确率(Accuracy)是模型正确解决问题的任务实例所占的分数。

    独立于准确率,显式反思分类器(Explicit Reflection Classifier)测量显式反思率(Explicit Reflection Rate),即无论是否正确,模型输出表现出显式反思的任务实例所占的分数。

    此外,还报告了显式反思准确率(Explicit Reflection Accuracy),即模型不仅正确解决问题而且表现出显式反思的任务实例所占的分数。

    最后,隐式反思准确率(Implicit Reflection Accuracy) 是指模型输出正确且不表现出显式反思的任务实例所占的分数。

    亚星游戏官网-yaxin222


    关于每个数据集的准确率指标详情,见下表8。

    亚星游戏官网-yaxin222


    此外,对于每个数据点,预训练计算量为6nt,其中n和t分别是参数数量和训练token的数量。

    显式反思分类器

    研究人员利用基于提示的分类器,确定模型输出是否表现出显式反思。

    DeepSeek-V3被提示以「反思」的描述以及两到四个显式反思示例。

    在GSM8K、cruxeval-o和TriviaQA上对分类器进行了验证(每个基准120个问题;有关标注过程的详细信息,请参阅附录G)。

    尽管分类器召回的反思实例较少(见表4),但其精确度足够高,足以验证其有用性。

    在最坏的情况下,可能会低估反思行为,但在报告时会更加确信。

    亚星游戏官网-yaxin222


    表4:显式反思分类器在不同基准测试中的性能指标


    Transformer首席编辑

    值得一提的是,Transformer八子之一的Ashish Vaswani,对新研究做出了核心贡献。

    亚星游戏官网-yaxin222


    Transformer排名第一的编辑:Ashish Vaswani


    他读博时,师从深度学习先驱Yoshua Bengio教授。

    在南加州大学(USC),他获得了博士和硕士学位。

    2016年,他加入GOOGLE大脑.

    在GOOGLE工作期间,与团队共同完成Transformer的里程碑式工作《Attention is all you need》。

    离开GOOGLE后,他先后联合创立了Adept AI Labs和Essential AI。

    亚星游戏官网-yaxin222


    他对人工智能的贡献,尤其是Transformer模型的突破性发展,具有划时代意义。

    他的工作不仅在自然语言处理(NLP)领域实现了三大跨越式进步,更在计算机视觉、计算生物学等跨学科领域催生了革命性应用。

    参考资料:

    https://arxiv.org/abs/2504.04022


    来源:36kr
  • 举报本楼

    本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
    您需要登录后才可以回帖 登录 | 注册 |

    版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

    GMT+8, 2025-4-24 05:04 , Processed in 0.345177 second(s), 16 queries , Gzip On.

    Copyright © 1999-2023 C114 All Rights Reserved

    Discuz Licensed

    回顶部
    XML 地图 | Sitemap 地图