ReAct

分类: 高效推理与部署

ReAct

定义

ReAct(Reasoning + Acting)是 Yao et al. (2023) 提出的一种 LLM prompting 范式,交替生成推理链(Thought)和外部动作(Action),使模型在多步推理过程中能与外部工具/环境交互,克服了纯 Chain-of-Thought 无法获取实时信息的局限

核心要点

交替推理-行动循环:Thought → Action → Observation → Thought → …,直到得出最终答案

Thought:模型生成自然语言推理步骤(类似 CoT),用于分解问题、跟踪进度、制定计划

Action:模型调用外部工具(搜索引擎、计算器、API),获得 Observation 作为新输入

与纯 CoT 的区别:CoT 仅在模型内部推理,容易”幻觉”事实错误;ReAct 可以通过 Action 获取真实信息进行 grounding

与纯 Act 的区别:没有 Thought 的纯行动模式缺乏规划能力,容易陷入低效探索

ReAct 在知识密集型任务(HotpotQA、FEVER)和决策任务(ALFWorld、WebShop)上均优于单独使用 CoT 或 Act

是当前 LLM Agent 框架(LangChain、AutoGPT 等)的理论基础之一

CS224N 讨论 LLM 作为 Agent 时的核心范式

代表工作

ReAct: Synergizing Reasoning and Acting in Language Models (Yao et al., 2023)

Toolformer: Language Models Can Teach Themselves to Use Tools (Schick et al., 2023)

相关概念

Tool Use

Tree-of-Thought