ReAct
分类: 高效推理与部署
ReAct
定义
ReAct(Reasoning + Acting)是 Yao et al. (2023) 提出的一种 LLM prompting 范式,交替生成推理链(Thought)和外部动作(Action),使模型在多步推理过程中能与外部工具/环境交互,克服了纯 Chain-of-Thought 无法获取实时信息的局限
核心要点
交替推理-行动循环:Thought → Action → Observation → Thought → …,直到得出最终答案
Thought:模型生成自然语言推理步骤(类似 CoT),用于分解问题、跟踪进度、制定计划
Action:模型调用外部工具(搜索引擎、计算器、API),获得 Observation 作为新输入
与纯 CoT 的区别:CoT 仅在模型内部推理,容易”幻觉”事实错误;ReAct 可以通过 Action 获取真实信息进行 grounding
与纯 Act 的区别:没有 Thought 的纯行动模式缺乏规划能力,容易陷入低效探索
ReAct 在知识密集型任务(HotpotQA、FEVER)和决策任务(ALFWorld、WebShop)上均优于单独使用 CoT 或 Act
是当前 LLM Agent 框架(LangChain、AutoGPT 等)的理论基础之一
CS224N 讨论 LLM 作为 Agent 时的核心范式
代表工作
ReAct: Synergizing Reasoning and Acting in Language Models (Yao et al., 2023)
Toolformer: Language Models Can Teach Themselves to Use Tools (Schick et al., 2023)