学院/AI提示工程师/思维链提示:让AI一步步推理
免费章节 10分钟Chapter 3/5

思维链提示:让AI一步步推理

掌握Chain-of-Thought技巧,显著提升复杂任务准确率

本章学习要点

3 / 5
1

用通俗语言理解大语言模型(LLM)的工作原理

2

区分主流LLM(GPT/Claude/DeepSeek/Gemini)的特点

3

理解Temperature、Token等核心参数的含义

4

认识LLM的能力边界——能做什么、不能做什么

5

建立Prompt Engineering的价值认知与学习框架

在前两章中,我们学会了基础的角色设定、示例提供和格式控制。这一章我们进入高级技巧——思维链提示(Chain-of-Thought,CoT)以及它的进化版本:Tree-of-Thought、ReAct和结构化推理。这些技术能让AI在处理复���任务时准���率大幅提升。

什么是��维链提示(CoT)?

思维链提示的核心思想很简单:让AI在给出最终答案之前,先展示它的推理过程。就像做数学题时老师要求「写出解题步骤」——展示步骤的过程本身会帮助得出更准确的结果。

Google在2022年的论文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》中首次提出了这个概念。实验表明CoT能将GPT等模型在数学推理任务(GSM8K)上的准确率从约17%提升到约58%——这是仅通过改变Prompt就获得的巨大提升。

**为什么CoT有效?** LLM的输出是逐Token生成的。当模型直接输出最终答案时,它需要在一次「预测」中完成所有推理——这对复杂问题来说太难了。而CoT让模型先生成中间推理步骤,每个步骤都是下一步的「输入上下文」,相当于给了模型更多的「思考空间」和「草稿纸」。

零样本CoT(Zero-shot CoT):一句话的魔法

最简单的CoT用法是在提示词末尾加上一句引导语。就这一句话,就能显著提升AI在复杂推理任务上的表现:

**经典触发语**:「请一步步思考」「Let's think step by step」「请先分析再回答」「请展示你的推理过程」。

实战对比

**不用CoT**:「一个书店有三种书,小说每本30元,教材每本50元,词典每本80元。小明买了2本小说、1本教材和1本词典,付了200元,找零多少?」——AI可能直接回答一个数字,有时算错。

**用CoT**:同样的问题后加上「请一步步计算」——AI会写:「1)2本小说=60元;2)1本教材=50元;3)1本词典=80元;4)总价=190元;5)找零=10元。」通过分步计算,出错概率从约30%降到不到5%。

零样本CoT的进阶触发语

不同的触发语适合不同场景:

**「请先列出你的假设,然后逐步分析」**——适合商业分析,让模型明确前提条件。

**「请从正反两面分析,然后给出结论」**——适合决策问题,强制模型考虑反面论点。

**「请先用30字总结结论,然后详细解释推理过程」**——适合需要结论前置的场景。

**「请标注你的确信程度(高/中/低)」**——适合需要评估可靠性的场景,让模型自我评估。

少样本CoT(Few-shot CoT):给出推理示范

更强大的用法是在提示中给AI看一两个包含完整推理过程的示例。AI会模仿你的推理风格、逻辑结构和分析深度。

实战示例:AI对岗位影响分析

「请按以下推理框架分析问题:

问题:一家公司的客服部门有20人,AI客服系统上线后能处理60%的常见咨询。分析对岗位的影响。

分析:第一步——确定AI覆盖范围:60%的常见咨询可被AI处理。第二步——评估剩余工作量:40%的复杂咨询仍需人工,另有投诉升级、VIP客户等AI无法胜任的工作。第三步——计算人力影响:常见咨询占总工作量约70%,AI减少人力需求约为20x70%x60%=8.4人。第四步——考虑新增岗位:需要2-3人维护AI系统、训练模型。第五步——综合结论:预计净减少5-6个传统客服岗位,新增2-3个AI运维岗位,剩余客服技能要求和薪资提高。

现在请用相同的五步框架分析:一家会计事务所有50名初级会计,AI财务软件上线后能自动完成80%的基础记账工作。」

通过给出一个完整的五步推理示范,AI能清楚地知道你期望的分析深度、逻辑结构和信息量。

Few-shot CoT的设计要点

**推理步骤要编号**:编号让逻辑链更清晰,也方便你检查某一步是否正确。

**每步要有中间结论**:不只是列步骤,每步末尾要有明确的中间结果。

**展示数字推导**:如果涉及计算,展示具体的公式和数字,不要只说「大约XX」。

**示范边界情况**:在示例中展示你如何处理不确定性(「如果占比在60-80%之间,则影响范围在...」),模型会学会这种审慎态度。

实用建议

Few-shot CoT的黄金法则:你的示例推理有多严谨,AI的输出推理就有多严谨。花20分钟写一个高质量的推理示例,比调整10次Prompt参数更有效。

CoT的适用与不适用场景

最适合CoT的场景

**数学和逻辑推理**:任何需要多步计算或逻辑推导的问题。CoT在这类任务上的提升最为显著。

**因果分析**:从原因推导到结果,或从现象追溯原因。如「为什么这个月转化率下降了20%?」

**多因素决策**:需要权衡多个因素做出判断。如「应该选择A方案还是B方案?」

**代码调试**:让AI一步步检查代码逻辑,远比直接问「有什么bug」效果好。

**文本分析**:分析合同条款、解读政策文件、提取文献要点等需要理解复杂关系的任务。

不适合CoT的场景

**简单信息查询**:「Python的len函数怎么用?」不需要推理。

**创意写作**:写诗、写故事、头脑风暴——CoT反而会抑制创造力,让输出「套路化」。

**简单格式转换**:翻译、日期格式转换等机械性任务。

**Token预算紧张时**:CoT会让输出长度增加2-5倍。如果每次调用都要控制成本,慎用。

进阶技巧一:Tree-of-Thought(ToT)

**ToT是什么?** Tree-of-Thought是CoT的进化版。CoT是「一条线」的推理(A到B到C到结论),ToT是「一棵树」的推理——模型在每个节点探索多个可能的方向,评估每个方向的前景,选择最有希望的继续推进,放弃走不通的分支。

**ToT的Prompt实现**:「请对这个问题提出3种不同的解决思路。对每种思路分析其优缺点和可行性,然后选择最优的方案深入展开。」

**适用场景**:开放性问题(多种可行方案)、创意优化(需要比较多个候选方案)、复杂策略制定。

**实战示例**:「我想开一家AI教育培训公司。请提出3种不同的商业模式方向。对每种方向评估:市场规模、竞争程度、启动成本、盈利时间线。然后选择最优方向给出详细启动计划。」

进阶技巧二:ReAct(Reasoning + Acting)

**ReAct是什么?** ReAct让AI在推理的同时采取行动——「想一步,做一步,看结果,再想下一步」。这是AI Agent的核心推理模式。

**ReAct的模式**:Thought(思考下一步要做什么)到 Action(执行一个操作,如搜索、计算)到 Observation(观察结果)到 Thought(根据结果思考下一步)——重复直到完成任��。

**Prompt实现**:「请按以下模式解决问题:思考:[分析当前情况] 到 行动:[需要执行的操作] 到 观察:[执行结果] 到 思考:[根据结果调整方向]。重复此过程直到问题解决。」

**适用场景**:信息收集和研究任务、调试和故障排查、多步骤的复杂操作。

进阶技巧三:自洽性验证(Self-Consistency)

**原理**:对同一个问题用CoT生成多次答案(比如5次),然后取多数结果。就像让5个专家独立分析同一个问题,最终采纳多数人的结论。

**为什么有效?** LLM的输出有随机性(Temperature大于0时),不同次生成可能走不同的推理路径。如果多条路径指向同一结论,这个结论很可能是正确的。

**实现方式**:API调用时设置Temperature=0.7,发送5次相同请求,对比答案。在ChatGPT或Claude中可以手动「重新生成」几次来模拟。

**成本考虑**:自洽性验证的成本是普通查询的3-5倍。只在高风险决策场景使用,如商业分析、技术方案评估、法律问题等。

进阶技巧四:结构化推理框架

当面对特定类型的问题时,可以在Prompt中嵌入专业的推理框架,引导AI更系统地思考:

**SWOT分析**:「请用SWOT框架分析:Strengths(优势)、Weaknesses(劣势)、Opportunities(机会)、Threats(威胁),最后综合给出战略建议。」

**5Why分析法**:「请用5Why方法追问根因:为什么会出现这个问题?连续追问5次找到根本原因。」

**MECE原则**:「请确保你的分析遵循MECE原则——各分类之间相互独立(Mutually Exclusive),合在一起完全穷尽(Collectively Exhaustive)。」

**第一性原理**:「请从第一性原理出发分析——回到最基础的事实和公理,而非依赖类比或惯例。」

这些框架不需要你精通——你只需要在Prompt中提到框架名称,LLM就知道如何应用。

注意事项

CoT会让AI的回答变长2-5倍,消耗更多Token和费用。对于简单查询和创意写作不要使用CoT。另外CoT不是万能的——如果模型的基础知识就是错的,CoT只会让它更「有条理地犯错」。

重要提醒

普通任务用零样本CoT就够了(加一句「请一步步思考」),只有真正重要的决策才值得用高级技巧。Prompt Engineer的核心能力之一就是判断「这个任务值得用什么级别的Prompt技巧」。

推理技巧层级

零样本CoT(加一句话)
少样本CoT(给推理示例)
Tree-of-Thought(多路径探索)
ReAct(边想边做)
自洽性验证(多次取共识)

CoT适用场景决策树

任务需要多步推理?
否:不用CoT
是:简单多步用零样本CoT
复杂多步用少样本CoT
高风险用自洽性验证

结构化推理框架选择

因果分析用5Why
战略规划用SWOT
分类穷举用MECE
本质问题用第���性原理

章节测验

1/5

1零样本CoT最简单的使用方法是什么?

掌握CoT及其进阶技巧后,你已经具备了中高级Prompt Engineer的核心技能。下一章我们将进入企业级实战——构建一套完整的Prompt工程体系。

学完了吗?标记为已完成

完成所有章节后可获得证书

想解锁全部课程内容?

购买完整学习包,获得所有章节 + 认证指南 + 求职模板

查看完整课程