1. 首页
  2. 令爷课程
  3. AIGC应用

4.3 【prompt教程4】给GPT时间“思考”

给GPT时间“思考”

如果要求将17乘以28,你可能不会立即知道,但仍然可以随着时间的推移而解决。同样,GPT在试图立即回答时会犯更多的推理错误,而不是花时间来找出答案。在答案之前询问一连串的推理可以帮助GPT更可靠地找到正确答案。

1 在匆忙得出结论之前,指示模型制定自己的解决方案

有时,当我们在得出结论之前明确指示模型从第一原则进行推理时,我们会得到更好的结果。例如,假设我们想要一个模型来评估学生对数学问题的解决方案。最明显的方法是简单地询问模型学生的解决方案是否正确。.3

  • 较糟糕的例子:“一个人从10米高的楼顶掉下来,他会受伤吗?”
  • 较好的例子:“请制定一个模型与解决方案,来确定一个人从10米高的楼顶掉下来,他会受伤吗?”

    .3

2 使用内心独白或一系列查询来隐藏模型的推理过程

之前的策略表明,模型在回答特定问题之前对问题进行详细推理有时很重要。对于某些应用程序来说,模型用于得出最终答案的推理过程不适合与用户共享。例如,在辅导申请中,我们可能希望鼓励学生自己找出答案,但模型对学生解决方案的推理过程可以向学生揭示答案。

.3

内心独白是一种可以用来缓解这种情况的策略。内部独白的想法是指导模型将旨在向用户隐藏的输出部分放入结构化格式中,使其易于解析。然后,在向用户显示输出之前,对输出进行解析,并且只有部分输出可见。.3

  • 较糟糕的例子:“一个圆形饼干上有12个巧克力豆,请问这个饼干的周长是多少?(假设每个巧克力豆占据圆周上相等的长度)”
  • 较好的例子:“一个圆形饼干上有12个巧克力豆,请问这个饼干的周长是多少?(假设每个巧克力豆占据圆周上相等的长度) 请不要显示最终答案,使用#answer标记来替换答案部分,并且只显示解释部分。”
    .3

3 询问模型是否在之前的通行证中遗漏了什么

假设我们正在使用一个模型来列出与特定问题相关的来源的摘录。在列出每个摘录后,模型需要确定是应该开始写另一个还是应该停止。如果源文档很大,模型通常会过早停止,并且无法列出所有相关的摘录。在这种情况下,通常可以通过提示模型进行后续查询来找到它在以前的传球中遗漏的任何摘录来获得更好的性能。
.3

  • 较好的例子:“这是你给我的答案,但我想知道是否遗漏了其他重要信息?”

4 【其他例子】

https://mp.weixin.qq.com/s/CLgtOCsQ3J6-wm-P_zyL3Q

原创文章,作者:曾确令,如若转载,请注明出处:https://www.zengqueling.com/10promptjiaocheng4ge/

联系我们

15602395067

在线咨询:点击这里给我发消息

邮件:eden7@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code