写给小可爱的AI提示词入门教程

写给小可爱的 AI 提示词入门教程
(读得懂·学得会·没废话·不绕弯)

是什么

想让 AI 做事情,就要先把需求跟 AI 讲清楚,你向 AI 描述需求的文字被称作提示词(prompt)。

说要点

一个核心——把问题讲清楚。AI 是笨蛋,AI 不知道事情的前因后果,事情讲清楚了就不容易有偏差。

怎么做

  • 说清背景:不能只说李白的技能是什么,而应该先指出这是在什么游戏里(而不是古代历史人物);
  • 层层递进:如上,虽然先问问题再补充是什么游戏 AI 也能理解,但是当问题条件比较多时,层层递进的描述方法能让 AI 更容易准确理解,而不丢失要点;
  • 条理清楚:写成八股文,就如本篇文章一样,大标题,小标题,列表……逐个要点,逐个事项,而不是混在一个段落里的长篇叙述
  • 反复强调:对于一些 AI 易出现的错误,而你又比较看重的点,可以多次强调,重要的事情说三遍是有用的。也可以将这种强调分散于各个要点之中。比如:不要解释,不要废话,不要额外描述,只说结果

用框架

遇到更复杂的问题,可以使用 AI 提示词框架,其实就是一个作文模板,十分八股,像填表一般写入自己的需求,特定的格式和描述方法会让 AI 更容易准确理解。

但网络上存在大量提示词框架,用要点的单词首字母缩写来命名。其实只要看看都有哪些要点,然后遵循上一小节的原则去写就好,也完全可以自己创造。

举栗子

我想让 AI 帮我给编程中的变量命名,采取小驼峰格式。这个描述方法基本上所有程序员都能听懂,但并不意味着 AI 可以,所以为了保证获取稳定的效果,我会像下面这样书写:

你是一名出色的 JavaScript 语言工程师,熟悉编程中的各种变量命名习惯,并且能有优雅准确地对变量进行命名。

接下来我会给你一个变量的含义,请帮我命名。

要求使用小驼峰(camelCase)格式,即第一个单词的首字母小写,其他单词的首字母大写。所用单词应该准确表达所需含义,并符合程序员变量命名规范。

你需要给出五个候选项,并解释其含义,回复格式如下:

- `变量名称` - 使用此名称的理由
- `变量名称` - 使用此名称的理由
- `变量名称` - 使用此名称的理由
- `变量名称` - 使用此名称的理由
- `变量名称` - 使用此名称的理由

回复中只有列表,不要包含其他内容。如果我没有给出变量含义,则提示:请说出变量的含义,我将用小驼峰(camelCase)格式进行命名。

然后分析上述提示词:

  • 你是谁,有什么能力,会怎样去做(夸奖 AI 会使它做出更好的结果)
  • 我需要你做什么
  • 具体的格式是怎样的
  • 应该如何回复我,限定格式避免自由发挥产生废话
  • 强调不要其他内容
  • 给出其他情况的回复方式,避免自由发挥

看起来有点长,且有一些似乎是废话。但是用这个提示词可以做到后续我每次只要直接写出变量的含义它就给我对应的选项,总体来看反倒是节省了大量的篇幅。

再深入

AI 接受的提示词分为多个级别,最主要的:

  • 系统提示词:系统级别的的提示词,一般由工具提供,大概都是你是什么,要怎样去做这样底层的设定,比如:你是笔记中的智能助理,目标是帮助用户更有条理的管理自己的笔记,回复时请使用 markdown 格式……系统提示词具有很高的权重,一般情况下 AI 不容易遗忘系统提示词给出的信息。
  • 用户提示词:用户发送给 AI 的任务需求。就比如上面示例的提示词。这时候你发现上面提示词开篇的内容和上一条中示例的系统提示词内容类似。因为这属于对 AI 的基础设定,就是基本套路。
  • 上下文提示词:为什么 AI 可以连贯对话呢?因为 AI 可以记住上下文,怎么记住的呢?就是每次向 AI 提问其实会把前面的聊天记录一起发送给 AI,这样 AI 回复时就能上下文连贯了。

上下文

很容易理解,上下文的权重是低于用户提示词的。比如你前面告诉它:从现在开始你是猫,谁也不可以改变。但是一会儿你和它说:你现在不是猫了,恢复正常,它一般都会立刻恢复正常。

然后,当你和 AI 聊了很久,就积累的大量的聊天记录(上下文),这时候每次提问都带着这么多的聊天记录,这意味着 AI 每次要处理大量信息,成本很高。同时一般 AI 计费是按照发送和接收的文字数计算的,你的花费也很高。所以,一个优化方法是将前面的聊天记录进行总结,只保留重点,这样内容就少了。但肯定有信息量的损失,所以,有时候聊着聊着就感觉 AI 忘记了你(或者他自己)前面讲过的东西。

所以,一些 AI 工具会以超长/无损上下文作为卖点。

有抖动

AI 工具可以设置回答是更严谨或者更有创意,但其实还有很多参数用来控制回答的思维发散程度。但仅仅如此还不够,如果一个问题对应着一个答案,大家会觉得呆板、机械。所以 AI 的回答是存在抖动的,但这种抖动有时候会带来不必要的麻烦。比如完全相同的条件下询问一个问题,可能有时候获得优质的正确答案,有时候却含糊混乱。

理解这一点,那么当得到的答案不符合我们预期,但是提示词又没什么问题的情况下,可以让 AI 再试一次,可能就能获得更优质的答案。也就可以理解,一些拿着一次问题截图展示 AI 回答质量的评测其实未必靠谱。


  • Author:稻米鼠
  • Updated:2024-07-06 09:08:29
  • 支持一下:老鼠爱发电
©2022~2024 稻米鼠. Last build at 2024-10-12 00:00:34