说来也奇怪,我是一个纯艺术生&文科生,高考数学78分,但我并没有因为自己是艺术生&文科生,不擅长数学而自我设限。反而对AI有着强烈的好奇心和探索欲,一直在践行中…
但我真正扎进去了之后,我发现内心更加充盈了,也开始有了一丢丢野心,想通过AI开启”第二事业”,扩大影响力,建立个人IP。
在正确的道路上一直努力着,就会收获一些意外的惊喜。幸运的是通过做自媒体也收到了一些及时的正反馈,接到了客单价3k、4.5K、5.5K 的提示词商单。
当写完这篇分享贴之后,我才发现这半年真够拼的,“进化”速度也是真真切切的快。
半年前我还是一位AI小白,没想到现在和A境然成了最好的工作搭子。
切入正题,今天我会从由基础到高阶,分享我学习提示词的路径和经验,皆为真思考、真实践、真感悟,看到最后相信你一定会为我。
一、修炼内功基础
一)什么是Prompt?
Prompt搂类似于心理学中的”启动效应”,即一个初始刺激(如音乐或场景)能够激发一系列相关的记忆和情感反应。
假设一下我们是领导,AI是一位”清澈的实习生”,这时候活儿来了,你要给他派活。你对小王说,“明天中午之前帮我做一份汇报PPT”,这里”做PPT”的任务就是我们常说的「Prompt」。
等同于我们在对话框向AI输入的指令,比如“生成一段文本、回答一个问题或者创建一个图像、视频。
这里所输入的Prompt起到了「启动」作用,它激活了AI语言模型中的相关词语,并基于上文的语义确定输出的内容。
此时,所输入的prompt(输入)起到了「启动」作用,它能够激活AI语言模型中的相关词语,并基于概率预测接下来所生成的的内容。
这类似于心理学中的”启动效应”,即一个初始刺激(如诗句、音乐或场景)能够激发一系列相关的记忆和情感反应。
就像我们看见,夕阳无限好, ?就会想起下一句:只是近黄昏。
二)AI大模型的工作原理
想要让AI为我们”高效又高质”地打工,首先就要了解它的工作原理,我将用最浅显的话解释给你听。
抽离出AI的底层工作原理,这个过程可以比作一个逐字接龙游戏。AI主要通过我们输入的内容来输出下文,它基于上下文的语义来计算下一个词的出现概率,从而挑选出最合适的词汇来构建句子。
本篇手册将全程选GPT来干活,如果大家网络环境受限,用kimi可以,我输入一个指令:
1“今天的天气真好,我打算去___?”
这里的“天气真好”设定了积极的基调,“打算去”暗示了接下来可能是一个地点或活动。当我们将这个指令发送给AI时,AI会从数百个可能的续接词汇或短语中进行选择,比如”海边”、“公园”、“散步”等。
同时,AI会为每个选项计算一个概率值,这个值反映了在当前上下文中该词汇出现的可能性。
如果AI的目标是维持话题的连贯性和积极性,它可能会根据概率值选择“公园”这个词。
为什么是公园呢?因为它不仅符合外出的情境,而且在好天气时公园是一个常见的活动选择。然后基于这
个新的上文,GPT再预测下一个字符,如此循环往复,一个字一个字地生成出连贯的语句或段落。
那明白了原理后,我们就知道大模型并非真的有思考和推理能力,它所有的输出都取决于输入(上文)。如果你不知道这些底层原理,在编写提示词的过程中就产生一些困惑。比如:AI为什么做不到这个,明明我输入是这样的,它为什么输出是这样的。
三)大胆和A聊天,培养语感
前期不要追求各种”花拳绣腿”,不妨试着用一些简单的指令尝试着和AI对话,就像和朋友说话那样,保持耐心和友好。
在心流状态下,专注地和AI 大模型对话,沿着它的思路去追问,直到探索到你想要的答案。慢慢地,你就能够培养语感,和AI建立“默契”。
二、学习外家拳法
推荐阅读OpenAI官方的提示工程文档https://platform.openai.com/docs/guides/prompt-engineering
我提供5个我自己常用的提问技巧,可组合使用:
1.细节法
2.角色设定法
3.提供示例法
4.反向提问法
5.引导自省法
一)细节法
“提供明确、具体的指令”,看似简单的一句话,但做起来还真不简单。把话说明白这事儿,时需要一些”功力”的。
我们举个例子:
你打算下周去上海旅游5天,你想让AI给你做旅游计划和攻略,你是不是上来咔咔一顿操作,简单粗暴的输入了这段Prompt:
1下周我将去上海旅游5天,请给我做一个详细的旅游计划和攻略。
等等!?这画面有曾相似啊,就像领导给你布置”下周一召开紧急会议图,做一个PPT”。相信大家都深恶痛绝类似这种”一句话需求”的任务,背景不清不楚,模棱两可,留我们在原地凌乱。
是不是像极了你和AI 对话的样子?不知道你的膝盖痛不痛。想象一下我们(人)是领导,AI是我们的员工,也是一位”清澈的实习生”,他是没有任何工作经验的。
那我们派活儿的的时候,避免我们再返工,一定要越明确越好!越具体越好!最好是手把手教学那种,只有这样他才能干出漂亮的活儿。你觉得呢?
向鲁智深学习,成为提问高手
第一问:奉着经略相公钧旨:要十斤精肉,切作臊子,不要见半点肥。
第二问:再要十斤都是肥的,不要见些精在上面,也要切做臊子。
第三问:再要十斤寸金软骨,也要细细地剁做臊子,不要见些肉在上面。
鲁智深算是把话说明白了,肥是什么程度?瘦是什么程度?分别用来干嘛,明确具体、分步骤精确描述。
所以我们在给prompt的时候,一定要提供明确,具体的描述,给足充分的上下文。比如,这样提问:
1我计划下周去上海旅游5天,请你为我制定一个详细的旅游计划和攻略。需要包含以下内容:
2-每天的行程安排,包括主要景点和活动。
3-每个景点的详细介绍和游玩建议。
4推荐的餐厅和美食,最好是当地特色。
5交通方式和出行建议,包括如何从一个景点到另一个景点。
6-住宿推荐,适合旅游的区域和具体酒店建议。
7-其他有用的旅游贴士和注意事项。
二)角色设定法
给GPT指定角色可以让它更好地模拟该角色的语气、思维方式和行为模式,从而产生更加个性化和贴切的输出。
就像我们上面所举的例子,所输入的prompt会激活相应的语料库,身份设定同理。同样,在提示词中清楚地说明角色和期望的任务或问题,并提供必要背景信息,帮助GPT更好地理解上下文。
简短指定:直接指定角色并提出问题。
1
2你是一个资深的历史教授,请解释一下法国大革命的主要原因。
详细指定:提供角色背景和具体任务。
2你现在是一个拥有十年经验的心理咨询师,有一个客户来找你咨询,因为他最近工作压力很大,导致失眠。请问你会如
场景模拟:创建特定情境,要求GPT根据角色进行回应。
2假设你是一个酒店的前台接待员,面对一个对房间不满意的春人,你会如何安抚他,并提出解决方案?
多角色设定法:多元视角解决问题
不仅指定一个角色,也可以指定”多角色”来探讨问题,可帮助我们更全面地分析问题,并提供多元化的视角。
1假设你们是一个跨学科的专家小组,包括历史学家、经济学家和社会学家。请讨论一下工业革命对现代社会的影响。并综合三者概观点输出。
GPT的回复:
1历史学家:
2工业革命是人类历史上一次重大的转折点。它带来了生产方式的巨大变革,从手工劳动转向机械化生产,
3使得生产效率大幅提高。这不仅改变了经济结构,还促使了城市化的发展,形成了现代社会的基础。
4
5
6经济学家:
7工业革命导致了资本主义经济体系的崛起。大规模的生产和市场扩展带来了前所未有的财富积累和经济增长,
8但也加剧了贫富差距。资源的集中和技术的进步推动了全球贸易和金融市场的发展,对现代经济有深远的影响。
9
10
11社会学家:
12工业革命对劳动力和社会结构产生了深远的影响。大量农村人口涌入城市,导致了城市化进程加快,
13但也引发了城市问题如住房短缺、环境污染和社会不平等。工人阶级的形成和劳工运动的发展,推动了社会变革
14和权利的争取。
15
16
17综合三者观点:
18工业革命通过其对生产方式的变革、经济结构的调整以及社会变迁的推动,全面塑造了现代社会
19的面貌。一方面,它促进了经济的快速发展和技术的进步,为现代社会的繁荣奠定了基础;另一方面,它也带来
20了新的社会问题,如贫富差距和环境污染。面对这些挑战,我们需要从历史、经济和社会多个角度综合考虑,寻
21找平衡发展的路径,推动社会的可持续进步。
22
三)提供示例法
提供示例”是一种指导语言模型理解和执行特定任务的方法。通过在prompt中提供一个或多个具体的输出示例,可以帮助模型理解所期望的响应语气、风格和结构。
1、使用场景
1)撰写特定类型的文本(如新闻报道、营销文案、诗歌等)
2)生成特定格式的内容(如文本、表格、列表、JSON等)
3)模仿某种语气或口吻(如正式、幽默、撒娇、暴躁等)
4)在解答复杂问题时,通过示例指导模型如何组织和呈现答案。
5)多维度示例
多维度示例是指从多个维度提供示例,如风格、格式、内容等,帮助A1全面理解任务要求。这种方法能确保AI在各种情况下都能生成符合预期的结果。
示例:假设你需要AI生成产品描述,可以从功能、外观、使用场景等多个维度提供示例。
四)反向提问法
还是用刚才那个例子啊,想象一下我们(人)是领导,AI是我们的员工,这时候活儿来了,你要给新来的实习生派活了。
你说“小王,给我仿写一篇董宇辉风格的小作文”,此时的小王用清澈无辜的眼睛盯着你,和你说“我不懂诶”。
此时作为领导的你,为了让小王漂亮的完成这个工作,得用你的老师傅方法论给他讲清楚。但奈何不是每个人都是
“老师傅”,如果作为领导的你也没有方法论,那怎么办呢。
也就是当你自己也不清楚,该如何告诉GPT做某事的方法论的时候?该怎么办呢?用魔法打败魔法!问GPT!没
错!这技巧屡试不爽。
通过这种连续性的反向提问,GPT会进一步解释和举例说明,让你更好地理解所需的技能点。如果还有不明白的地方,可以继续反向提问,直到完全理解为止。
五)引导自省法
帮助模型识别并纠正自身错误,确保输出内容与指令对齐,从而提高模型回答的准确性和可靠性。
1、提示模型检查答案准确性
解释:要求模型确认其答案的准确性,促使其重新审视输出内容。
三、深化内功心法
一)思维链CoT
我们(人)有思考和推理能力,在说话之前我们可以在脑中构思。
AI没有脑子,也没有心理活动,它的说就是想,想就是说。
思维链CoT方法可以有效提升AI输出质量,这招特好使。
那么啥是思维链(Chain of Thought,简称CoT)呢?可能很多小伙伴会想,难道是思维的链条吗?我们拆解来看,这里的思维存在于我们的脑中,它是抽象的。链条是环环相扣的,一环接一环连贯的。
就像自行车链条一样每个节点都有其独特的位置和功能,在思维链中,每个节点代表一个逻辑步骤或推理过程。这就像一环接一环的推理过程,确保每一步都是有依据且有联系的。总的来说,思维链具有因果关系、连贯性和逻辑性。划重点了:因果关系、连贯性、逻辑性。
抽象吗?那我举个例子
比如说你看到外面的天空变暗了,这是我们观察到的现象。我们的大脑会产生这样的一个思考:可能会下雨品。所以我决定带一把伞,这是行动
这整个过程呢,就是一个典型的思维链,观察到“天空变暗”即输入。预测”可能会下雨”即脑海中的推断步骤,决定“带伞出门”是输出。
那每一个步骤,都是基于前面一个步骤推理所产生的。形成一个完整的决策路径。大家一定一脸问号?这和我们编写提示词有啥关系呢?别急,往下看。
我讲个6年级小王的故事吧,小王偷懒想让AI帮忙完成数学作业,他输入一段指令:
小王拿着这个答案把作业交给了老师,结果被老师抽了一大嘴巴子。
小王哭着说:AI都是骗人的!你看,这就是一个典型的反例。故事告诉我们:偷懒是不对的!不是!偏了,我想说的是:”AI不擅长计算”。请回顾,我上面讲的AI底层工作原理部分。
但很多小伙伴会想,这就是一个简单的加法题,这么简单它也不会啊?对,小G他不擅长,像极了我们偏科的样子。咋办呢!?有没有方法解决偏科的问题呢?教呗!一步一步教!把他当成0基础的偏科小学生。
这题很简单,我们几秒内就能算出正确答案。但并不意味着我们脑子没有推理,其实我们有一个“心算”的过程。
比如:23-20=3,然后3+6=9。对!这个就是我们计算的过程,只是这题足够简单全在脑子里面完成了而已。
我们是有思考和推理能力的,我们在说话之前脑子可以构思一下。可AI它没有脑子,也没有心理活动,它的说就是想,想就是说。
所以!让它必须把推理的过程说出来,才能推导出正确的答案。也就是说推理线索存在于,它前面所说的话中。所以我们纠正一下小王的错误示范,这样提问:
根据我们上面一步一步的教学,AI按照我们的教学思路推理,完成的非常好:
这!就是典型的思维链提示。这个可不是我瞎编的故事啊,是有科学根据的,它源自一篇学术论文。这个概念最早是由现任的谷歌大脑研究员Jason WEI在2022年提出,下面是论文的名称,感兴趣的小伙伴可以搜搜
(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, NeurIPS2022»
论文虽然洋洋洒洒写了几十页,但是核心方法就是我上面所举的“铁柱”的例子。即我们在给出示例的基础上,让大模型大声”说“出逐步逻辑推理过程。
CoT思维链提示=思维链+少样本提示
这就是传说中的“Few-shot”少样本提示,这套方法对于复杂的任务也适用。和其相似概念的还有”zero-shot”零样本提示,也就是在我们不给提示的情况下,你让大模型自动把推理过程说出来。
还有这种好事儿?是的,只需要在我们的原Prompt后面加一句”Let’s think step by step”,不信你试试。比
如以下示例,这是直接提问,明显答案错误:
在原始prompt后面加一句”Let’s think step by step“,大模型的计算力表现明显好很多
但对于复杂的推理任务,零样本示例不一定奏效,所以还是得few-shot。
思维链的本质其实就是让大模型将复杂的任务拆解成多个连贯的子任务进行分步骤推理,并把每一步说”出来。
也就是说它必须把推理的过程说出来,因为它在推导中说出来的每一个字,都会再作为新的输入,输进去,再在框架向量中触发新的字。
所以,上面我们提到了AI的说就是想,想就是说,所以它没有心理活动,它不擅长做需要先规划的事情。
二)见招拆招,拆解复杂任务
本站收集的资源仅供内部学习研究软件设计思想和原理使用,学习研究后请自觉删除,请勿传播,因未及时删除所造成的任何后果责任自负。
如果用于其他用途,请购买正版支持作者,谢谢!若您认为「LPWK168.COM」发布的内容若侵犯到您的权益,请联系站长邮箱:1352181545@qq.com 进行删除处理。
本站资源大多存储在云盘,如发现链接失效,请联系我们,我们会第一时间更新。
暂无评论内容