近几个月来,GPT-4和Claude等大型语言模型引起了技术界和公众的广泛关注。它们生成人类语言文本和进行对话的能力似乎就像科幻电影一般梦想成真。但是,像任何新技术一样,这些LLM的工作原理和应用还存在许多困惑和争论。本文将对 LLM 的操作方式进行分类,以明确其边界,目标是以一种非专业人士可以理解的方式来解释 LLM 的现状,为Prompt初学的设计者提供简单的理论支撑。

写Prompt要先解开语言模型的黑盒子!通俗科普揭开LLM能力的面纱

LLM的边界究竟在哪里

首先,LLM究竟是什么?简单来说,LLM是一个在海量文本数据(如书籍、网站和社交媒体帖子)上训练的深度学习神经网络。“大”是指这些模型拥有数十亿个参数,可以建立非常复杂的语言统计表示。比如13B代表130亿,1B(BiIling)=10亿。

LLM的关键训练任务是根据前文的上下文来预测序列中的下一个词或标记。例如,如果它看到“猫跳过了那个…”的文本,它就会学会预测“篱笆”作为可能的下一个标记。通过这种基于贝叶斯概率的方式反复训练,LLM获得了关于语言运作方式及词汇概念之间关系的隐含知识。

这种训练过程和使用的海量数据集使Claude和GPT-4以及文心一言等LLM嵌入了惊人数量的世界知识。但是,重要的是要理解LLM没有任何显式知识或硬编码规则,它的所有能力都是从训练集数据中识别模式产生的结果。

LLM有三种主要的操作模式:

还原操作:从大到小>

变换操作:保持大小/含义相同=

生成操作:从小到大<

小到大<

让我们深入探讨这三种操作。

还原操作:从大到小>

一个常见的还原操作是总结。当输入一段冗长的文本时,LLM可以产生一个简洁的摘要,只包含关键要点。这是通过分析文档来查找主题、事件和描述的事实完成的。然后,模型试图合成这些要素以生成简要地传达完整文档的核心本质。在限定长度内,LLM通常具备基本的总结能力,可以删除非关键细节而保留语义含义。还原操作直接发挥了大型语言模型的优势。它们的统计学习能力使其能够识别并传达冗长输入文本中最突出的部分。随着 LLM 的不断进步,归纳、提炼、提取和类似技术只会越来越强大。

– 总结–用更少的字表达同样的内容。可以使用列表、注释、执行摘要。

– 提炼–提纯基本原理或事实。去除所有噪音,提取公理、基础等。

– 提取–检索特定类型的信息。回答问题、列出姓名、提取日期等。

– 表征- 描述文本内容。描述文本整体或主题内部。

– 分析–寻找模式或根据框架进行评估。结构分析、修辞分析等

– 评价–对内容进行衡量、评分或判断。给论文打分,根据道德进行评价

– 批评–根据文章内容提供反馈。提供改进建议

变换操作:保持大小/含义相同=

变换操作旨在重塑或重新诠释输入文本,而不显着缩短或扩展它们。LLM在保留整体含义的前提下,通过新的格式和风格重新定义内容的变换能力非常强。

一种常见的变换技术是重塑格式 —— 改变文本呈现方式而不更改信息内容。例如,LLM可以随时将散文转换为剧本对话,将博文翻译成推文,或将段落从主动语态改为被动语态。重塑格式利用了模型对语体和语言约定的结构理解。

在自然语言间转换是LLM的另一关键变换能力。给定一种语言的输入文本,它们可以通过替换词汇和语法结构将其改写成另一种语言,同时保持语义一致性。不同语言对的转换质量各不相同,但随着在训练中使用更多多语种数据,转换效果持续改善。

释义也属于变换操作范畴。这里,LLM的目标是使用完全不同的词汇和措辞来重写输入文本,而传达相同的基本含义。这测试了模型生成逻辑上等价的多种语法变体的能力。释义可应用于检测抄袭和提高文本清晰度。

最后,为了提高逻辑流畅性和组织性修改内容结构也可视为一种变换。LLM可以重新排列段落以加强逻辑关联,使思路更顺序化,或提高可读性。它们的训练赋予了模型创造连贯叙事和论点的能力。

转换能力使 LLM 能够以新的方式重新混合和呈现文本,以满足不同的需求。这些技术对于为特定受众量身定制内容和克服语言障碍等任务来说是非常有用的。LLM已经熟练掌握了许多转换技巧,而且只会越来越熟练。

– 重新格式化 – 仅更改表现形式。将散文改为剧本,将 TXT 改为 JSON。

– 重构- 以更高的效率实现相同的结果。以不同的方式表达相同的内容。

– 语言转换 – 语言之间的转换。英语到俄语,C++ 到 Python。

– 重组 – 优化逻辑流等结构。更改顺序、添加或删除结构。

– 修改–改写文案以达到不同的目的。改变语气、正式程度、外交辞令、风格等。

– 澄清–让人更容易理解。润色或更清晰地表达。

生成操作:从小变大<

相较还原和变换仅处理现有文本,生成操作完全从头开始合成全新内容。这对LLM的创造能力提出更高要求,结果也更加可变和依赖上下文。尽管如此,LLM的生成写作技能持续快速进步。

一个主要的生成应用是根据Prompt来起草原创文档,如故事、文章、代码或法律文件。在摄取初始指令后,LLM创作者将努力将这些种子内容扩展成一个连贯的草稿,展示话题性、逻辑流畅性和语言流利性。结果可能还不够完美,但GPT-4等模型可以产生令人印象深刻的初稿,适合人类修改和完善。

给定一组参数或设计目标,LLM也善于生成计划和步骤来完成目标。这个计划能力来源于它们从训练数据中推断出逻辑行动顺序的能力,这些行动顺序因果地导致期望结果。计划还利用了LLM对世界运作方式的潜在知识。一个LLM可以提出从菜谱到软件工作流的各种计划。

LLM的其他更开放的生成能力包括头脑风暴和构思。当给出提示或创意简报时,模型可以提供可能性、概念和想象方案的列表,供人筛选。它们词之间的统计联系支持模型进行意想不到的头脑风暴。然后可以选择最有前途的想法进行进一步开发。

最后,LLM在扩充或阐述现有文本方面展示了强大的生成能力。给定种子段落或文档,它们擅长基于模型的潜在知识补充相关细节和解释来扩展内容。这使简洁的文本可以有机地增长。这种放大丰富了框架文本的创造方式。

总的来说,在给出适当上下文的前提下,LLM可以从少量输入中合成大量新文本。与归纳或变换任务相比,生成性写作对LLM来说较不自然,但这是一个研究活跃的领域,正在出现许多有前途的结果。引导LLM负责任地生成充实的内容将是一个持续的设计挑战。

起草- 生成某种文件的草稿。代码、小说、法律文本、知识库、科学、讲故事。

规划–给定参数,制定计划。行动、项目、目标、任务、限制、背景。

头脑风暴–用想象列出各种可能性。构思、探索可能性、解决问题、假设。

放大–进一步阐述和阐释。扩展和阐释,对事物进行改编。

Prompt的意义在于激活LLM潜在知识

如果说还原和变换操作对于LLM比较简单的话,那么生成这种高级的创造能力将大量的潜在知识和已学过的认知技能结合在一起,赋予了从记忆事实到想象创造的各种应用能力。

大型语言模型最令人惊叹的特点之一是它们展示没有明确编码进入的知识(最新的消息是谷歌团队已证实,AI拥有无需人类标注,自RLHF能力)和推理能力。这源自模型规模巨大、训练数据广泛以及基于预测的学习方法之间的相互作用。而更让人着迷的是,用一段Prompt竟然能激活这些潜在知识,让LLM输出高质量的内容。

LM中嵌入的潜在知识可以粗略分为三类:

第一类:训练数据 —— 训练过程中处理的大量文本赋予了模型关于无数话题的事实知识。例如,Claude通过训练集潜在地编码了历史、科学、文学、时事等方面的信息。这起到了可以通过正确提示查询的巨大知识库的作用。

第二类:世界知识 —— 除具体事实外,LLM还积累了更普遍的世界知识,关于事物运作的方式。它们接触各种各样的上下文使得模型学习到未明说的关于文化、物理、因果关系和人类行为的假设。这支持日常情况下的直觉推理。

第三类:学习到的认知技能 —— 基于预测的学习方法也使模型潜在地获得了提纳、翻译和开放域问答等技能。这些是从自监督目标中间接出现的,而不是硬编码的规则。

这一知识储备对AI来说是突破性的。但是,指导和提取这些知识仍具有挑战性。通常需要合适的Prompt技术来激活模型相关部分。

在迄今为止开发的最大型语言模型中,出现了一些新的能力,它们超越了训练数据中明确包含的能力。新能力的四个例子是:

第一个:心智理论–LLM 具备识别自己与他人不同观点的能力。克劳德(Claude)等模型可以根据对话背景调整自己的语气和风格,似乎能抓住用户的困惑,并将自己的知识与人类知识区分开来。这些 “心智理论 “的蛛丝马迹很可能来自于无数社会对话交流的建模。又或许是LLM通过阅读评论区,学会了理解人类的思维.

第二个:隐含认知–LLMs 在生成每个标记之前都能 “思考”,这意味着训练数据中并不直接存在的潜在认知能力。当模型预测下一个单词时,它们似乎在进行动态推理、抽象和推断。对因果关系链进行精确建模需要归纳、演绎和类比等认知过程。

第三个:逻辑推理–LLM还表现出一定的演绎和归纳推理能力,能够根据所提供的信息进行推理。通过统计学习,他们能够建立概念之间的联系,并归纳出抽象的原理。虽然目标导向推理的能力还很有限,但它似乎是对文本中的因果关系链进行建模的一个新兴副产品。

第四个:情境学习–大型模型通过将情境融入其预测,表现出吸收新信息和技能的能力。在没有经过明确训练的情况下,它们可以使用原始训练数据中没有的信息和指令。这种在上下文中快速获取知识和能力的方式并不是直接内置的。在人类中,我们称之为 “即兴”,这是高智商的标志。

这些崭露头角的能力来自于识别人类话语中错综复杂的模式,而不是手工编码的规则。它们暗示了未来的 LLM 可能如何从模式识别过渡到更深入的推理、想象和因果理解。然而,这些能力仍然存在很大的局限性,需要进一步的研究和开发。

如何设计高质量的Prompt来引导LLM激活潜力?

充分理解LLM的工作原理,以及设计高质量的Prompt将大大提高与LLM协作的效果。但高质量的Prompt设计需要遵循一定的原则和技巧,勤加练习,在实践中慢慢了解LLM的黑盒子。本喵提供18条Prompt设计指南,来引导LLM生成更优质、相关的输出。

1. 理解LLM的三种基本操作模式(还原、转换和生成),并根据需求选择合适的操作(比如总结、重构、规划)来构建Prompt。

2. 注意激活LLM的不同层次的能力,比如记忆、理解、应用、分析、评估和创造。选择合适的动词可以触发不同的能力。动词的英文准确表述本喵在文末为您准备了。

3. 利用LLM的潜在知识,但需要设计恰当的Prompt来激活相关知识。比如提供背景 context,使用类比和例子引导模型。

4. 在生成类Prompt中,提供更具体的场景和限制条件,减少无关内容的生成。

5. 提供因果关系和逻辑前提,帮助LLM进行更好的推理。

6. 设计Prompt的方式要明确、直白和一致,避免模棱两可。

7. 在可能的情况下,提供外部证据和数据来减少LLM的离题生成。

8. 表达Prompt的不确定性,要求LLM标明自身的确信度

9. 应用Prompt设计的原则,负责任地引导LLM进行创造性的内容生成。

10. 尽量使用自然语言表达Prompt,避免直接使用代码或标记语言。LLM通过自然语言训练(英文占比70%左右),使用自然语言英文可以取得更好的效果。

11. 尝试不同的提问和表述方式,因为LLM对措辞非常敏感。轻微改变语句往往可以产生不同的结果。

12. 在Prompt中提供足够的上下文和细节,让LLM明确理解所需的输出类型、风格和内容要点。

13. 可以在Prompt中设置一些限制,比如长度、格式、语言或关键词要求,来指导LLM的生成。

14. 多次尝试和迭代Prompt的措辞,根据结果逐步改进,找到最佳表达方式。记录下好的Prompt模板。

15. 尝试用类比、例子或情景来引导LLM,使其更好地理解Prompt的意图和要求。

16. 与LLM进行多轮互动,在对话中引导和纠正它,并提醒它保存对话,以避免话题焦点漂移。

17. 理解不同LLM的个性、优劣势和知识范围,以设计匹配的Prompt。

18. 参考Prompt编写的最佳实践(下文免费Prompt合集赠送),不断提高Prompt设计能力。

熟练掌握Prompt技巧可以大大提升与LLM的协作效果,让我们借助LLM的智能创造更多可能吧!

文章转载自公众号“AI修猫Prompt”

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...