生成式预训练变换器(GPT)、ChatGPT、PaLM等方面的提示工程
作者:Sec-Labs | 发布时间:
项目地址
https://github.com/promptslab/Awesome-Prompt-Engineering
精选优秀的提示工程资源 🧙♂️

这个仓库包含了一系列手工精选的提示工程资源,主要关注生成预训练变换器(GPT)、ChatGPT、PaLM等。
目录
论文
📄
-
提示工程技术:
- 增强ChatGPT的提示模式目录,提高提示工程技术 2023 (Arxiv)
- 基于梯度的离散优化技术:简化硬提示的生成 2023 (Arxiv)
- 合成提示:为大型语言模型生成思路链演示 2023 (Arxiv)
- 渐进提示:面向语言模型的连续学习 2023 (Arxiv)
- 批量提示:使用LLM API实现高效推理 2023 (Arxiv)
- 连续提示技术用于解决复杂问题 2022 (Arxiv)
- 结构化提示技术:将上下文学习扩展到1000个样本 2022 (Arxiv)
- 大型语言模型是人类级别的提示工程师 2022 (Arxiv)
- 问我吧:一种用于提示语言模型的简单策略 2022 (Arxiv)
- 提示GPT-3变得更可靠 2022
- 分解提示技术:解决复杂任务的模块化方法 2022 (Arxiv)
- PromptChainer:通过可视化编程连接大型语言模型提示 2022 (Arxiv)
- 探究扩散模型中的提示工程技术 2022 (Arxiv)
- 展示您的工作:利用Scratchpads进行中间计算与语言模型交互 2021 (Arxiv)
- 将教学提示转换为GPTk的语言 2021 (Arxiv)
- 神奇的有序提示和它们的发现:克服少样本提示顺序敏感性
- 规模对于参数高效的提示调整的影响 2021 (Arxiv)
- 大语言模型的提示编程:超越少样本范例 2021 (Arxiv)
- 前缀调整:优化生成的连续提示 2021 (Arxiv)
-
推理和情境学习:
- 语言模型中的多模式思维链推理[2023] (Arxiv)
- 转念一想,我们不要一步步来想!零样本推理中的偏见和毒性[2022] (Arxiv)
- ReAct:在语言模型中协同推理和行动[2022] (Arxiv)
- 语言模型是贪婪的推理者:链式思维的系统形式分析[2022] (Arxiv)
- 关于使语言模型更好推理的进展[2022] (Arxiv)
- 大型语言模型是零样本推理机[2022] (Arxiv)
- 像程序执行者一样推理[2022] (Arxiv)
- 自洽性改进了语言模型中的思维链推理[2022] (Arxiv)
- 重新思考示范的作用:是什么让情境学习发挥作用?[2022](存档)
- 学会解释:通过思维链进行科学问答的多模态推理[2022] (Arxiv)
- 思维链提示在大型语言模型中引发推理[2021] (Arxiv)
- 常识推理的生成知识提示[2021] (Arxiv)
- BERTese:学习与 BERT 对话[2021] (Acl)
-
评估和改进语言模型:
- 大型语言模型很容易被不相关的上下文分散注意力[2023] (Arxiv)
- 爬取语言模型的内部知识库[2023] (Arxiv)
- 通过模型编写的评估发现语言模型行为[2022] (Arxiv)
- 使用前校准:提高语言模型的小样本性能[2021] (Arxiv)
-
语言模型的应用:
- 提示多模式仇恨模因分类[2023] (Arxiv)
- 地方:社交对话综合的提示语言模型[2023] (Arxiv)
- 可控移情对话生成的常识感知提示[2023] (Arxiv)
- PAL:程序辅助语言模型 2023
- 多语言法律判断预测的法律提示工程[2023] (Arxiv)
- 与副驾驶对话:探索使用自然语言解决 CS1 问题的提示工程[2022] (Arxiv)
- Plot Writing From Scratch 预训练语言模型[2022] (Acl)
- AutoPrompt:使用自动生成的提示从语言模型中获取知识[2020] (Arxiv)
-
威胁检测和对抗示例:
- 宪法 AI:AI 反馈的无害性[2022] (Arxiv)
- 忽略上一个提示:语言模型的攻击技术[2022] (Arxiv)
- 机器生成的文本:威胁模型和检测方法的综合调查[2022] (Arxiv)
- 通过手工制作的对抗性示例评估预训练语言模型的敏感性[2022] (Arxiv)
- 基于生成提示推理的毒性检测[2022] (Arxiv)
- 我们怎么知道语言模型知道什么?[2020](麻省理工学院)
-
小样本学习和性能优化:
- Promptagator:来自 8 个示例的少量密集检索[2022] (Arxiv)
- 文本推理的小样本提示中解释的不可靠性[2022] (Arxiv)
- 使预训练语言模型更好的小样本学习者[2021] (Acl)
- 语言模型是少数学习者[2020] (Arxiv)
-
文本到图像生成:
- 文本到图像生成的提示修饰符分类[2022] (Arxiv)
- 即时工程文本到图像生成模型的设计指南[2021] (Arxiv)
- 具有潜在扩散模型的高分辨率图像合成[2021] (Arxiv)
- DALL·E:从文本创建图像[2021] (Arxiv)
-
文本到音乐/声音生成:
- MusicLM:从文本生成音乐[2023] (Arxiv)
- ERNIE-Music:使用扩散模型生成文本到波形的音乐[2023] (Arxiv)
- Noise2Music:具有扩散模型的文本条件音乐生成[2023] (Arxiv)
- AudioLM:一种音频生成的语言建模方法[2023] (Arxiv)
- Make-An-Audio:使用提示增强扩散模型生成文本到音频[2023] (Arxiv)
-
文本到视频生成:
- Dreamix:视频扩散模型是通用视频编辑器[2023] (Arxiv)
- Tune-A-Video:用于文本到视频生成的图像扩散模型的一次性调整[2022] (Arxiv)
- Noise2Music:具有扩散模型的文本条件音乐生成[2023] (Arxiv)
- AudioLM:一种音频生成的语言建模方法[2023] (Arxiv)
-
概述:
- Copilot和 Codex:高温、冷提示还是黑魔法?[2022](存档)
工具和代码
🔧
| 名称 | 描述 | Url |
|---|---|---|
| GPT Index | GPT Index 是一个项目,由一组数据结构组成,旨在使使用大型外部知识库与 LLMs 更容易。 | Github |
| Promptify | 使用 LLM's 解决 NLP 问题,并使用 Promptify 轻松生成流行生成模型(如 GPT、PaLM 等)的不同 NLP 任务提示。 | Github |
| Better Prompt | LLM prompts 的测试套件,在将它们推送到 PROD 之前进行测试。 | Github |
| Interactive Composition Explorerx | ICE 是一个 Python 库和跟踪可视化工具,用于语言模型程序。 | Github |
| LangChainx | 通过可组合性构建具有 LLMs 的应用程序。 | Github |
| OpenPrompt | 一个用于 Prompt 学习的开源框架。 | Github |
| Prompt Engine | 这个仓库包含一个 NPM 实用程序库,用于创建和维护大型语言模型(LLMs)的提示。 | Github |
| PromptInject | PromptInject 是一个框架,以模块化的方式组装提示,提供 LLMs 对敌对提示攻击的鲁棒性的定量分析。 | Github |
| Prompts AI | GPT-3 的高级 playground。 | Github |
| Prompt Source | PromptSource 是一个工具包,用于创建、共享和使用自然语言提示。 | Github |
| ThoughtSource | 用于机器思考科学的框架。 | Github |
API
💻
| 名称 | 描述 | 网址 | 付费或开源 |
|---|---|---|---|
| OpenAI | GPT-n 用于自然语言处理任务,Codex 用于将自然语言翻译为代码,DALL·E 用于创建和编辑原始图像 | OpenAI | 付费 |
| CohereAI | Cohere 通过一个 API 提供高级大型语言模型和自然语言处理工具 | CohereAI | 付费 |
| Anthropic | 即将推出 | Anthropic | 付费 |
| FLAN-T5 XXL | 即将推出 | HugginFace | 开源 |
数据集
💾
| 名称 | 描述 | 链接 |
|---|---|---|
| P3(公共提示池) | P3(公共提示池)是一个包含各种NLP任务的提示英文数据集合集。 | HuggingFace |
| 超棒的ChatGPT提示 | 该仓库包含用于更好地使用ChatGPT的ChatGPT提示策展。 | Github |
| 写作提示 | 从一个在线论坛(reddit)中搜集的30万个人类编写的故事和相应的写作提示的数据集 | Kaggle |
| Midjourney提示 | 从MidJourney的公共Discord服务器中抓取的文本提示和图片URL的数据集 | HuggingFace |
模型
🧠
| 描述 | 链接 | |
|---|---|---|
| ChatGPT | ChatGPT | |
| Codex | Codex 模型是我们 GPT-3 模型的后代,能够理解和生成代码。它们的训练数据包含自然语言和来自 GitHub 的数十亿行公共代码。 | |
| Bloom | BigScience 大规模开放科学开放获取多语言语言模型 | |
| Facebook LLM | OPT-175B 是 Meta 训练的 GPT-3 等效模型。这是迄今为止参数最多的预训练语言模型,参数量达到了 1750 亿。 | |
| GPT-NeoX | GPT-NeoX-20B,是一种在 Pile 上训练的 200 亿参数自回归语言模型。 | |
| FLAN-T5 XXL | Flan-T5 是一个调整指令的模型,意味着当将指令作为提示的一部分时,它表现出类似于零-shot 的行为。 | |
| XLM-RoBERTa-XL | XLM-RoBERTa-XL 模型是在 2.5TB 经过筛选的 CommonCrawl 数据上进行预训练,包含 100 种语言。 | |
| GPT-J | 它是一个在 Pile 数据集上训练的 GPT-2 类似的因果语言模型。 | |
| PaLM-rlhf-pytorch | 在 PaLM 架构之上实现了 RLHF(Reinforcement Learning with Human Feedback)。基本上是 ChatGPT,但使用 PaLM。 | |
| GPT-Neo | 使用 mesh-tensorflow 库实现的模型并行 GPT-2 和 GPT-3 风格的模型。 | |
| LaMDA-rlhf-pytorch | 是Google的LaMDA在PyTorch中的开源预训练实现,添加了类似于ChatGPT的RLHF。 | |
| RLHF | 是人类反馈强化学习(RLHF)的实现。 | |
| GLM-130B | 是一个开放的双语预训练模型。 |
AI 内容检测器
🔎
| 名称 | 描述 | 链接 |
|---|---|---|
| AI 文本分类器 | AI 文本分类器是一个经过微调的 GPT 模型,用于预测文本是由各种来源生成的 AI 的概率,例如 ChatGPT。 | OpenAI |
| GPT-2 输出检测器 | 这是一个基于 🤗/Transformers 实现的 RoBERTa 的在线演示 GPT-2 输出检测器模型。 | HuggingFace |
| Openai 检测器 | 指示 AI 写作文本的 AI 分类器(OpenAI Detector Python 封装器) | GitHub |
教程
📚
-
Prompt Engineering简介
-
生成语言模型入门指南
-
Prompt Engineering最佳实践
-
Prompt Engineering完全指南
-
Prompt Engineering技术方面
-
Prompt Engineering资源
视频
🎥
- 高级 ChatGPT Prompt 工程
- ChatGPT:初学者的 5 种 Prompt 工程秘密
- CMU 高级自然语言处理 2022:Prompting
- Prompt 工程-一个新的职业?
- ChatGPT 指南:通过更好的 Prompt 提高 10 倍效果
- 语言模型和 Prompt 工程:系统调查 NLP 中的 Prompting 方法
- Prompt 工程 101:Autocomplete、Zero-shot、One-shot 和 Few-shot prompting
标签:工具分享, ChatGPT