TrustAI-laboratory/Learn-Prompt-Hacking
GitHub: TrustAI-laboratory/Learn-Prompt-Hacking
一套涵盖提示词工程、攻击技术与安全防御的大语言模型安全课程资源。
Stars: 267 | Forks: 32
学习提示词黑客技术

这是目前最全面的提示词黑客课程,记录了我们在提示工程和提示词黑客课程方面的进展,
- 提示工程技术。
- GenAI 开发技术。
- 提示词黑客技术。
- ChatGPT 越狱
- GPT 助手提示词泄露
- GPTs 提示词注入
- LLM 提示词安全
- 超级提示词
- 提示词黑客
- 提示词安全
- 对抗机器学习。
- LLM 安全防御技术。
- LLM 黑客资源
- LLM 安全论文
- 会议幻灯片
# 背景
随着 ChatGPT 的发布,大语言模型 (LLM) 日益普及,彻底改变了我们与 AI 系统交互的方式。在 ChatGPT 之前,自然语言处理 (NLP) 领域已有几项显著进展为这场革命奠定了基础,包括 Vaswani 等人发表的《Attention is All You Need》论文,以及 BERT、GPT-2、GPT-3、T5、RoBERTa、ELECTRA 和 ALBERT。
尽管这些进展至关重要,但公众可能并不广为人知。2023 年是一个转折点,各行业开始大规模采用这些通用模型来执行生成式任务。
作为一名数据科学家和 AI 开发者,持续学习是一项关键特质,在 AI 驱动的自然语言处理时代,掌握最前沿的 LLM 技术对于提供最佳可行解决方案至关重要。
另一方面,AI 的快速到来也给整个 IT 软件生态系统带来了大量新的攻击面和风险。数据科学家和开发者也需要关注 LLM 安全问题。
# 课程目标
本课程的主要目标是:
* 深入理解提示工程技术,以便有效地与大语言模型交互。通过掌握这些策略,旨在提高利用自然语言的力量开发创新、有效且高效解决方案的能力。
* 基本了解 LLM 应用程序面临的风险,并学习如何缓解或预防 GenAI 应用的风险。
# 其他资源
* [技术博客](https://securaize.substack.com/)
标签:AI红队测试, C2, ChatGPT越狱, DNS 反向解析, GenAI开发, GPT助手, NLP技术, 人工智能安全, 合规性, 基线管理, 大语言模型安全, 安全研究论文, 安全防御技术, 开放策略代理, 开源教程, 提示注入, 提示词攻击, 提示词泄露, 机密管理, 网络安全课程, 超级提示词, 逆向工具, 防御加固, 集群管理