一个由LLM或GPT开发的令人惊叹的安全工具、实验案例或其他有趣项目的精选列表。
作者:Sec-Labs | 发布时间:
项目地址
https://github.com/cckuailong/awesome-gpt-security
令人惊叹的GPT + 安全
目录

工具
🧰
审计
- SourceGPT - 基于ChatGPT构建的提示管理器和源代码分析工具
- ChatGPTScanner - 基于ChatGPT的白盒代码扫描工具
- chatgpt-code-analyzer - 用于Visual Studio Code的ChatGPT代码分析器
- hacker-ai - 使用人工智能来检测源代码中的漏洞的在线工具
- audit_gpt - 为智能合约审计进行GPT的微调
侦察
- GPT_Vuln-analyzer - 使用ChatGPT API、Python-Nmap和DNS Recon模块,利用GPT3模型基于Nmap扫描数据和DNS扫描信息生成漏洞报告。还可以广泛进行子域枚举
- SubGPT - SubGPT查看您已经发现的域的子域,并使用BingGPT查找更多子域
- Navi - 一个基于问答的侦察工具,使用GPT进行答案生成
攻击
- PentestGPT - 一款基于GPT的渗透测试工具
- burpgpt - 一款Burp Suite扩展,集成了OpenAI的GPT,用于进行额外的被动扫描,以发现高度定制的漏洞,并能够运行基于流量的任意类型分析。
- ReconAIzer - 一款Burp Suite扩展,添加了OpenAI (GPT),帮助您在Bug Bounty侦察中发现端点、参数、URL、子域等。
- PassGAN - 一种基于深度学习的密码猜测方法。HomeSecurityHeroes land a Product,您可以在这里测试一个AI需要多少时间来破解您的密码。
- nuclei_gpt - 只需要提交相关的请求和响应以及漏洞的描述,即可生成一个Nuclei PoC。
检测
- k8sgpt - 一个用于扫描您的Kubernetes集群、诊断和处理问题的工具,以简单的英文进行交互。
- cloudgpt - 使用ChatGPT对AWS的用户管理策略进行漏洞扫描的工具
- IATelligence - IATelligence是一个Python脚本,可以提取PE文件的IAT,并请求GPT获取有关API和ATT&CK矩阵的更多信息。
预防
社会工程
- ChatGPT-Web-Setting-Funny-Abuse - 使用ChatGPT-Web进行互动,并在描述设置中发现HTML渲染。
逆向工程
修复
- wolverine - 自动修复Python脚本/代码中的错误
评估
案例
🌰
实验性
- Lost in ChatGPT's memories: escaping ChatGPT-3.5 memory issues to write CVE PoCs
- I built a Zero Day virus with undetectable exfiltration using only ChatGPT prompts
- Experimenting with GPT-3 for Detecting Security Vulnerabilities in Code
- We put GPT-4 in Semgrep to point out false positives & fix code
- A Practical, AI-Generated Phishing PoC With ChatGPT
- Capturing the Flag with GPT-4
- I Used GPT-3 to Find 213 Security Vulnerabilities in a Single Codebase
- Using ChatGPT to generate encoder and supporting WebShell
- Using OpenAI Chat to Generate Phishing Campaigns - 包括钓鱼平台
- Chat4GPT Experiments for Security
学术
- GPT-4 Technical Report - OpenAI对模型的安全评估和缓解措施
- Ignore Previous Prompt: Attack Techniques For Language Models - 提供了Prompt注入的开创性研究工作
- More than you've asked for: A Comprehensive Analysis of Novel Prompt Injection Threats to Application-Integrated Large Language Models
- RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language Models
- Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard Security Attacks
- Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned
- Can We Generate Shellcodes via Natural Language? An Empirical Study
博客
- Dissecting redis CVE-2023-28425 with chatGPT as assistant
- Security Code Review With ChatGPT
- ChatGPT happy to write ransomware, just really bad at it
趣味
- shortest prompt that will enable GPT to protect the secret key
- a CTF-like game that teaches how to bypass LLM using language hacks
GPT安全
🚨
绕过安全策略
漏洞赏金
- Building A Virtual Machine inside ChatGPT - 已废弃但有趣
- LangChain vulnerable to code injection -- CVE-2023-29374
破解
标签:工具分享, 实战分享, 思路分享, 学习笔记, ChatGPT