Ashishkumar999/Ashishkumar999
GitHub: Ashishkumar999/Ashishkumar999
面向 GenAI 与 LLM 应用安全的实战研究资料库,系统整理了 Prompt 注入攻击、RAG 漏洞、威胁建模与安全架构设计等前沿攻防知识。
Stars: 0 | Forks: 0
# 嗨,我是 Ashish Kumar 👋
## 🔐 网络安全分析师 | GenAI 安全 | VAPT | AppSec
专注领域的网络安全分析师:
• VAPT(Web 与 API 安全)
• GenAI 安全测试
• Prompt 注入与越狱攻击
• OWASP Top 10 与 OWASP LLM Top 10
• 应用程序安全测试
• 安全研究文档
## 🚀 目前正在进行的工作
• Prompt 注入攻击实验室
• Gandalf LLM 安全演练
• RAG Prompt 注入演示
• OWASP LLM Top 10 实践笔记
## 📜 认证
• CEHv11
• DFE
## 🛠 工具与技术
Burp Suite | OWASP ZAP | Kali Linux | Postman | Python | Wireshark | GitHub
Prompt 注入测试 | RAG 安全分析 | STRIDE 威胁建模
OWASP Top 10 | OWASP LLM Top 10
## 📂 项目
• GenAI 安全实验室 – 涵盖 Prompt 注入攻击、RAG 漏洞、威胁建模、检测工程和安全的 LLM 架构的动手安全研究
• Gandalf LLM Prompt 注入演练 – 使用指令覆盖、上下文操纵和系统 Prompt 提取技术解决了多个护栏关卡,并映射到 OWASP LLM Top 10 (LLM01)
• RAG 聊天机器人漏洞实验室 – 演示了元数据过滤器绕过和检索层 Prompt 注入风险
• GenAI 渗透测试方法论 – 针对注入、泄露和权限提升场景测试 LLM 应用程序的结构化工作流程
• GenAI 威胁建模 – 将 STRIDE 方法论应用于 GenAI 和基于 RAG 的架构
• GenAI 检测工程 – 为恶意 Prompt 行为和连接器滥用检测设计了监控策略
• 安全的 GenAI 架构 – 为 LLM 部署记录了企业级的安全设计模式
• LLM 安全基础 – 探索了模型提取攻击、Prompt 泄露风险和对抗性交互技术
## 📚 学习重点(2026)
• LLM 威胁建模
• Prompt 注入利用
• RAG 安全弱点
• AI 应用程序攻击面映射
• 安全的 LLM 部署实践
## 🤝 与我联系
LinkedIn: https://www.linkedin.com/in/ashish-kumar-giri-a1419821a/
GitHub: https://github.com/Ashishkumar999
标签:AES-256, AI应用安全, API安全, AppSec, Burp Suite, CEHv11, CEH认证, CISA项目, DFE认证, Gandalf LLM安全, GenAI安全, IP 地址批量处理, JSON输出, OWASP LLM Top 10, OWASP Top 10, OWASP ZAP, Postman, Python, RAG安全, Red Canary, STRIDE威胁建模, VAPT, Web安全, Web应用渗透测试, Wireshark, 企业安全架构, 信息安全分析师, 元数据过滤器绕过, 协议分析, 句柄查看, 大型语言模型安全, 威胁建模, 安全文档, 安全架构设计, 安全测试方法论, 安全漏洞, 安全靶场, 对抗性攻击, 应用安全测试, 无后门, 权限提升, 检索增强生成安全, 模型提取攻击, 漏洞评估, 生成式AI安全, 管理员页面发现, 系统提示提取, 红队评估, 网络安全, 网络安全实战, 网络安全实验室, 蓝队分析, 虚拟机, 足迹探测, 逆向工具, 隐私保护