zubayrrx/llm-security-gateway
GitHub: zubayrrx/llm-security-gateway
这个项目是一个专为大型语言模型应用设计的轻量级安全网关,旨在拦截提示注入攻击并自动脱敏用户提交的敏感个人信息。
Stars: 0 | Forks: 0
# LLM Security Gateway
本项目是 Large Language Model (LLM) 应用程序的一个简单安全层。
它会检测 prompt injection 攻击,并在发送给模型之前屏蔽敏感用户数据。
## 功能
- 检测 prompt injection(例如:jailbreak、system prompt 攻击)
- 检测并屏蔽敏感数据(电子邮件、电话、ID)
- 应用安全策略:ALLOW / MASK / BLOCK
- 支持 CLI 和 API 模式(FastAPI)
## 项目结构
llm-security-gateway/
- main.py
- detector.py
- pii.py
- policy.py
- run.py
- requirements.txt
## 如何运行
### 安装依赖
pip install -r requirements.txt
### 运行 CLI
python run.py
### 运行 API
python -m uvicorn main:app --reload
打开:
http://127.0.0.1:8000/docs
## 作者
Muhammad Zubair
zubairiftikhar06@gmail.com
标签:AI安全, API网关, AV绕过, Chat Copilot, DLL 劫持, FastAPI, PII保护, Python, WAF, 大语言模型, 安全策略, 提示词注入检测, 提示词设计, 敏感信息脱敏, 数据清洗, 数据隐私, 无后门, 系统提示词攻击防护, 网络安全, 越狱检测, 逆向工具, 隐私保护, 零日漏洞检测