zubayrrx/llm-security-gateway

GitHub: zubayrrx/llm-security-gateway

这个项目是一个专为大型语言模型应用设计的轻量级安全网关,旨在拦截提示注入攻击并自动脱敏用户提交的敏感个人信息。

Stars: 0 | Forks: 0

# LLM Security Gateway 本项目是 Large Language Model (LLM) 应用程序的一个简单安全层。 它会检测 prompt injection 攻击,并在发送给模型之前屏蔽敏感用户数据。 ## 功能 - 检测 prompt injection(例如:jailbreak、system prompt 攻击) - 检测并屏蔽敏感数据(电子邮件、电话、ID) - 应用安全策略:ALLOW / MASK / BLOCK - 支持 CLI 和 API 模式(FastAPI) ## 项目结构 llm-security-gateway/ - main.py - detector.py - pii.py - policy.py - run.py - requirements.txt ## 如何运行 ### 安装依赖 pip install -r requirements.txt ### 运行 CLI python run.py ### 运行 API python -m uvicorn main:app --reload 打开: http://127.0.0.1:8000/docs ## 作者 Muhammad Zubair zubairiftikhar06@gmail.com
标签:AI安全, API网关, AV绕过, Chat Copilot, DLL 劫持, FastAPI, PII保护, Python, WAF, 大语言模型, 安全策略, 提示词注入检测, 提示词设计, 敏感信息脱敏, 数据清洗, 数据隐私, 无后门, 系统提示词攻击防护, 网络安全, 越狱检测, 逆向工具, 隐私保护, 零日漏洞检测