packetcraft/prisma-airs-openwebui-
GitHub: packetcraft/prisma-airs-openwebui-
为 Open WebUI 和 Ollama 本地部署提供基于 Prisma AIRS 的实时安全护栏,检测并拦截提示注入与敏感数据泄露。
Stars: 0 | Forks: 0
# 🛡️ 适用于 Open WebUI 的 Prisma AIRS Security Interceptor
**通过企业级安全护栏增强您的本地 GenAI 部署。**
本项目提供了 [Ollama](https://ollama.com)、[Open WebUI](https://openwebui.com) 和 [Palo Alto Networks Prisma AIRS](https://pan.dev/prisma-airs/) 之间的无缝集成。它允许您运行强大的本地 LLM,同时对 prompt 注入和敏感数据泄露进行实时监控。
## 🚀 为什么要使用它?
运行本地 AI 具有隐私和速度优势,但通常缺乏企业云 LLM 中的安全层。此拦截器增加了:
* **入站防护**:在越狱和 prompt 注入到达您的模型之前对其进行检测。
* **出站防护**:识别 AI 回复中的 PII(社会安全号码、信用卡)和敏感数据。
* **可视化反馈**:聊天 UI 中的实时状态指示器可准确显示扫描发生的时间。
## 🔀 选择您的模式
根据您想要执行安全的严格程度,提供了两种过滤器功能:
| 模式 | 文件 | 行为 |
| --- | --- | --- |
| **Detection** | `prisma_airs_interceptor_(detection_mode).py` | 通过在消息上标注警告横幅来标记威胁。Prompt 和响应仍然会通过。适用于可见性测试。 |
| **Block** | `prisma_airs_interceptor_(block_mode).py` | 如果检测到威胁,则硬性拦截消息。被标记的 prompt 永远不会到达模型;被标记的响应会被完全编辑。用于主动执行。 |
如果您想在执行前观察行为,请从 Detection 模式开始。当您准备好执行时,切换到 Block 模式。
## 🛠️ 快速开始
**前置条件**:Docker Desktop、Ollama 以及拥有 API Key 和安全配置文件的活跃 Prisma AIRS 账户。
1. **拉取模型**:
```
ollama pull llama2-uncensored:latest
```
2. **启动 WebUI**:
```
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/data --name open-webui \
ghcr.io/open-webui/open-webui:main
```
3. **安装过滤器**:通过 **Admin Panel > Functions** 将 `functions/` 中您所选文件的代码复制到 Open WebUI 中。
**详细说明可在 [设置指南](./docs/setup-guide.md) 中找到。**
## 📂 仓库结构
* `functions/`:包含用于 Open WebUI 的 Python 中间件 (Filter)。
* `docs/`:分步设置指南和故障排除。
* `samples/`:为开发和测试参考而捕获的真实 Prisma AIRS API JSON 响应。
## ⚖️ 许可证
根据 MIT 许可证分发。有关更多信息,请参阅 `LICENSE`。
标签:AI风险缓解, API安全, CISA项目, DLP, Docker, JSON输出, LLM评估, Ollama, Open WebUI, Palo Alto Networks, PII保护, Prisma AIRS, Prompt注入检测, 中间件, 企业级安全, 安全网关, 安全防御评估, 本地大语言模型, 生成式AI安全, 网络安全, 网络安全, 虚拟机, 请求拦截, 越狱防护, 逆向工具, 隐私保护, 隐私保护, 零日漏洞检测