packetcraft/prisma-airs-openwebui-

GitHub: packetcraft/prisma-airs-openwebui-

为 Open WebUI 和 Ollama 本地部署提供基于 Prisma AIRS 的实时安全护栏,检测并拦截提示注入与敏感数据泄露。

Stars: 0 | Forks: 0

# 🛡️ 适用于 Open WebUI 的 Prisma AIRS Security Interceptor **通过企业级安全护栏增强您的本地 GenAI 部署。** 本项目提供了 [Ollama](https://ollama.com)、[Open WebUI](https://openwebui.com) 和 [Palo Alto Networks Prisma AIRS](https://pan.dev/prisma-airs/) 之间的无缝集成。它允许您运行强大的本地 LLM,同时对 prompt 注入和敏感数据泄露进行实时监控。 ## 🚀 为什么要使用它? 运行本地 AI 具有隐私和速度优势,但通常缺乏企业云 LLM 中的安全层。此拦截器增加了: * **入站防护**:在越狱和 prompt 注入到达您的模型之前对其进行检测。 * **出站防护**:识别 AI 回复中的 PII(社会安全号码、信用卡)和敏感数据。 * **可视化反馈**:聊天 UI 中的实时状态指示器可准确显示扫描发生的时间。 ## 🔀 选择您的模式 根据您想要执行安全的严格程度,提供了两种过滤器功能: | 模式 | 文件 | 行为 | | --- | --- | --- | | **Detection** | `prisma_airs_interceptor_(detection_mode).py` | 通过在消息上标注警告横幅来标记威胁。Prompt 和响应仍然会通过。适用于可见性测试。 | | **Block** | `prisma_airs_interceptor_(block_mode).py` | 如果检测到威胁,则硬性拦截消息。被标记的 prompt 永远不会到达模型;被标记的响应会被完全编辑。用于主动执行。 | 如果您想在执行前观察行为,请从 Detection 模式开始。当您准备好执行时,切换到 Block 模式。 ## 🛠️ 快速开始 **前置条件**:Docker Desktop、Ollama 以及拥有 API Key 和安全配置文件的活跃 Prisma AIRS 账户。 1. **拉取模型**: ``` ollama pull llama2-uncensored:latest ``` 2. **启动 WebUI**: ``` docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/data --name open-webui \ ghcr.io/open-webui/open-webui:main ``` 3. **安装过滤器**:通过 **Admin Panel > Functions** 将 `functions/` 中您所选文件的代码复制到 Open WebUI 中。 **详细说明可在 [设置指南](./docs/setup-guide.md) 中找到。** ## 📂 仓库结构 * `functions/`:包含用于 Open WebUI 的 Python 中间件 (Filter)。 * `docs/`:分步设置指南和故障排除。 * `samples/`:为开发和测试参考而捕获的真实 Prisma AIRS API JSON 响应。 ## ⚖️ 许可证 根据 MIT 许可证分发。有关更多信息,请参阅 `LICENSE`。
标签:AI风险缓解, API安全, CISA项目, DLP, Docker, JSON输出, LLM评估, Ollama, Open WebUI, Palo Alto Networks, PII保护, Prisma AIRS, Prompt注入检测, 中间件, 企业级安全, 安全网关, 安全防御评估, 本地大语言模型, 生成式AI安全, 网络安全, 网络安全, 虚拟机, 请求拦截, 越狱防护, 逆向工具, 隐私保护, 隐私保护, 零日漏洞检测