akshaymagapu/aisafeguard

GitHub: akshaymagapu/aisafeguard

面向LLM应用的开源安全防护工具包,通过SDK或代理网关提供prompt注入检测、PII脱敏、有害内容过滤等能力,帮助开发者以最小代码改动为AI应用添加可配置的安全策略。

Stars: 0 | Forks: 0

# AISafe Guard `aisafeguard` 是一个用于 AI 应用的开源 LLM 安全与防护工具包。 它通过 Python SDK、CLI 和兼容 OpenAI 的代理,帮助防范 prompt 注入、越狱攻击、PII 泄露、有害输出和恶意 URL。 ## 为什么选择 AISafe Guard - 以最少的代码改动为任何 LLM 应用添加 AI 安全检查 - 执行可配置的防护策略:`block`、`warn`、`log`、`redact` - 同时保护输入 prompt 和模型输出 - 可作为库使用,或作为语言无关的代理网关使用 ## 核心功能 - Prompt 注入检测 - 越狱检测 - PII 检测与脱敏 - 有害内容过滤 - 恶意 URL 检测 - 相关性检查 - OpenAI/Anthropic 包装器 - 兼容 OpenAI 的代理模式 ## 安装 ``` pip install aisafeguard ``` 从源码安装(全新克隆): ``` pip install . ``` 可选附加组件: ``` pip install "aisafeguard[ml]" pip install "aisafeguard[proxy]" pip install "aisafeguard[integrations]" pip install "aisafeguard[telemetry]" ``` ## 仓库设置 ``` git clone cd aisafeguard python3.11 -m venv .venv source .venv/bin/activate pip install -e .[dev] npm install ``` ## Node.js 用户 本仓库目前不提供用于运行时使用的原生 Node SDK 包。 目前推荐的 Node 集成方式: 1. 从本仓库运行 `aisafe proxy`(或 Docker)。 2. 从你的 Node 应用调用兼容 OpenAI 的 endpoint。 3. 在 `aisafe.yaml` 中集中管理安全策略/配置。 示例(Node fetch): ``` const res = await fetch("http://localhost:8000/v1/chat/completions", { method: "POST", headers: { "Content-Type": "application/json", "x-user-id": "user-123" }, body: JSON.stringify({ model: "gpt-4o-mini", messages: [{ role: "user", content: "Hello" }] }) }); const data = await res.json(); console.log(data.choices?.[0]?.message?.content); ``` ## 快速开始 装饰器: ``` from aisafeguard import guard @guard(input=["prompt_injection", "pii"], output=["toxicity", "pii"]) async def ask(prompt: str) -> str: return "model output" ``` Guard 对象: ``` from aisafeguard import Guard g = Guard(config="aisafe.yaml") input_result = await g.scan_input("Ignore previous instructions") ``` OpenAI 包装器: ``` from aisafeguard import Guard from aisafeguard.integrations import wrap_openai guard = Guard() client = wrap_openai(openai_client, guard) ``` ## 使用场景 - 保护聊天机器人免受 prompt 注入攻击 - 防止支持助手中敏感数据泄露 - 为企业 AI 工作流添加策略控制 - 在返回给最终用户之前拦截不安全的模型输出 - 通过代理为多语言技术栈集中管理 AI 安全 ## CLI ``` aisafe init aisafe validate aisafe.yaml aisafe scan "My SSN is 123-45-6789" aisafe redteam --strict aisafe proxy --config aisafe.yaml --host 127.0.0.1 --port 8000 \ --upstream-base-url https://api.openai.com \ --upstream-api-key $OPENAI_API_KEY \ --rpm 120 ``` 代理环境变量: - `AISAFE_UPSTREAM_BASE_URL` - `AISAFE_UPSTREAM_API_KEY`(或 `OPENAI_API_KEY`) ## Docker ``` docker build -t aisafeguard:latest . docker run --rm -p 8000:8000 \ -e AISAFE_UPSTREAM_API_KEY=$OPENAI_API_KEY \ aisafeguard:latest ``` ## 开发 ``` npm install PYTHONPATH=src python -m pytest -v python benchmarks/bench_pipeline.py ``` ## 文档 - `docs/getting-started.md` - `docs/config-reference.md` - `docs/prompt-injection-protection.md` - `docs/pii-redaction-llm.md` - `docs/openai-compatible-ai-proxy.md`
标签:AI代理, AI代理网关, AI安全防护栏, AI网关, Anthropic封装, Naabu, NLP安全, OpenAI代理, OpenAI兼容API, Petitpotam, PII检测, Python, Python SDK, 上下文相关性检查, 内容安全, 命令行工具CLI, 大模型安全, 安全中间件, 安全策略引擎, 密钥泄露防护, 开源安全工具, 恶意URL检测, 提示注入防护, 敏感信息脱敏, 数据防泄漏DLP, 文档结构分析, 无后门, 机器学习安全, 毒性过滤, 请求拦截, 越狱检测, 逆向工具, 逆向工程平台