akshaymagapu/aisafeguard
GitHub: akshaymagapu/aisafeguard
面向LLM应用的开源安全防护工具包,通过SDK或代理网关提供prompt注入检测、PII脱敏、有害内容过滤等能力,帮助开发者以最小代码改动为AI应用添加可配置的安全策略。
Stars: 0 | Forks: 0
# AISafe Guard
`aisafeguard` 是一个用于 AI 应用的开源 LLM 安全与防护工具包。
它通过 Python SDK、CLI 和兼容 OpenAI 的代理,帮助防范 prompt 注入、越狱攻击、PII 泄露、有害输出和恶意 URL。
## 为什么选择 AISafe Guard
- 以最少的代码改动为任何 LLM 应用添加 AI 安全检查
- 执行可配置的防护策略:`block`、`warn`、`log`、`redact`
- 同时保护输入 prompt 和模型输出
- 可作为库使用,或作为语言无关的代理网关使用
## 核心功能
- Prompt 注入检测
- 越狱检测
- PII 检测与脱敏
- 有害内容过滤
- 恶意 URL 检测
- 相关性检查
- OpenAI/Anthropic 包装器
- 兼容 OpenAI 的代理模式
## 安装
```
pip install aisafeguard
```
从源码安装(全新克隆):
```
pip install .
```
可选附加组件:
```
pip install "aisafeguard[ml]"
pip install "aisafeguard[proxy]"
pip install "aisafeguard[integrations]"
pip install "aisafeguard[telemetry]"
```
## 仓库设置
```
git clone
cd aisafeguard
python3.11 -m venv .venv
source .venv/bin/activate
pip install -e .[dev]
npm install
```
## Node.js 用户
本仓库目前不提供用于运行时使用的原生 Node SDK 包。
目前推荐的 Node 集成方式:
1. 从本仓库运行 `aisafe proxy`(或 Docker)。
2. 从你的 Node 应用调用兼容 OpenAI 的 endpoint。
3. 在 `aisafe.yaml` 中集中管理安全策略/配置。
示例(Node fetch):
```
const res = await fetch("http://localhost:8000/v1/chat/completions", {
method: "POST",
headers: { "Content-Type": "application/json", "x-user-id": "user-123" },
body: JSON.stringify({
model: "gpt-4o-mini",
messages: [{ role: "user", content: "Hello" }]
})
});
const data = await res.json();
console.log(data.choices?.[0]?.message?.content);
```
## 快速开始
装饰器:
```
from aisafeguard import guard
@guard(input=["prompt_injection", "pii"], output=["toxicity", "pii"])
async def ask(prompt: str) -> str:
return "model output"
```
Guard 对象:
```
from aisafeguard import Guard
g = Guard(config="aisafe.yaml")
input_result = await g.scan_input("Ignore previous instructions")
```
OpenAI 包装器:
```
from aisafeguard import Guard
from aisafeguard.integrations import wrap_openai
guard = Guard()
client = wrap_openai(openai_client, guard)
```
## 使用场景
- 保护聊天机器人免受 prompt 注入攻击
- 防止支持助手中敏感数据泄露
- 为企业 AI 工作流添加策略控制
- 在返回给最终用户之前拦截不安全的模型输出
- 通过代理为多语言技术栈集中管理 AI 安全
## CLI
```
aisafe init
aisafe validate aisafe.yaml
aisafe scan "My SSN is 123-45-6789"
aisafe redteam --strict
aisafe proxy --config aisafe.yaml --host 127.0.0.1 --port 8000 \
--upstream-base-url https://api.openai.com \
--upstream-api-key $OPENAI_API_KEY \
--rpm 120
```
代理环境变量:
- `AISAFE_UPSTREAM_BASE_URL`
- `AISAFE_UPSTREAM_API_KEY`(或 `OPENAI_API_KEY`)
## Docker
```
docker build -t aisafeguard:latest .
docker run --rm -p 8000:8000 \
-e AISAFE_UPSTREAM_API_KEY=$OPENAI_API_KEY \
aisafeguard:latest
```
## 开发
```
npm install
PYTHONPATH=src python -m pytest -v
python benchmarks/bench_pipeline.py
```
## 文档
- `docs/getting-started.md`
- `docs/config-reference.md`
- `docs/prompt-injection-protection.md`
- `docs/pii-redaction-llm.md`
- `docs/openai-compatible-ai-proxy.md`
标签:AI代理, AI代理网关, AI安全防护栏, AI网关, Anthropic封装, Naabu, NLP安全, OpenAI代理, OpenAI兼容API, Petitpotam, PII检测, Python, Python SDK, 上下文相关性检查, 内容安全, 命令行工具CLI, 大模型安全, 安全中间件, 安全策略引擎, 密钥泄露防护, 开源安全工具, 恶意URL检测, 提示注入防护, 敏感信息脱敏, 数据防泄漏DLP, 文档结构分析, 无后门, 机器学习安全, 毒性过滤, 请求拦截, 越狱检测, 逆向工具, 逆向工程平台