habiba-imran/Presidio-Based-LLM-Security-Mini-Gateway
GitHub: habiba-imran/Presidio-Based-LLM-Security-Mini-Gateway
基于 Presidio 的 LLM 安全防护网关,提供对抗提示注入、敏感信息泄露等攻击的检测能力及量化评估框架。
Stars: 0 | Forks: 0
# 基于 Presidio 的 LLM 安全微型网关
## 设置
```
python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt
```
## 运行测试
```
python -m pytest -q
```
## 运行网关示例
```
python test_gateway.py
```
## 生成评估产物
此命令将在 `evaluation/results` 中生成所需的量化输出:
```
python -m evaluation.run_evaluation
```
生成的文件:
- `evaluation/results/scenario_level_evaluation.csv`
- `evaluation/results/presidio_customization_validation.csv`
- `evaluation/results/performance_summary_metrics.json`
- `evaluation/results/threshold_calibration.csv`
- `evaluation/results/latency_summary.csv`
- `evaluation/results/bonus_llm_before_after.csv`
## 可选 Bonus:Ollama 集成
通过设置环境变量启用 bonus 集成:
```
$env:USE_LLM="true"
$env:OLLAMA_MODEL="llama3"
$env:OLLAMA_FALLBACK_MODEL="mistral"
$env:OLLAMA_URL="http://localhost:11434/api/generate"
python -m evaluation.run_evaluation
```
首先运行 Ollama:
```
ollama run llama3
```
如果 Ollama 未运行,bonus 文件仍会生成,但其中会填充 `llm_error`。
标签:AI安全, AI风险缓解, API安全, Chat Copilot, CISA项目, DLL 劫持, DNS 反向解析, JSON输出, Llama3, LLM应用, LLM评估, Ollama, PII保护, Presidio, Python, Streamlit, 大语言模型, 安全网关, 安全规则引擎, 定量评估, 密钥暴露, 提示注入, 数据脱敏, 无后门, 本地大模型, 系统提示提取, 系统设计, 网络安全, 访问控制, 逆向工具, 防御工程, 隐私保护, 集群管理