jinzy666/llm-security-scanner
GitHub: jinzy666/llm-security-scanner
一个面向大模型应用的安全漏洞自动化扫描平台,内置200+测试用例,支持多种国产大模型的安全检测、智能分析与报告生成。
Stars: 3 | Forks: 1
# 大模型安全漏洞自动化扫描平台
## 项目简介
本项目是一个专注于大模型应用安全漏洞检测的自动化扫描平台,能够检测80%以上常见大模型安全漏洞,检测效率较手动测试提升60%,风险判定准确率78%+。
## 功能特性
- **全流程自动化**:从漏洞扫描到智能分析、修复建议生成和报告导出
- **多模型支持**:适配主流大模型应用(ChatGLM/Qwen/文心一言)
- **丰富的测试用例**:集成200+条针对性测试用例
- **智能分析**:对接ChatGLM-4 API实现漏洞检测结果的智能分析
- **可视化展示**:轻量级前端展示页面,实现扫描任务提交、进度监控、结果可视化
- **报告导出**:支持PDF/Excel格式的报告导出
## 系统架构
- **测试用例模块**:管理和加载各类安全漏洞测试用例
- **扫描引擎模块**:执行漏洞扫描,与大模型API交互
- **结果分析模块**:分析扫描结果,生成风险评估和修复建议
- **前端展示模块**:提供用户交互界面,展示扫描结果
## 快速开始
### 后端部署
1. 进入后端目录
cd backend
2. 安装依赖
pip install -r requirements.txt
3. 启动后端服务
python main.py
### 前端使用
1. 直接打开 `frontend/index.html` 文件
2. 配置扫描参数(模型类型、API Key等)
3. 点击"开始扫描"按钮
4. 查看扫描结果和修复建议
5. 导出报告(PDF/Excel)
## 测试用例类型
- **提示词注入**:检测模型是否容易被恶意提示词操控
- **函数调用越权**:检测模型是否会执行未授权的函数调用
- **数据泄露**:检测模型是否会泄露敏感信息
- **过度拟合**:检测模型是否过度记忆训练数据
- **权限提升**:检测模型是否会执行越权操作
- **不安全输出**:检测模型是否会输出不安全内容
- **模型投毒**:检测模型是否容易被投毒攻击
- **拒绝服务**:检测模型是否容易受到拒绝服务攻击
- **信息披露**:检测模型是否会披露系统信息
- **未授权访问**:检测模型是否会允许未授权访问
## 技术栈
- **后端**:Python, FastAPI, Uvicorn
- **前端**:HTML, CSS, JavaScript, Bootstrap, Chart.js
- **API集成**:支持ChatGLM, Qwen, 文心一言等大模型API
## 项目成果
- 可检测80%以上常见大模型安全漏洞
- 检测效率较手动测试提升60%
- 风险判定准确率78%+
- 形成可直接用于实战的自动化扫描工具
## 后续计划
- 增加更多测试用例
- 优化扫描算法,提高检测准确率
- 支持更多大模型API
- 完善报告导出功能
- 增加漏洞修复自动生成功能
标签:AI安全, Atomic Red Team, Chat Copilot, ChatGLM, CISA项目, DInvoke, Python, 人工智能安全, 函数调用安全, 可视化面板, 合规性, 多模态安全, 大模型安全, 安全合规, 提示词注入检测, 数据可视化, 数据泄露检测, 文心一言, 无后门, 模型投毒检测, 网络代理, 越权检测, 逆向工具, 通义千问