jinzy666/llm-security-scanner

GitHub: jinzy666/llm-security-scanner

一个面向大模型应用的安全漏洞自动化扫描平台,内置200+测试用例,支持多种国产大模型的安全检测、智能分析与报告生成。

Stars: 3 | Forks: 1

# 大模型安全漏洞自动化扫描平台 ## 项目简介 本项目是一个专注于大模型应用安全漏洞检测的自动化扫描平台,能够检测80%以上常见大模型安全漏洞,检测效率较手动测试提升60%,风险判定准确率78%+。 ## 功能特性 - **全流程自动化**:从漏洞扫描到智能分析、修复建议生成和报告导出 - **多模型支持**:适配主流大模型应用(ChatGLM/Qwen/文心一言) - **丰富的测试用例**:集成200+条针对性测试用例 - **智能分析**:对接ChatGLM-4 API实现漏洞检测结果的智能分析 - **可视化展示**:轻量级前端展示页面,实现扫描任务提交、进度监控、结果可视化 - **报告导出**:支持PDF/Excel格式的报告导出 ## 系统架构 - **测试用例模块**:管理和加载各类安全漏洞测试用例 - **扫描引擎模块**:执行漏洞扫描,与大模型API交互 - **结果分析模块**:分析扫描结果,生成风险评估和修复建议 - **前端展示模块**:提供用户交互界面,展示扫描结果 ## 快速开始 ### 后端部署 1. 进入后端目录 cd backend 2. 安装依赖 pip install -r requirements.txt 3. 启动后端服务 python main.py ### 前端使用 1. 直接打开 `frontend/index.html` 文件 2. 配置扫描参数(模型类型、API Key等) 3. 点击"开始扫描"按钮 4. 查看扫描结果和修复建议 5. 导出报告(PDF/Excel) ## 测试用例类型 - **提示词注入**:检测模型是否容易被恶意提示词操控 - **函数调用越权**:检测模型是否会执行未授权的函数调用 - **数据泄露**:检测模型是否会泄露敏感信息 - **过度拟合**:检测模型是否过度记忆训练数据 - **权限提升**:检测模型是否会执行越权操作 - **不安全输出**:检测模型是否会输出不安全内容 - **模型投毒**:检测模型是否容易被投毒攻击 - **拒绝服务**:检测模型是否容易受到拒绝服务攻击 - **信息披露**:检测模型是否会披露系统信息 - **未授权访问**:检测模型是否会允许未授权访问 ## 技术栈 - **后端**:Python, FastAPI, Uvicorn - **前端**:HTML, CSS, JavaScript, Bootstrap, Chart.js - **API集成**:支持ChatGLM, Qwen, 文心一言等大模型API ## 项目成果 - 可检测80%以上常见大模型安全漏洞 - 检测效率较手动测试提升60% - 风险判定准确率78%+ - 形成可直接用于实战的自动化扫描工具 ## 后续计划 - 增加更多测试用例 - 优化扫描算法,提高检测准确率 - 支持更多大模型API - 完善报告导出功能 - 增加漏洞修复自动生成功能
标签:AI安全, Atomic Red Team, Chat Copilot, ChatGLM, CISA项目, DInvoke, Python, 人工智能安全, 函数调用安全, 可视化面板, 合规性, 多模态安全, 大模型安全, 安全合规, 提示词注入检测, 数据可视化, 数据泄露检测, 文心一言, 无后门, 模型投毒检测, 网络代理, 越权检测, 逆向工具, 通义千问