afeefbari/Secure-AI-Prompt-Sandbox
GitHub: afeefbari/Secure-AI-Prompt-Sandbox
一个部署在用户与 LLM API 之间的安全网关,用于检测提示词注入、执行安全策略并维护防篡改审计追踪。
Stars: 0 | Forks: 0
# 🛡️ 安全 AI 提示 Sandbox
## 📌 概述
**Secure AI Prompt Sandbox** 是一个基于 Web 的安全网关,旨在部署于最终用户与大型语言模型 (LLM) API 之间。它会拦截所有 prompt 流量,执行策略,检测对抗性输入,并对每一次交互维护加密安全的审计追踪。
该项目解决了一个日益严峻的现实问题:随着 LLM 被集成到生产系统中,它们成为了攻击面。Prompt 注入、上下文泄露、未授权的 API 访问以及审计追踪缺失,都是已部署 LLM 系统面临的现实威胁。本项目在中间件层面解决这些问题。
## 🎯 核心目标
- 在所有 prompt 到达 LLM 之前对其进行验证和清理
- 检测并阻止 prompt 注入和越狱尝试
- 对所有 API 交互执行基于角色的访问控制 (RBAC)
- 隔离用户上下文以防止跨会话数据泄露
- 在防篡改、哈希链式审计追踪中记录所有交互
- 使用基于 Vault 的凭证存储进行安全的 API 密钥管理
## 🏗️ 系统架构
系统由以下核心组件构成:
| 组件 | 角色 |
|---|---|
| **User Interface** | 用于与沙箱交互的浏览器客户端 |
| **WebView** | 安全地渲染和调解 Web 内容 |
| **API Gateway** | 入口点 —— 处理认证 (JWT) 和 RBAC |
| **Security Engine** | Prompt 验证、注入检测、风险评分 |
| **Audit Module** | SHA-256 哈希链式防篡改日志记录 |
| **LLM Connector** | 将批准的 prompt 转发给 LLM 提供商 |
| **API Key Vault** | AES-256-GCM 加密凭证存储 |
| **LLM Provider (Groq)** | 外部 LLM API (Groq) |
## 🔐 安全模型
威胁建模是使用 **IriusRisk** 遵循 **STRIDE** 方法论进行的。
- 在所有组件中识别并接受了 **38 个威胁**
- 定义并映射了 **57 项对策**
- 涵盖的风险领域:欺骗、篡改、抵赖、信息泄露、拒绝服务、权限提升
## 👥 团队
| 姓名 | 学号 |
|---|---|
| Muhammad Afeef Bari | 2023356 |
| Mahad Aqeel | 2023286 |
| Muhammad Daniyal | 2023406 |
**课程:** CY321 — 安全软件开发
**指导教师:** Dr Zubair Ahmad
## 📅 交付成果
| 交付物 | 截止日期 | 状态 |
|---|---|---|
| D-1: 威胁模型与安全需求 | 2026年3月8日 | ✅ 已完成 |
| D-2: 初始实现 | 2026年4月19日 | 🔄 进行中 |
| D-3: 安全测试与最终演示 | 2026年5月5日 | ⏳ 待定 |
## 📁 仓库结构
```
Secure-AI-Prompt-Sandbox/
├── Deliverable-1/ # Threat model, security requirements, architecture
├── Deliverable-2/ # Source code (initial implementation)
├── Deliverable-3/ # Final source, test results, demo
├── frontend/ # Frontend application
├── backend/ # Backend services
├── docs/ # Documentation and reports
└── README.md
```
标签:AI基础设施, AI安全网关, API安全, API密钥管理, DNS 反向解析, Groq API, JSON输出, LLM防火墙, RBAC权限控制, Rego, STRIDE威胁建模, Web安全, 不可篡改审计日志, 大语言模型安全, 安全中间件, 提示词注入检测, 敏感数据泄露防护, 机密管理, 沙箱环境, 网络安全, 蓝队分析, 逆向工具, 隐私保护, 零信任架构, 风险评分