nishan-paul-hello/cmatrix-agentic-red-team
GitHub: nishan-paul-hello/cmatrix-agentic-red-team
CMatrix 是一个由 AI 多智能体驱动的红队安全评估与漏洞扫描平台,支持网络扫描、Web 漏洞分析和威胁情报收集。
Stars: 0 | Forks: 0
CMatrix 是一个先进的 AI 驱动安全编排平台,采用多智能体架构来自动化安全评估、漏洞扫描和威胁情报。CMatrix 由 **LangGraph** 和 **FastAPI** 提供支持,前端使用 **Next.js**,作为自主安全运营中心运行。
## ✨ 核心功能
- 🤖 **智能体 AI 架构**: 由 LangGraph 提供支持,实现复杂的工具编排和推理。
- 🔍 **网络与 Web 扫描**: 深入的端口扫描、拓扑发现和 Web 漏洞分析。
- 🧠 **向量记忆**: 由 Qdrant 驱动的跨扫描会话长期上下文记忆。
- 🛡️ **人在环中**: 危险操作和安全终端命令的执行审批门控。
- 🔄 **有状态工作流**: 基于检查点的工作流恢复和 Celery 后台任务处理。
- 🎨 **现代界面**: 令人惊叹的 Next.js 前端,带有实时 SSE 流式传输以获取实时更新。
- 🔐 **LLM 无关**: 无缝集成 Gemini、OpenAI、Claude 或本地 Ollama 模型。
- 🐳 **Docker 就绪**: 完全容器化的设置,实现快速可靠的部署。
## 📸 应用预览
*(GIF 即将添加)*
### 🌐 用户控制台
与自主安全智能体实时交互。
| 功能 | 预览 |
|---|---|
| **智能聊天控制台** |  |
| **实时扫描流** |  |
| **审批门控与安全** |  |
### 🛡️ 系统运营
后台处理和状态可视化。
| 模块 | 预览 |
|---|---|
| **任务监控** |  |
| **知识库记忆** |  |
## 🛠️ 技术栈
- **前端**: [Next.js 16](https://nextjs.org/), [React](https://react.dev/), [Tailwind CSS v4](https://tailwindcss.com/)
- **后端**: [Python 3.12+](https://www.python.org/), [FastAPI](https://fastapi.tiangolo.com/)
- **AI/编排**: [LangGraph](https://github.com/langchain-ai/langgraph), [LangChain](https://github.com/langchain-ai/langchain)
- **数据库(主库)**: [PostgreSQL](https://www.postgresql.org/) (通过 SQLAlchemy / Alembic)
- **队列/缓存**: [Redis](https://redis.io/), [Celery](https://docs.celeryq.dev/)
- **向量数据库**: [Qdrant](https://qdrant.tech/)
- **基础设施**: [Docker](https://www.docker.com/)
## 🚀 安装与设置
CMatrix 支持本地开发工作流和完全容器化的 Docker 方式。
### 1. 前置条件
确保已安装以下软件:
- **Docker** 和 **Docker Compose**
- **Git**
- *(可选)* **Python 3.12+** 和 **Node.js** 用于本地原生开发。
### 2. 克隆仓库
```
git clone https://github.com/nishan-paul-2022/cmatrix-agentic-red-team.git
cd cmatrix-agentic-red-team
```
### 3. 配置
通过复制示例文件设置环境变量:
```
cp .env.example .env
```
#### 3.1 ⚙️ 核心配置
后端 API 和数据库的基本设置。编辑 `.env` 以定义:
- `SECRET_KEY`: 用于标准应用运行的安全密钥。
- `DATABASE_URL`: Postgres 连接字符串(默认映射到 Docker 设置)。
#### 3.2 🤖 LLM 配置
AI 模型(如 Google Gemini、OpenAI、Anthropic)的 API 密钥可在应用运行后通过 **UI 设置 > LLM 配置** 直接在界面中配置。或者,通过 `app-backend/llm_config.json` 配置文件显式提供配置。
### 4. 运行应用
选择适合您需求的部署方式:
#### 选项 A:完整 Docker 环境(推荐)
这将在隔离的容器中运行整个系统(前端、后端 API、Celery 工作者、PostgreSQL、Redis、Qdrant)。
```
# 启动所有服务
docker-compose up -d
# 查看实时日志
docker-compose logs -f
```
*别忘了运行初始数据库迁移!*
```
docker-compose exec app-backend alembic upgrade head
```
#### 选项 B:混合本地开发
允许您在 Docker 中运行基础设施(数据库/Redis),同时原生运行前端和后端,以获得最佳开发速度。
**前置条件映射:** 将本地主机映射到 Docker 容器以模拟网络:
```
echo "127.0.0.1 cmatrix-postgres cmatrix-redis cmatrix-qdrant" | sudo tee -a /etc/hosts
```
**终端 1 — 核心基础设施**:
```
docker-compose up -d postgres redis qdrant
```
**终端 2 — 后端 API 与工作者**:
```
cd app-backend
python -m venv venv && source venv/bin/activate
pip install -r requirements.txt
alembic upgrade head
uvicorn app.main:app --reload --host 0.0.0.0 --port 3012
# 注意:你还需要在另一个面板中启动 Celery `celery -A app.worker worker`
```
**终端 3 — 前端界面**:
```
cd app-frontend
npm install
npm run dev
```
## 🔄 开发与 CI/CD 工作流
CMatrix 架构将 AI 智能体视为模块化函数。添加新工具涉及在 `app-backend/app/tools` 下编写健壮的智能体工具,并将它们直接插入 ReAct LangGraph 逻辑中。
**测试**:
- 后端:在 `app-backend` 应用范围内运行 `pytest`。
- 前端:在 `app-frontend` 中使用标准 `npm test` 脚本。
*代码合并会触发 Github Actions,确保在容器镜像上运行完整的功能和集成测试。*
Built with ❤️
标签:AI安全, AI编排, AV绕过, Celery, Chat Copilot, CISA项目, Docker, FastAPI, Human-in-the-loop, LangGraph, LLM评估, LLM集成, Ollama, Python, Qdrant, VAPT, 人机协作, 反取证, 后台任务, 向量数据库, 多代理系统, 威胁情报, 安全社区, 安全评估, 安全运营, 安全防御评估, 开发者工具, 扫描框架, 插件系统, 搜索引擎查询, 数据统计, 无后门, 无线安全, 测试用例, 端口扫描, 红队平台, 网络安全, 网络安全审计, 请求拦截, 隐私保护