zrnge/AgentZ

GitHub: zrnge/AgentZ

本地 AI 驱动的安全事件分级工具,将 SIEM 告警即时分析并保持在本地网络。

Stars: 2 | Forks: 0

# AgentZ — SOC Level AI [![Live Demo](https://img.shields.io/badge/Live%20Demo-zrnge.github.io%2Fagentz-f97316?style=flat-square&logo=github)](https://zrnge.github.io/agentz) [![GitHub Pages](https://img.shields.io/badge/Deployed%20on-GitHub%20Pages-222?style=flat-square&logo=github)](https://zrnge.github.io/agentz) [![Ollama](https://img.shields.io/badge/Powered%20by-Ollama-3b82f6?style=flat-square)](https://ollama.com) [![100% Local](https://img.shields.io/badge/AI%20Inference-100%25%20Local-22c55e?style=flat-square&logo=shield)](https://zrnge.github.io/agentz) [![License: MIT](https://img.shields.io/badge/License-MIT-8b97aa?style=flat-square)](LICENSE) 本地 AI 驱动的安全事件分级。将其连接到您的 SIEM,指向本地 Ollama 模型,并对每个告警即时进行分析—— nothing leaves your machine。 ![AgentZ Screenshot](https://github.com/zrnge/AgentZ/blob/main/Screen3.png) ## 功能 AgentZ 位于您的 SIEM 与大脑之间。它按设定间隔轮询安全平台,拉取新告警,并通过本地大语言模型为您提供简明英文分析:包括发生了什么、影响了什么、可能的攻击路径以及首要处置措施。 它适用于 SentinelOne、CrowdStrike Falcon、Microsoft Defender、Elastic SIEM、Splunk 或任何自定义 API。您也可以手动粘贴旧告警或导出的 JSON 进行分析。 所有处理均在本地完成。AI 不会接触任何外部服务器。 ## 快速开始 ### 1. 运行 Ollama 并启用跨域访问 默认情况下 Ollama 会阻止来自浏览器原点的请求。您需要设置 `OLLAMA_ORIGINS=*` 启动 Ollama,以便页面能够访问它。 **Windows (PowerShell)** ``` $env:OLLAMA_ORIGINS="*"; ollama serve ``` **macOS / Linux** ``` OLLAMA_ORIGINS="*" ollama serve ``` **Linux — 如果 Ollama 作为 systemd 服务运行** 编辑服务文件: ``` sudo systemctl edit ollama.service ``` 在 `[Service]` 下添加以下内容: ``` [Service] Environment="OLLAMA_ORIGINS=*" ``` 然后重启: ``` sudo systemctl daemon-reload sudo systemctl restart ollama ``` Ollama 运行后,如果尚未拉取模型,请执行: ``` ollama pull llama3.1 ``` 任意模型均可。较大的模型能提供更佳分析能力;llama3.1 8B 是一个不错的起点。 ### 2. 打开 AgentZ 访问 **[zrnge.github.io/agentz](https://zrnge.github.io/agentz)** 或在浏览器中本地打开 `index.html`。 ### 3. 配置 点击右上角 **⚙ Settings** 按钮。 | 设置项 | 填写内容 | |---|---| | Ollama API URL | `http://localhost:11434`(默认) | | AI 模型 | `llama3.1` 或您已拉取的模型 | | 平台 | 您的 SIEM — SentinelOne、CrowdStrike、Defender、Elastic、Splunk 或 Custom | | API 基础 URL | 您的 SIEM 控制台地址 | | API Token | 您的 API 密钥或 Bearer 令牌 | | 轮询间隔 | 检查新告警的频率(秒) | | 最低严重级别 | 过滤噪声 — 建议默认为 Medium+ | 点击 **Test Ollama Connection** 确保模型可达,然后点击 **▶ Start Agent** 启动。 ## 功能特性 - **自动轮询** — 按可配置间隔轮询 SIEM 并自动分析每个新告警 - **手动导入** — 粘贴原始 JSON、日志行或任意历史事件的纯文本并即时分析 - **AI 分析** — 提供摘要、严重性评估、影响资产、MITRE ATT&CK 映射和修复步骤 - **HTML 报告导出** — 生成可直接分享或归档的独立报告文件 - **JSON 导出** — 导出原始事件与分析结果为 JSON - **深色 / 浅色模式** — 切换并保存偏好至页眉 - **桌面通知与声音** — 收到新事件时可选择提醒 - **过滤与搜索** — 按严重性过滤,按标题或来源搜索 - **100% 本地 AI** — 所有推理在本地 Ollama 上运行,数据永不离开您的网络 ## 支持平台 | 平台 | 说明 | |---|---| | SentinelOne | 使用 `/web/api/v2.1/threats` | | CrowdStrike Falcon | 使用 `/detects/queries/detects/v1` | | Microsoft Defender | 使用 `/api/alerts` | | Elastic SIEM | 查询 `.siem-signals-*` 索引 | | Splunk | 使用 `/services/search/jobs/export` | | Custom API | 提供自定义端点 — 预期 JSON 包含 `id`、`title`、`severity` 字段 | ## 隐私 - API 令牌仅存储在浏览器会话内存中,不会写入磁盘或传输到任何位置(除了您配置的 SIEM 端点) - 如果启用“保存设置到浏览器”,Ollama URL、模型名称和平台设置将保存到 `localStorage`;令牌不会被持久化 - 所有 AI 推理均在本地 Ollama 实例上运行 ## 作者 由 **[Zrnge](https://github.com/zrnge)** 构建 ## 许可证 MIT
标签:AI风险缓解, AI驱动, AMSI绕过, Cloudflare, CrowdStrike, DInvoke, EDR, Elastic SIEM, LLM评估, Microsoft Defender, MITRE ATT&CK, Ollama, SentinelOne, SOAR, 事件分级, 即时分析, 后端开发, 威胁检测, 安全仪表板, 安全信息与事件管理, 安全大脑, 安全运营, 扫描框架, 搜索引擎爬取, 数据隐私, 智能告警分析, 本地AI, 本地大模型, 端侧推理, 终端检测与响应, 脆弱性评估, 跨平台集成