ESKme/genai-in-the-soc-paper

GitHub: ESKme/genai-in-the-soc-paper

本文探讨生成式 AI 在安全运营中心的应用,平衡加速与责任,提出人机协同的决策支持框架。

Stars: 1 | Forks: 0

# GenAI 在 SOC ![Preview](https://static.pigsec.cn/wp-content/uploads/repos/2026/04/3f761ad799192149.png) **GenAI in the SOC Paper - Acceleration v. Responsibility** ## 摘要 生成式人工智能正越来越多地集成到安全运营中心(SOC),以加速告警分诊、调查和响应工作流程。 本文分析了这种集成带来的机遇与风险,重点关注操作加速与人类责任、验证和问责之间的根本张力。 ## 核心论点 生成式人工智能应被视为**决策支持系统**,而非自主决策者。 尽管人工智能可以显著加速分析与模式识别,但安全关键决策的最终责任必须由人类专家承担。 ## 概念模型 ![Paradigm Shift](https://raw.githubusercontent.com/ESKme/genai-in-the-soc-paper/main/figures/paradigm-shift-ai-soc-en.jpg) 该模型说明了从确定性、基于规则的系统向概率性、AI辅助分析的转变,强调了认识论确定性的转变以及人类监督的持续必要性。 ## 人类在环架构 ![Human-in-the-Loop](https://static.pigsec.cn/wp-content/uploads/repos/2026/04/9c99ebe12d192208.png) 该架构展示了生成式人工智能如何作为分析层集成到SOC工作流中,在事件响应中增强人类分析师的同时保留人类决策权。 ## 关于本文 本仓库包含完整的研究论文、支撑图表和补充材料。 本工作重点探讨生成式人工智能在事件响应中的作用,并探索如何在不牺牲安全关键环境中的问责与正确性的前提下实现效率提升。 ## 仓库结构 请参阅 [Repository Structure](REPOSITORY_STRUCTURE.md) 了解项目布局概览。 * `/paper/` → 完整论文(PDF) * `/paper/source/` → 源文件(ODT) * `/figures/` → 图表与概念模型 * `/appendix/` → 术语表与支撑材料 * `/assets/` → 视觉资产(社交预览、封面) ## 仓库布局概览 ``` . ├─ README.md ├─ LICENSE ├─ CITATION.cff ├─ .gitignore │ ├─ paper/ │ ├─ ESKme-GenAI-im-SOC-Paper-EN-v1.0.pdf │ ├─ ESKme-GenAI-im-SOC-Paper-DE-v1.0.pdf │ └─ source/ │ ├─ ESKme-GenAI-im-SOC-Paper-EN-v1.0.odt │ └─ ESKme-GenAI-im-SOC-Paper-DE-v1.0.odt │ ├─ figures/ │ ├─ paradigm-shift-ai-soc-en.jpg │ ├─ paradigm-shift-ai-soc-de.jpg │ ├─ human-in-the-loop-architecture.png │ ├─ appendix/ │ └─ terminology.md │ └─ assets/ ├─ cover-en.jpg ├─ cover-de.jpg └─ social-preview.png ``` ## 引用 若使用本工作,请使用 `CITATION.cff` 中提供的信息进行引用。 ## 许可证 本作品根据知识共享署名-相同方式共享 4.0 国际许可协议授权。 **ESKme ∴ Ethical.Shift.Keeper.//me**
标签:AI伦理, AI辅助分析, AMSI绕过, IPv6支持, ODT源码, PDF论文, Tactic, 事故响应, 人工智能安全, 人机协同, 人类在环, 决策支持, 加速与责任, 合规性, 威胁检测, 安全效率, 安全治理, 安全运营中心, 技术论文, 概念模型, 流程图, 生成式AI, 索引, 网络映射, 责任平衡, 防御加固