Walentino/ai-triage-bot

GitHub: Walentino/ai-triage-bot

基于 Claude 3 Haiku 的 SOC 分诊助手,将 AWS CloudTrail 原始事件自动转化为包含 MITRE 映射和处置建议的结构化摘要,大幅缩短安全分析师的事件理解时间。

Stars: 0 | Forks: 0

# AI 辅助分诊机器人 **一个由 LLM 驱动的 SOC 分析师助手,可将原始 CloudTrail 事件转化为结构化的事件响应摘要。** ## 概述 本项目通过 Amazon Bedrock 将 Claude 3 Haiku 集成到安全运营工作流中。原始的 AWS CloudTrail JSON 事件会通过结构化的系统提示词发送给 LLM。模型随后会返回一份纯英文摘要、MITRE ATT&CK 映射、遏制建议以及置信度评级。 ## 架构 AWS CloudTrail -> S3 Bucket -> SQS Queue -> Lambda -> Amazon Bedrock -> 结构化分诊摘要 ## 组件 | 组件 | 用途 | |-----------|---------| | Amazon SQS | 接收 S3 事件通知 | | AWS Lambda | 下载日志,格式化提示词,调用 Bedrock | | Amazon Bedrock | Claude 3 Haiku 分析事件 | | CloudWatch Logs | 捕获 AI 生成的摘要 | ## 提示词工程 四大设计原则:结构化输出、纯英文、安全护栏(绝不盲目猜测高置信度)、可执行的指导建议。 ## 示例输出 事件:ListProvisionedModelThroughputs 摘要:一名 IAM 用户查询了 Bedrock 模型吞吐量。属于只读操作,已通过 MFA 身份验证,看起来属于正常行为。 MITRE ATT&CK:T1526 遏制建议:向用户或其主管核实授权情况。 置信度:低,并附有明确的推理过程。 ## 横向对比 | 标准 | 原始 JSON | AI 摘要 | |----------|----------|------------| | 长度 | 2000+ 字符 | 300 字符 | | 非技术人员可读 | 否 | 是 | | 理解所需时间 | 3-5 分钟 | 15 秒 | | MITRE 映射 | 否 | 是 | | 遏制指导 | 无 | 具体明确 | ## 遇到的问题 1. Anthropic SDK 的 pydantic_core 二进制文件不兼容。修复方法:切换至 Bedrock SDK。 2. Bedrock 模型 ID 被拒绝。修复方法:结合推理配置文件使用 Claude 3 Haiku。 3. SQS 消息格式不匹配。修复方法:多格式解析。 4. Lambda 在 60 秒时超时。修复方法:将超时时间增加至 120 秒。 ## 局限性 本系统为概念验证。LLM 生成的摘要是分诊的加速工具,不能替代分析师的判断。模型可能会产生关于 MITRE 映射的幻觉。 ## 展现的技能 AI/ML 集成、Serverless 架构、安全自动化、AWS Bedrock、提示词工程 ## 成本摘要 Lambda:免费套餐 | Bedrock:低于 $0.01 | SQS:免费套餐 | S3:低于 $0.01 | 总计:低于 $0.02 ## 截图 ![AI 分诊摘要](https://static.pigsec.cn/wp-content/uploads/repos/2026/05/63ff691b54111452.png)
标签:AI助手, Amazon Bedrock, Amazon SQS, Amazon Web Services, AMSI绕过, ATT&CK框架, AWS, AWS Lambda, Claude 3 Haiku, Cloudflare, CloudTrail, DLL 劫持, DPI, LLM, LSASS转储, MITRE ATT&CK, Python, SecOps, Serverless, Unmanaged PE, 云安全架构, 大语言模型, 威胁检测, 安全情报, 安全运营中心, 提示词工程, 无后门, 漏洞探索, 策略决策点, 网络安全, 网络映射, 自动化分诊, 足迹分析, 隐私保护