Jeanmatozo/jeanmatozo
GitHub: Jeanmatozo/jeanmatozo
一份聚焦AI/LLM安全的研究型作品,提供对抗测试、风险治理与合规映射的方法论与实验项目。
Stars: 0 | Forks: 0
# 你好,我是 Jean 👋
**人工智能风险与治理分析师 | AI 系统 GRC | NIST AI RMF | 对抗测试背景**
我攻击、破坏并分析人工智能系统,然后将研究结果转化为治理框架,帮助组织安全部署 AI。我的工作涵盖对抗测试、LLM 安全工程以及与 **NIST AI RMF**、**OWASP LLM Top 10**、**ISO/IEC 27001 / 42001** 和 **MITRE ATLAS** 对齐的 AI 风险治理。
🔗 [LinkedIn](https://www.linkedin.com/in/jean-akingeneye-00500213/) | [博客](*) | [AI 安全培训实验室](https://github.com/Jeanmatozo/AI-security-training-lab)
## 研究领域
### LLM 红队测试与对抗性测试
系统性地探测人工智能系统如何被操纵、绕过或利用:
- 提示注入(直接与间接)
- 防护栏和安全过滤器绕过
- 多回合对抗性操纵
- 破解与策略规避
- AI 工具滥用与权限提升
### RAG 安全与数据泄露
随着组织将 LLM 连接到内部数据源,攻击面显著扩大。研究重点领域:
- 通过对抗性内容注入进行文档中毒
- 通过检索文档的间接提示注入
- 检索边界故障与上下文泄露
- 通过精心设计的查询进行敏感文档泄露
### AI 代理安全
代理系统引入了传统聊天机器人部署中不存在的攻击面:
- 工具调用操纵与滥用
- 跨代理信任边界违规
- 持久化内存利用
- 编排层漏洞
### AI 风险评估与治理工程
如果发现无法推动决策,那么这些发现就毫无意义。我构建治理工件,将技术安全工作与组织风险管理联系起来:
- AI 系统风险登记册
- 符合 NIST AI RMF 的控制映射
- OMB M-24-10 影响评估结构
- OWASP LLM Top 10 → NIST AI RMF 翻译
## 核心能力
**AI/LLM 红队测试与对抗性测试**
→ 提示注入、破解、多步骤攻击链、防护栏绕过
**AI 风险评估与可保性工程**
→ 连接 OWASP LLM Top 10 → NIST AI RMF → 金融/保险风险
**AI 治理与可审计性**
→ 策略即代码、自动化合规检查、NIST AI RMF + OMB M-24-10 工件
## 实验室项目
**🔬 [AI 安全培训实验室](https://github.com/Jeanmatozo/AI-security-training-lab)**
面向 LLM、RAG 和代理系统的端到端红队测试实验室。结构化攻击剧本、SHA-256 签名证据流水线,以及完整方法论,映射到 OWASP LLM Top 10 · MITRE ATLAS · NIST AI RMF。
`Python` `FastAPI` `LangChain` `ChromaDB` `Docker`
**[AI-LLM-security-lab](https://github.com/Jeanmatozo/AI-LLM-security-lab)**
对抗性提示实验、攻击模拟以及在聊天机器人、RAG 管道、代理和企业 copilot 中符合治理的风险工件。
**[llm-red-team-toolkit](https://github.com/Jeanmatozo/llm-red-team-toolkit)**
自动化红队测试框架 — 结构化攻击库、可重复测试日志和面向规模的对抗性探测工作流。
**[nist-ai-rmf-assessments](https://github.com/Jeanmatozo/nist-ai-rmf-assessments)**
实用的 OWASP LLM Top 10 → NIST AI RMF 映射,符合 OMB M-24-10 和 SEC AI 披露要求。
### AI 安全与红队测试
| | |
| --- | --- |
| **🔴 LLM 红队工具包** *(研究 / 活跃开发)*
使用真实的攻击流程对 LLM 进行以对手为中心的红队测试,强调推理、序列化和边界发现。
[查看项目 →](https://github.com/Jeanmatozo/llm-red-team-toolkit/tree/main) | **🛡️ AI 防护栏评估实验室** *(比较性保障)*
一个用于评估商业 AI 防护栏有效性和故障模式的比较测试框架,专注于治理、部署风险和保障用例。
[查看项目 →](#) | | **📚 RAG 安全风险评估框架**
面向治理的测试框架,用于检索增强生成(RAG)系统,分析文档中毒、上下文注入和检索边界故障。
[查看项目 →](#) | ## 技术栈 **AI/ML 框架**     **对抗性测试与评估**  **基础设施与自动化**    **治理与合规** NIST AI RMF、OMB M-24-10、ISO/IEC 27001/42001、策略即代码、可审计的 Markdown + Python 工件。 **数据与工件** JSON / JSON Schema、YAML、可审计的评估工件、可重复的测试输出,用于治理和审查。 **治理与策略** NIST AI RMF、ISO/IEC 框架(27001、42001)、策略即代码、运行时防护栏执行、符合政策的威胁转化。 OPA (Rego) 用于策略评估和执行原型。 ## 研究信号 *(受控实验室环境)* 本仓库中的实验包括: - 对抗性提示测试 - 防护栏失效分析 - AI 代理边界测试 - 符合治理的安全文档 所有实验均在 **受控研究环境** 中进行,旨在理解故障模式并增强人工智能系统的弹性。 ## 社区与思想领导力 - **Cyber Touch Point Community** — 贡献者与技术参与者 - **CMMC 专业人士网络 (cpn)** — 成员与学员 - **LLM 安全与 AI 红队测试小组** — 成员 ## 让我们连接 我始终欢迎讨论人工智能安全研究、对抗性测试方法论以及人工智能治理与风险演化的最新格局。 “通过像对手一样思考来保障智能的未来。”
使用真实的攻击流程对 LLM 进行以对手为中心的红队测试,强调推理、序列化和边界发现。
[查看项目 →](https://github.com/Jeanmatozo/llm-red-team-toolkit/tree/main) | **🛡️ AI 防护栏评估实验室** *(比较性保障)*
一个用于评估商业 AI 防护栏有效性和故障模式的比较测试框架,专注于治理、部署风险和保障用例。
[查看项目 →](#) | | **📚 RAG 安全风险评估框架**
面向治理的测试框架,用于检索增强生成(RAG)系统,分析文档中毒、上下文注入和检索边界故障。
[查看项目 →](#) | ## 技术栈 **AI/ML 框架**     **对抗性测试与评估**  **基础设施与自动化**    **治理与合规** NIST AI RMF、OMB M-24-10、ISO/IEC 27001/42001、策略即代码、可审计的 Markdown + Python 工件。 **数据与工件** JSON / JSON Schema、YAML、可审计的评估工件、可重复的测试输出,用于治理和审查。 **治理与策略** NIST AI RMF、ISO/IEC 框架(27001、42001)、策略即代码、运行时防护栏执行、符合政策的威胁转化。 OPA (Rego) 用于策略评估和执行原型。 ## 研究信号 *(受控实验室环境)* 本仓库中的实验包括: - 对抗性提示测试 - 防护栏失效分析 - AI 代理边界测试 - 符合治理的安全文档 所有实验均在 **受控研究环境** 中进行,旨在理解故障模式并增强人工智能系统的弹性。 ## 社区与思想领导力 - **Cyber Touch Point Community** — 贡献者与技术参与者 - **CMMC 专业人士网络 (cpn)** — 成员与学员 - **LLM 安全与 AI 红队测试小组** — 成员 ## 让我们连接 我始终欢迎讨论人工智能安全研究、对抗性测试方法论以及人工智能治理与风险演化的最新格局。 “通过像对手一样思考来保障智能的未来。”
标签:AI代理安全, AI安全, AI安全培训, AI系统评估, AI风险治理, Chat Copilot, GRC, Homebrew安装, ISO/IEC 27001, ISO/IEC 42001, MITRE ATLAS, NIST AI RMF, OMB M-24-10, OWASP LLM Top 10, RAG安全, Red Canary, 上下文泄露, 个人博客, 关键词SEO, 协议分析, 多轮对抗操纵, 安全工程, 对抗性测试, 工具滥用, 技术栈, 护栏绕过, 控制映射, 提示注入, 敏感文档泄露, 数据外泄, 文档投毒, 权限提升, 检索边界失效, 治理工件, 职业展示, 请求拦截, 越狱, 逆向工具, 间接提示注入, 集群管理, 风险登记