cosai-oasis/secure-ai-tooling

GitHub: cosai-oasis/secure-ai-tooling

提供 AI 系统的风险识别、分析与缓解框架,解决传统软件安全实践在 AI 场景中的不适用问题。

Stars: 74 | Forks: 20

# **Coalition for Secure AI (CoSAI) 工具集** 本仓库用于 **Coalition for Secure AI (CoSAI)** 的工作。CoSAI 是一个 [OASIS Open Project](https://www.oasis-open.org/open-projects/),由行业领先组织的 AI 与安全专家组成的开放生态系统。我们致力于分享安全 AI 部署的最佳实践,并共同开展 AI 安全研究与工具开发。 如需了解更多关于 CoSAI 的信息,请访问 [CoSAI 网站](https://www.oasis-open.org/projects/cosai/) 和 [Open Project 仓库](https://github.com/cosai-oasis/oasis-open-project),其中包含我们的治理信息与项目章程。 ## **项目** 本仓库包含 CoSAI 社区开发的工具、框架与资源。 ### Coalition for Secure AI Risk Map (CoSAI-RM) **CoSAI 风险图谱** 是一个用于识别、分析并缓解人工智能系统安全风险的框架。由于传统软件安全实践并不总是适用于 AI,该项目提供了一套共享的理解与通用语言,以应对 AI 开发生命周期中独特的安全挑战。 其目标是提供一个结构化的 AI 安全景观图谱,帮助从业者理解各组件如何连接以及风险可能出现的节点。它解决了若干基础性的行业挑战: * **通用语言**:建立一套 AI 风险的共享词汇表,以减少混淆并实现对威胁的一致跟踪与缓解。 * **全局视角**:提供一个 holistic 框架,识别整个系统中的风险——包括数据管道、基础设施与部署,而不仅限于孤立模型。 * **超越模型**:通过跨整个 AI 生态系统映射风险,避免对模型中心化威胁的过度强调。 #### **它如何工作** 风险图谱将 AI 开发生命周期组织为四个主要类别:**数据、基础设施、模型与应用**。框架本身进一步划分为四个关键领域: * **组件**:AI 系统的基础构建块。 * **风险**:潜在安全威胁的目录,例如数据投毒或模型逃避。 * **控制措施**:可用于缓解这些风险的安全措施。 * **角色**:涉及的关键角色,即模型创建者与模型消费者。 该框架以人类可读的 .yaml 文件与机器可读的 .schema.json 文件形式提供,你可用于学习、评估自身项目,并根据组织需求进行扩展。 #### **框架映射** CoSAI 风险图谱包含与已建立安全框架的映射,支持交叉引用: * **MITRE ATLAS** — 人工智能系统的对抗威胁景观 * **NIST AI RMF** — NIST 人工智能风险管理框架 * **STRIDE** — 微软威胁建模框架 * **OWASP Top 10 for LLM** — 大型语言模型应用的主要安全风险 这些映射允许组织将 CoSAI 风险与控制措施与现有安全标准和合规要求对齐。框架引用会自动验证,以确保风险图谱的一致性。 [在此探索完整的 CoSAI 风险图谱项目...](./risk-map/)
标签:AI安全, AI开发, Chat Copilot, Coalition for Secure AI, CoSAI-RM, Homebrew安装, OASIS Open Project, 人工智能安全, 共享语言, 合规, 合规性, 威胁建模, 安全治理, 密钥泄露防护, 数据管道安全, 最佳实践, 机器学习安全, 生命周期安全, 行业标准, 逆向工具, 部署安全, 风险地图