branddoctorcompany-ship-it/clinical-ai-guardrails

GitHub: branddoctorcompany-ship-it/clinical-ai-guardrails

由执业医师编写的医疗大模型安全提示词、防护机制与红队基准测试集合,为医疗AI产品团队提供开箱即用的临床安全保障。

Stars: 1 | Forks: 0

# 临床 AI 防护机制 **由医生主导编写的、面向医疗 LLM 的安全提示词、防护机制与红队基准测试。** [![License: MIT](https://img.shields.io/badge/License-MIT-green.svg)](LICENSE) [![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg)](CONTRIBUTING.md) 正在开发医疗 AI 产品?你的 LLM 需要由医生而非仅仅是工程师撰写的临床防护机制。 本仓库为任何在医疗领域交付 AI 产品的团队提供了**开箱即用的系统提示词、安全规则和失败基准测试**——全部由执业医师验证把关。 ## 为什么会有这个项目 LLM 会产生幻觉。在医疗领域,幻觉是致命的。大多数 AI 团队缺乏撰写安全医疗提示词或捕捉危险边缘情况的临床专业知识。本仓库通过以下内容填补了这一空白: - 按医学专科组织的**系统提示词**,专为真实的临床工作流编写 - **安全防护机制** —— 每个医疗 LLM 都必须遵守的硬性规则(分诊升级、药物相互作用警告、执业范围边界) - **红队测试案例** —— 真实世界中 LLM 在临床环境中出现危险失误的案例,附有严重程度评级 - **评估基准** —— 临床验证过的问答对,用于测试模型的医疗推理能力 这里的所有内容均由一位医师 (MBBS) 审查,旨在可以直接插入到你的 LLM 流水线中。 ## 仓库结构 ``` clinical-ai-guardrails/ prompts/ primary-care/ symptom-assessment.md # OLDCARTS-based patient symptom intake emergency-medicine/ triage-support.md # ESI triage decision support for clinicians guardrails/ triage-escalation.md # When to tell users to call 911 drug-safety.md # Medication safety boundaries scope-of-practice.md # What AI should never do mental-health-crisis.md # Crisis detection and response protocol red-team/ hallucination-cases.md # Documented dangerous LLM failures severity-rating-guide.md # How to score clinical AI failures benchmarks/ primary-care-eval.json # 10 evaluation test cases scoring-rubric.md # Pass/fail criteria and thresholds ``` ## 快速开始 1. 从 `guardrails/` 中**挑选一个防护规则**并添加到你的系统提示词中 2. 使用 `benchmarks/primary-care-eval.json` 中的案例**测试你的模型** 3. 使用 `benchmarks/scoring-rubric.md` **对结果进行打分** 4. 使用 `red-team/hallucination-cases.md` 中的模式对你的模型进行**红队测试** ### 示例:为 Claude 添加分诊升级机制 ``` import anthropic # 加载 triage guardrail with open("guardrails/triage-escalation.md") as f: triage_rules = f.read() client = anthropic.Anthropic() message = client.messages.create( model="claude-sonnet-4-20250514", max_tokens=1024, system=f"You are a healthcare assistant. Follow these safety rules strictly:\n\n{triage_rules}", messages=[ {"role": "user", "content": "I have severe chest pain and my left arm is numb"} ] ) ``` ## 提示词设计原则 1. **安全第一** —— 每个提示词都包含强制性的升级触发条件 2. **设定范围边界** —— AI 绝不应进行诊断、开处方或替代医生 3. **循证依据** —— 防护机制参考了临床指南和死亡率数据 4. **失效安全** —— 当存在不确定性时,始终将问题升级给人类临床医生 5. **保持透明** —— AI 必须表明自己的身份并说明其局限性 ## 贡献 我们欢迎临床医生、患者安全专业人士和医疗 AI 工程师做出贡献。请参阅 [CONTRIBUTING.md](CONTRIBUTING.md) 获取相关指南。 优先领域: - 更多医学专科的提示词(儿科学、肿瘤学、妇产科) - 适应不同国家的临床指南 - 非英语语言的提示词翻译 - 来自真实世界 LLM 失误案例的新红队测试用例 ## 许可证 附带医疗免责声明的 MIT 许可证。详情请参阅 [LICENSE](LICENSE)。 **由 Siddharth Rajasekar 医生 (MBBS) 主导编写** *本仓库不提供医疗建议。它是一个面向构建医疗 AI 产品团队的安全工程资源。*
标签:AI伦理, AI安全, Chat Copilot, Homebrew安装, LLM护栏, 临床AI, 临床决策支持, 临床工作流, 全文检索, 分诊系统, 初级保健, 医生主导, 医疗人工智能, 医疗合规, 医疗大语言模型, 医疗安全, 医疗范围边界, 医疗问答, 安全基准测试, 幻觉缓解, 心理健康干预, 急诊医学, 模型评估, 生命科学, 用药安全, 逆向工具, 防御加固