panaum/llm-redteam-suite

GitHub: panaum/llm-redteam-suite

自动化对抗评估框架,用于对大语言模型进行安全漏洞检测和红队测试。

Stars: 0 | Forks: 0

# llm-redteam-suite LLM 安全测试的自动化对抗评估框架
标签:AES-256, AI安全, AI红队, Chat Copilot, DLL 劫持, Kubernetes 安全, LLM渗透测试, LLM评估, Ollama, Prompt安全, 人工智能安全, 合规性, 后端开发, 大模型安全, 大语言模型, 安全评估框架, 对抗性测试, 对抗样本, 模型鲁棒性, 漏洞评估, 网络安全, 逆向工具, 隐私保护