nardovibecoding/claude-skills-curation
GitHub: nardovibecoding/claude-skills-curation
为 Claude Code 提供 6 个经过生产验证的技能和多模型辩论机制,以及 5 个零成本的自动化钩子,解决单一 LLM 视角局限和重复性运维操作问题。
Stars: 0 | Forks: 0
```
claude plugins install nardovibecoding/claude-skills-curation
```
**经过生产环境测试的 Claude Code skills + hooks —— 在需要的地方使用 LLM 推理,在不需要的地方使用确定性自动化。**
[](https://claude.com/claude-code)
[](#skills)
[](#hooks)
[](#)
[](LICENSE)
一个 Claude 只能提供一种视角。对于代码审查、架构决策或任何重要事项 —— 仅仅一个观点是不够的。本项目带来了结构化的辩论、对抗性审查以及自动化上下文管理。
## 技能
Skills 通过结构化 prompt 调用 LLM。它们在匹配到触发短语时自动激活 —— 无需斜杠命令。
| 类别 | Skill | 功能描述 |
|----------|-------|-------------|
| **Security** | [red-alert](#red-alert--adversarial-self-review) | 对抗性红队 —— 查找安全漏洞、逻辑错误、资源浪费 |
| **Maintenance** | [md-cleanup](#md-cleanup--unified-context-budget-auditor) | 统一的上下文预算审计器 —— CLAUDE.md、hookify 规则、memory 文件、skills |
| **Maintenance** | skill-profile | 配置文件切换:仅加载与当前任务相关的 skills |
| **Workflow** | [research-council](#research-council--6-model-debate-at-0cost) | 6 个免费的 LLM 辩论、交叉审查、达成共识 —— $0/决策 |
| **Discovery** | skill-extractor | 在安装社区 skills 之前进行评估 —— 发现重叠和冗余 |
| **Discovery** | tldr-eli5 | 自适应摘要 + 面向非技术利益相关者的 ELI5 模式 |
## Hooks
Hooks 是在 Claude Code `PostToolUse` 事件上触发的纯 Python 脚本 —— 无需 LLM 调用,无延迟,零成本。
| Hook | 触发条件 | 功能描述 |
|------|---------|-------------|
| **vps-sync** | `git push` | 在远程服务器上自动执行 SSH pull —— 在每次 push 时保持 VPS 同步 |
| **dependency-grep** | `mv` / `rm` | 在你继续操作之前,grep 搜索对被移动或删除文件的引用 |
| **pip-install** | `requirements.txt` 编辑 | 在远程服务器上自动运行 `pip install -r requirements.txt` |
| **bot-restart** | persona JSON 编辑 | 自动 `pkill` 受影响的 bot 进程 —— `start_all.sh` 会在 10 秒内重启它 |
| **memory-index** | 新建 `memory/*.md` (Write) | 检查新的 memory 文件是否已列在 `MEMORY.md` 索引中 |
## Research Council —— 6 模型辩论,成本 $0/决策
核心亮点。LLM 默认具有迎合性 —— 它们倾向于赞同提问者。Research Council 通过让六个模型相互辩论来解决这个问题。
**工作原理:**
```
/debate Should we migrate from REST to GraphQL for our internal API?
```
| 轮次 | 过程描述 |
|-------|-------------|
| **第 1 轮** | 六个模型并行作答(约 10 秒) |
| **第 2 轮** | 每个模型阅读其他所有模型的答案,找出最强和最弱的论点,完善自己的立场 |
| **第 3 轮** | 给出最终立场,并明确说明“我改变观点是因为……”或“我坚持观点是因为……” |
| **综合** | 一个评判模型生成一份执行摘要:共识、未决分歧、行动项、逆向思维见解 |
**快速模式**(3 个模型,2 轮)适用于轻量级问题。**完整委员会**(6 个模型,3 轮)适用于架构决策、供应商选择,或任何值得花费 3 分钟计算时间的高风险决策。
**成本:**$0。所有六个模型均使用免费额度 API 调用。原本在会议中每小时花费 $40 的委员会讨论,现在成本为零。
## Red Alert —— 对抗性自我审查
标准的代码审查通常一团和气。Red Alert 使用“付费找漏洞”的 prompt —— 审查者会因为发现真正的问题而获得明确奖励,而不是因为提供支持而获奖励。
**三种模式:**
- **按需审查** —— 将其指向任何文件、commit 或功能描述
- **变更后审查** —— 在大型 diff 之后自动触发(更改超过 50 行)
- **定时审查** —— 针对包含 8 项检查清单的完整系统红队评估:安全性、可靠性、成本、数据丢失、过期状态、死代码、依赖项、监控盲点
**多模型审查:**使用第二个模型作为外部批评者 —— 不同的训练数据能发现不同的盲点。
## MD Cleanup —— 统一的上下文预算审计器
用一条五阶段命令取代三个独立的维护任务:
```
md cleanup
```
| 阶段 | 审计内容 |
|-------|---------------|
| 1 | **CLAUDE.md** —— 将每条规则分类为 INTERNALIZED / REINFORCED / CUSTOM / HISTORICAL / REDUNDANT |
| 2 | **Hookify 规则** —— 针对 CLAUDE.md 和反馈记忆进行去重 |
| 3 | **Memory 文件** —— 检查行数、时效性、重复主题、晋升候选 |
| 4 | **Skills 库存** —— 检测重复触发器、损坏的脚本、缺失的依赖、上游更新 |
| 5 | **预算表** —— 统计所有上下文来源的 token 数量及阈值 |
一条命令。一份报告。在你批准之前不会执行任何建议。
## 开发背景
每一项功能都是从真实的现实生产故障中提取出来的:
| 项目 | 真实问题 |
|------|-------------|
| **red-alert** | 代码审查总是漏掉安全漏洞。需要一个专门受雇提出异议的审查员。 |
| **research-council** | LLM 总是赞同问题预设的框架。因此构建了对抗性的交叉审查机制。 |
| **md-cleanup** | 三个独立的维护 skills 总是以错误的顺序运行。因此合并为一个五阶段的审计流程。 |
| **skill-extractor** | 安装了一个与现有工具重叠 80% 的社区 skill。因此构建了一个评估器来进行事先检查。 |
| **skill-profile** | 加载了 30 多个 skills 后达到了 15K YAML 限制。需要针对不同任务上下文进行配置文件切换。 |
| **tldr-eli5** | 需要针对不同的受众和语言提供不同的压缩比例。 |
| **vps-sync** | 在笔记本电脑上编辑了代码,忘记 push,服务器运行了 3 天的过期代码。此 hook 在每次 push 时触发。 |
| **dependency-grep** | 重命名了一个配置文件,悄悄破坏了 6 个下游引用。此 hook 会在你继续操作之前执行 grep 检查。 |
| **pip-install** | 添加了一个依赖,忘记在服务器上安装,服务在凌晨 2 点崩溃。此 hook 会自动安装。 |
| **bot-restart** | 编辑了 persona 配置,不得不手动 SSH 并重启。此 hook 可在 10 秒内处理完毕。 |
| **memory-index** | 创建了一个 memory 文件,忘记将其加入索引,两周后找不到了。此 hook 会立即捕获。 |
## 架构:Skills 与 Hooks
```
┌─────────────────────────────────────────────────────────┐
│ Claude Code CLI │
├────────────────────────┬────────────────────────────────┤
│ SKILLS │ HOOKS │
│ (LLM reasoning) │ (deterministic automation) │
│ │ │
│ Trigger phrase → │ Tool event fires → │
│ Structured prompt → │ Python check() → │
│ LLM generates output │ Python action() │
│ │ (no LLM, no latency) │
│ Use for: │ Use for: │
│ debate, critique, │ sync, grep, install, │
│ summarize, evaluate │ restart, validate │
└────────────────────────┴────────────────────────────────┘
```
Skills 和 hooks 是独立的 —— 仅安装你需要的部分。
## 安装
一条命令。耗时 30 秒。
```
curl -fsSL https://raw.githubusercontent.com/nardovibecoding/claude-skills-curation/main/install.sh | bash
```
克隆仓库,在 `~/.claude/settings.json` 中注册所有 13 个 hooks + 6 个 skills。然后重启 Claude Code。
手动安装
### Skills —— 作为插件 ``` claude plugins install nardovibecoding/claude-skills-curation ``` ### Skills —— 手动(逐个安装) ``` git clone https://github.com/nardovibecoding/claude-skills-curation.git cp -r claude-skills-curation/skills/workflow/research-council ~/.claude/skills/ ``` ### Hooks ``` # 共享库(所有 hooks 必需) cp claude-skills-curation/hooks/shared/hook_base.py ~/.claude/hooks/ cp claude-skills-curation/hooks/shared/vps_config.py ~/.claude/hooks/ # 复制您需要的 hooks cp claude-skills-curation/hooks/vps-sync/auto_vps_sync.py ~/.claude/hooks/ cp claude-skills-curation/hooks/dependency-grep/auto_dependency_grep.py ~/.claude/hooks/ cp claude-skills-curation/hooks/pip-install/auto_pip_install.py ~/.claude/hooks/ cp claude-skills-curation/hooks/bot-restart/auto_bot_restart.py ~/.claude/hooks/ cp claude-skills-curation/hooks/memory-index/auto_memory_index.py ~/.claude/hooks/ ``` 在 `~/.claude/settings.json` 的 `hooks.PostToolUse` 下注册 hooks。每个 hook 的目录中都包含一个 README,其中有确切的注册代码块。 **前置条件:**已安装 [Claude Code](https://claude.com/claude-code) CLI。标签:AI编程, Claude Code, Cutter, DLL 劫持, LLM, SEO, Unmanaged PE, 上下文审计, 人工智能, 代码安全, 代码审查, 内存分配, 多模型辩论, 大语言模型, 威胁情报, 安全漏洞检测, 对抗性审查, 工作流, 开发者工具, 技能管理, 提示词工程, 插件, 数据展示, 数据管道, 架构决策, 漏洞枚举, 用户模式Hook绕过, 社区插件评估, 策略决策点, 红队, 网络调试, 自动化, 软件工程, 软件开发, 逆向工具, 配置优化