Camj78/Cost-Guard-AI
GitHub: Camj78/Cost-Guard-AI
一款面向生产环境的AI提示词静态分析CLI工具,在部署前检测token激增、成本超支、注入风险和输出不稳定等问题。
Stars: 0 | Forks: 0
## 🚨 这个提示词看起来没问题 —— 但在生产环境中会消耗多得多的 token
```
npx @camj78/costguardai demo
```
```
CostGuardAI Preflight Analysis
────────────────────────────────────────
⚠️ WARNING (score: 48)
Model: gpt-4o-mini
Tokens: 244
Cost/req: $0.0001
CostGuardAI Safety Score: 48 (Warning)
Context: 1.5%
Risk Notes:
• token amplification risk detected from repeated context
• ambiguous instructions may increase output variance
• high output volatility — response length unpredictable
⚠️ this prompt is likely to increase token usage significantly in production
────────────────────────────────────────
1 file(s) analyzed. Lowest Safety Score: 48.
```
## 🚫 这将在部署前阻止一个糟糕的提示词
```
npx @camj78/costguardai ci --fail-on-risk 70
```
```
CostGuardAI Preflight Analysis
────────────────────────────────────────
❌ FAILED (score: 49)
File: prompts/risky.prompt
CostGuardAI Safety Score: 49 (Warning)
Risk Notes:
• ambiguous instructions may increase output variance
• high output volatility — response length unpredictable
⚠️ this prompt is likely to increase token usage significantly in production
────────────────────────────────────────
1 file(s) analyzed. Lowest Safety Score: 49.
threshold behavior (Safety Score):
Safety Score < 40 → exit 1 (fail)
Safety Score 40–70 → warning
Safety Score > 70 → pass
❌ CI FAILED — blocked from deploy
CostGuardAI blocked this merge.
Safety Score: 49 (FAIL)
Suggested fix:
costguardai fix prompts/risky.prompt
```
## 快速开始
```
npm install -g @camj78/costguardai
costguardai demo
```
## 🚨 一个看起来没问题的提示词在生产环境中花费了 6,500 美元
CostGuardAI 可检测:
- token 激增风险
- 规模化成本
- 不稳定的输出
几秒钟内运行:
```
npx @camj78/costguardai analyze prompt.txt
```
## 使用场景
- 在部署前估算 OpenAI / Claude / LLM 成本
- 检测提示词中的 token 激增问题
- 在运行实验前对提示词进行健全性检查
- 防止生产环境中出现代价高昂的提示词错误
## 为什么这很重要
微小的提示词更改可能会导致:
- 10 倍的 token 使用量
- 在不知不觉中增加 API 成本
- 在大规模应用时破坏输出
CostGuardAI 会在这些情况发生之前发出警告。
# CostGuardAI
5 秒内运行 → `costguardai analyze prompt.txt`
防止不安全且昂贵的 AI 提示词进入生产环境。
CostGuardAI 是一个用于 **AI 提示词测试、LLM 成本优化和提示词验证** 的 CLI 工具。
可检测:
- token 激增
- 不稳定的输出
- 隐藏的 OpenAI / Anthropic 成本
- 生产环境出现前的提示词失败
专为以下场景构建:
- AI CI 流水线
- 提示词安全强制执行
- 生产级 LLM 工作流
`npm install -g @camj78/costguardai`
## ⚠️ 为什么会有这个工具
单个提示词可能会:
- 在生产环境中悄无声息地引发 token 成本激增
- 在实际使用中出现不可预测的失败
- 表现与测试时不同
CostGuardAI 能**在生产环境受影响之前**发现这些问题。
## 为什么开发者使用 CostGuardAI
如果您曾经有过这些疑问:
- “为什么我的 OpenAI 账单突然这么高?”
- “为什么这个提示词的 token 会激增?”
- “为什么我的 LLM 输出不一致?”
- “如何在生产环境之前测试提示词?”
- “如何在 CI 中防止提示词问题?”
CostGuardAI 有助于在生产环境受影响之前发现这些问题:
- 检测 token 激增风险
- 标记有歧义或不稳定的提示词
- 估算实际使用成本
- 暴露输出可变性问题
- 在 CI 中运行以阻止高风险提示词
## 🔍 示例
输入提示词:
CostGuardAI 输出:
```
CostGuardAI Safety Score: 78 (Low Risk)
⚠️ Potential token explosion due to unbounded context
⚠️ Output variability risk
⚠️ Cost estimate: $420/month at scale
→ Fix suggestions available in Pro
```
### 真实的 CLI 输出
分析高风险生产提示词时的输出示例。
```
$ costguardai analyze ./prompts/checkout-flow.txt
CostGuardAI Safety Score: 78 (Low Risk)
⚠️ Potential token explosion due to unbounded context
⚠️ Output variability risk
⚠️ Cost estimate: $420/month at scale
Free includes → basic analysis only
🔒 Fix suggestions: Pro
🔒 CI enforcement: Pro
Upgrade → https://costguardai.io/upgrade
Pro unlocks → fix suggestions, CI enforcement, safer prompt reviews
Next step → run this on a real prompt from your codebase
Example: costguardai analyze ./prompts/checkout-flow.txt
```
**CostGuardAI** 是一个 CLI + Web 工具,可在 AI 提示词_进入_生产环境之前对其进行分析。
扫描提示词注入、token 激增、成本超支和截断风险 —— 可在本地、CI 中或您的浏览器中进行。
支持对所有主要提供商进行 OpenAI 成本、Claude 成本和 LLM 成本的提示词成本估算。
## 它能捕获什么
| 风险 | 示例 |
|---|---|
| 🔴 提示词注入 | 用户输入覆盖了系统指令 |
| 💸 token 激增 | 提示词的实际花费是预期的 10 倍 |
| ✂️ 截断风险 | 在响应中途发生上下文窗口溢出 |
| ⚠️ 输出冲突 | 相互冲突的指令导致输出不稳定 |
| 🔒 缺少防护 | 没有输出约束 = 不可预测的行为 |
**CostGuardAI 安全分数:0–100。** 分数越高 = 越安全。在发布前了解您的分数。
## 30 秒快速入门
```
# 安装
npm install -g @camj78/costguardai
# 分析 prompt
costguardai analyze my-prompt.txt
# 示例输出:
# CostGuardAI 安全评分:72/100
# 检测到的问题:
# • prompt 注入风险
# • token 爆炸风险
# • 不稳定的 output 结构
# 自动修复问题
costguardai fix my-prompt.txt
# 在 CI 中拦截有风险的 prompt
costguardai ci --fail-on-risk 70
```
**所有分析均在本地运行。您的提示词永远不会离开您的机器。**
## 立即尝试
将任何提示词粘贴到文件中并运行:
```
npx @camj78/costguardai analyze prompt.txt
```
无需任何设置。
或者使用演示提示词尝试:
`npx @camj78/costguardai analyze examples/demo-prompt.txt`
## 为什么构建这个工具
我一直在发布 AI 功能并在生产环境中发现问题 —— 失控的 token 成本、
被注入的提示词、在句子中间被截断的响应。以前没有针对提示词的 `eslint`。
所以我构建了一个。
CostGuardAI 是我希望从第一天起就拥有的预检工具。
— [@Camj78](https://github.com/Camj78)
## 在 60 秒内添加到 CI
**步骤 1 — 安装**
```
npm install -g @camj78/costguardai
```
**步骤 2 — 初始化**
```
costguardai init
```
**步骤 3 — 添加 CI 门禁**
在 CI 中用于防止:
- token 激增
- 不稳定的输出
- 隐藏的 LLM 成本
```
name: CostGuardAI
on: [pull_request]
jobs:
costguard:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- name: Run CostGuardAI
run: npx @camj78/costguardai@latest ci --fail-on-risk 70
```
**步骤 4 — 提交**
```
git add .
git commit -m "Add CostGuardAI preflight checks"
```
## CLI 参考
| 命令 | 描述 |
|---|---|
| `costguardai analyze ` | 分析提示词文件 |
| `costguardai fix ` | 自动修复检测到的问题 |
| `costguardai ci --fail-on-risk ` | CI 门禁 —— 如果安全分数 < n 则以代码 1 退出 |
| `costguardai init` | 在当前仓库中初始化配置 |
**选项**
| 标志 | 描述 | 默认值 |
|---|---|---|
| `--model ` | 要分析对比的模型 | `gpt-4o-mini` |
| `--format text\|md\|json` | 输出格式 | `text` |
| `--threshold ` | 如果任何文件的安全分数 < n 则以代码 1 退出 | — |
| `--ext ` | 要扫描的文件扩展名 | `.txt,.md,.prompt` |
| `--expected-output ` | 预期输出 token 数 | `512` |
## Web UI
**[costguardai.io](https://costguardai.io)** — 粘贴提示词,选择模型,立即查看:
- Token 数量(OpenAI 通过 js-tiktoken 进行精确计算;其他模型估算误差约为 ±5–8%)
- 成本估算(每次调用的输入 + 输出)
- 上下文使用率进度条(按风险级别以颜色区分)
- 截断警告
- CostGuardAI 安全分数及完整的可解释性
所有处理均在客户端进行。不向服务器发送任何内容。
## 支持的模型 (V1)
| 模型 | 提供商 | 上下文 | Token 策略 |
|---|---|---|---|
| GPT-4o | OpenAI | 128K | 精确 |
| GPT-4o Mini | OpenAI | 128K | 精确 |
| Claude Sonnet 4 | Anthropic | 200K | 估算 |
| Claude 3.5 Haiku | Anthropic | 200K | 估算 |
| Gemini 1.5 Pro | Google | 1M | 估算 |
| Llama 3.1 70B | Meta | 128K | 估算 |
## 定价
| | 免费版 | 专业版 | 团队版 |
|---|---|---|---|
| **价格** | $0 | $29/月 | $99/月 |
| CLI 分析 | ✓ | ✓ | ✓ |
| 安全分数 + 可解释性 | ✓ | ✓ | ✓ |
| 可分享的报告 | ✓ | ✓ | ✓ |
| 每月分析次数 | 25 | 无限制 | 无限制 |
| CI 防护 (`--fail-on-risk`) | — | ✓ | ✓ |
| PR 评论 | — | ✓ | ✓ |
| 可观测性仪表板 | — | ✓ | ✓ |
| 团队风险策略 | — | — | ✓ |
| 跨项目成本追踪 | — | — | ✓ |
| 审计日志 | — | — | ✓ |
## 技术栈
- **Next.js 15** (App Router) · **TypeScript**
- **Supabase** (身份验证 + Postgres)
- **Tailwind CSS v4** + **shadcn/ui**
- **js-tiktoken** (OpenAI token 计数)
- **Stripe** · **Sentry** · **PostHog**
## 路线图
- [ ] 从提供商 API 同步实时定价
- [ ] VSCode 扩展
- [ ] Chrome 扩展
- [ ] 团队风险策略(自助服务)
- [ ] 支持更多模型
## 贡献
欢迎提交 Issues、PRs 和反馈。
如果它在生产环境中帮您避免了一个糟糕的提示词,请考虑 ⭐ 加星 —— 这有助于
其他开发者发现它。
→ [costguardai.io](https://costguardai.io) · [npm](https://www.npmjs.com/package/@camj78/costguardai) · [team@costguardai.io](mailto:team@costguardai.io)
需要 CI 强制执行、批量分析或团队使用情况追踪?
请访问 https://costguardai.io 进行升级
标签:AI安全评分, AI提示词测试, ChatGPT, CI/CD安全检查, CI流水线, DevSecOps, DLL 劫持, GPT-4o, LLM成本优化, LLM风险检测, MITM代理, NPM包, OSV-Scalibr, Promptflow, Token消耗分析, 上游代理, 代码质量检查, 大语言模型, 成本控制, 提示词工程, 提示词验证, 生产环境部署, 策略决策点, 自动化攻击