jimtin/zetherion-ai
GitHub: jimtin/zetherion-ai
一款隐私优先的自托管个人 AI 助手,支持加密记忆存储、本地与云端多模型路由、被动学习和主动提醒。
Stars: 0 | Forks: 1
# Zetherion AI
[](https://github.com/jimtin/zetherion-ai/actions/workflows/ci.yml)
[](https://github.com/jimtin/zetherion-ai/actions)
[](https://github.com/jimtin/zetherion-ai/actions)
[](https://www.python.org/downloads/)
[](https://opensource.org/licenses/MIT)
**一款隐私优先的个人 AI 助手,能够学习您的工作方式。**
## 这是什么?
Zetherion AI 是一款个人 AI 助手,旨在接受来自任何来源的输入。Discord 是首个接口,但架构与来源无关 —— REST API 技能层、邮件同步、GitHub webhooks 和心跳调度器(heartbeat scheduler)均独立于消息到达方式运行。未来的接口(Slack、Telegram、Teams 或自定义前端)可接入同一代理核心。
您可以选择推理的运行方式。系统通过 Ollama 支持本地模型,用于处理不应离开您机器的操作;同时也支持云服务商(Gemini、Claude、OpenAI),用于需要更强能力的任务。智能路由器会对每个查询进行分类,并将其分派给您为该任务类型配置的提供商 —— 隐私、成本和质量之间的权衡由您掌控。
Zetherion 不仅仅在您提问时才做出响应。观察流水线(observation pipeline)会从您的对话中被动提取事实和偏好,无需显式命令。心跳调度器会主动显示任务提醒、邮件摘要和日历警报。渐进式信任系统(progressive trust system)会逐渐获得执行操作的自主权(如起草和发送邮件回复),随着您随着时间推移对其判断的认可,它会自动扩展其功能。
每一段记忆在存入数据库之前都使用 AES-256-GCM 进行加密。所有内容都运行在您自己的基础设施上,当前的 compose 拓扑支持 API 和 skills 的蓝绿部署、内部路由和更新器编排。代码库强制执行 `>=90%` 的覆盖率门槛。
## 核心功能
| 功能 | 描述 |
| --- | --- |
| **来源无关的输入** | 接受来自 Discord、REST API、邮件同步、GitHub webhooks 以及未来接口的输入 —— 不受限于任何单一平台 |
| **用户控制的 LLM 路由** | 您可以在本地推理 和云服务商 之间进行选择 —— 路由器会根据您的配置将每个查询分派给合适的提供商 |
| **被动观察** | 通过 3 层提取流水线,自动从对话中提取事实、偏好和上下文,无需显式命令 |
| **主动提示** | 心跳调度器无需询问即可显示任务提醒、邮件摘要、日历警报和逾期通知 |
| **渐进式信任** | Gmail 集成最初为只读模式,随着您随着时间推移对其判断的认可,逐渐获得起草和发送回复的自主权 |
| **加密记忆** | AES-256-GCM 字段级加密与 PBKDF2 密钥派生 —— 即使数据库被攻破,您的记忆也无法被读取 |
| **个人理解** | 通过置信度评分,在 8 个类别中学习您的偏好、目标、沟通风格和工作流 |
| **Gmail 集成** | 检查邮件、搜索线程并自动起草回复,具备按联系人和按回复类型的信任追踪功能 |
| **GitHub 集成** | 管理工单、拉取请求和仓库状态,具备可配置的自主级别 |
| **技能框架** | 用于任务、日历、邮件、GitHub、配置文件和自定义集成的可扩展架构 |
| **成本追踪** | 跨所有提供商的每次请求成本记录,具备可配置的预算警报 |
| **安全优先设计** | Distroless 容器、提示注入防御、速率限制和 no-new-privileges 强制执行 |
| **3,000+ 测试** | 强制执行 `>=90%` 的覆盖率门槛 —— 在 CI 中对每次提交进行测试 |
## 快速开始
```
git clone https://github.com/jimtin/zetherion-ai.git
cd zetherion-ai
./start.sh # Mac/Linux | .\start.ps1 # Windows
```
启动脚本会引导您完成配置,拉取 Docker 镜像,并启动当前的 compose 拓扑。有关详细的设置说明,请参阅[完整入门指南](docs/user/getting-started.md)。
## 工作原理
Zetherion 同时以三种模式运行:
### 主动交互
您提出问题,路由器对其进行分类,并分派给相应的提供商和技能:
```
You: How do I implement a thread-safe singleton in Python?
Zeth: Here's a thread-safe singleton using a metaclass with a lock...
[detailed explanation with code examples]
```
```
You: Check my email
Zeth: You have 3 new emails:
1. [GitHub] PR #187 approved by @sarah -- ready to merge
2. [AWS] Monthly billing summary -- $42.17
3. [Team] Meeting moved to Thursday 2pm
Want me to draft a reply to any of these?
```
### 被动观察
Zetherion 倾听您的对话并默默提取事实和偏好。无需命令 —— 它会随着时间的推移建立关于您的模型:
```
You: I've been using pytest a lot lately, prefer fixtures over
setup methods. Working on the API validation layer this week.
[Zetherion silently records: prefers pytest fixtures,
current project involves API validation, active this week]
```
下次您询问关于测试的问题时,它已经知道了您的偏好和上下文。
### 主动提示
心跳调度器会检查您应该了解的事情,并在无需询问的情况下将其显示出来:
```
Zeth: Heads up -- "Review PR #42" is due in 1 hour and still open.
Zeth: Morning email digest: 5 new emails overnight.
1 from @sarah (PR feedback) looks urgent.
Want me to draft a reply?
Zeth: You have a meeting with the platform team in 30 minutes.
```
主动操作会遵守静默时段(默认为晚上 10 点至早上 7 点)和速率限制。
## 架构概览
```
Any Input Source
(Discord / REST API / Email / Webhooks / Future interfaces)
|
v
+--[ Agent Core ]------+
| |
| Security Layer |-----> Rate Limiting / Prompt Injection Defense
| |
| Router |-----> Intent Classification
| |
| Inference Broker |-----> LLM Providers (your choice):
| | Local: Ollama (Llama 3.1 8B / 3.2 3B)
| | Cloud: Gemini / Claude / OpenAI
+--------+-+-----------+
| |
+----+ +----+
| |
v v
Skills Memory
(Gmail, (Qdrant + PostgreSQL)
GitHub, AES-256-GCM encrypted
Tasks,
Calendar, Observation Pipeline
Profile) (passive learning)
|
v
Heartbeat Scheduler
(proactive actions)
```
**当前的 compose 拓扑**包括运行时、路由、更新和数据服务:
| 服务 | 角色 |
| --- | --- |
| `zetherion-ai-bot` | Discord 运行时和代理编排 |
| `zetherion-ai-skills-blue/green` | 具备蓝绿切换功能的内部技能控制平面 |
| `zetherion-ai-api-blue/green` | 具备蓝绿切换功能的公共 API 应用 |
| `zetherion-ai-traefik` | skills/API 的内部流量切换 |
| `zetherion-ai-updater` | 用于发布/回滚的自动更新边车 |
| `zetherion-ai-cloudflared` | 用于公共 API 暴露的可选安全隧道 |
| `postgres` | 用于用户、设置、配置文件、集成的关系存储 |
| `qdrant` | 向量记忆存储 |
| `ollama` | 本地生成/嵌入 |
| `ollama-router` | 专用本地路由器模型 |
## LLM 提供商配置
您控制哪些提供商处理哪些任务。系统支持混合使用本地和云推理:
| 提供商 | 模型 | 典型用途 | 成本 |
| --- | --- | --- | --- |
| **Ollama (本地)** | Llama 3.1 8B, Llama 3.2 3B | 隐私敏感操作、路由 | 免费 |
| **Gemini** | 2.5 Flash | 简单查询、分类 | 提供免费层级 |
| **Claude** | Sonnet 4.5 | 复杂推理、代码生成 | 付费 |
| **OpenAI** | GPT-5.2 | 备选复杂推理 | 付费 |
如果没有云 API 密钥,Zetherion 将完全在本地 Ollama 模型上运行。当您希望为特定任务类型获得更强能力时,可以添加云服务商。
## 文档
| 部分 | 内容 |
| --- | --- |
| [用户指南](docs/user/getting-started.md) | 入门介绍、命令参考、Gmail 设置、GitHub 集成 |
| [技术文档](docs/technical/architecture.md) | 架构深入解析、Docker 配置、安全模型、API 参考 |
| [开发指南](docs/development/setup.md) | 开发环境设置、运行 3,000+ 测试、CI/CD 流水线 |
| [项目信息](docs/project/roadmap.md) | 路线图、设计决策、贡献机会 |
## 需求
| 需求 | 说明 |
| --- | --- |
| **Docker Desktop 4.0+** | 所有服务均容器化运行 —— 运行时无需本地安装 Python |
| **Discord bot token** | 可在 [discord.com/developers](https://discord.com/developers/applications) 免费创建 —— 首个支持的输入来源 |
| **Gemini API key** | 默认运行时配置所需 (`GEMINI_API_KEY`) |
| **Anthropic API key** | *可选* —— 启用 Claude Sonnet 4.5 用于复杂推理任务 |
| **OpenAI API key** | *可选* —— 启用 GPT-5.2 作为备选推理提供商 |
在当前的默认运行时配置中,Discord bot token、Gemini API key 和加密口令是必需的。其他提供商密钥为可选项。
## 贡献
欢迎贡献。代码库强制执行 `>=90%` 的覆盖率门槛,因此对新贡献的要求非常明确 —— 编写测试、通过 CI 并遵循现有模式。有关环境设置和测试说明,请参阅[开发指南](docs/development/setup.md)。
如果您对新的输入接口、技能、LLM 提供商集成或安全改进有想法,请在提交 PR 前开启 issue 进行讨论。
## 许可证
本项目基于 [MIT 许可证](https://opensource.org/licenses/MIT) 授权。
*为那些希望拥有尊重隐私并按自己意愿工作的 AI 助手的人而构建。*
标签:AES-256, AI 助手, AI风险缓解, Claude, CVE检测, Discord 机器人, DLL 劫持, Gemini, JSONLines, LLM评估, LLM 路由, Ollama, OpenAI, Python, RAG, REST API, Slack 集成, Telegram 集成, 个人助理, 主动学习, 人工智能, 任务自动化, 内存规避, 加密存储, 多模型调度, 大语言模型, 工作流自动化, 开源, 无后门, 智能提醒, 本地部署, 测试用例, 混合云, 漏洞评估, 生活效率, 用户模式Hook绕过, 知识管理, 端侧 AI, 网络安全, 自动加密, 记忆系统, 请求拦截, 长期记忆, 隐私优先, 隐私保护, 零信任