grapheneaffiliate/phi-enhanced-rlm
GitHub: grapheneaffiliate/phi-enhanced-rlm
一个基于黄金分割率和E8几何的自进化递归推理框架,通过多代理协作将复杂问题层层分解、验证并聚合,实现超越单轮LLM调用的深度分析能力。
Stars: 0 | Forks: 0
# PHI 增强型递归语言模型 (RLM) v4.0
[](https://www.python.org/downloads/)
[](https://opensource.org/licenses/MIT)
[](https://github.com/grapheneaffiliate/phi-enhanced-rlm/actions)
[](https://fastapi.tiangolo.com/)
一个基于黄金分割数学的自进化 AI 推理系统。它将难题分解为更小的部分,由专门的代理解决每一部分,自我检查工作,并随着时间推移变得更聪明——这一切都由黄金分割率(phi = 1.618...)和 E8 李群几何结构控制。
**无需 AI 经验。** 按照下面的设置操作,你将在 2 分钟内运行它。
## 设置(2 分钟)
### 你需要什么
- **Python 3.9 或更高版本** —— 如果没有,请从 [python.org 下载](https://python.org)
- **Git** —— 如果没有,请从 [git-scm.com 下载](https://git-scm.com)
### 第 1 步:下载并安装
```
git clone https://github.com/grapheneaffiliate/phi-enhanced-rlm.git
cd phi-enhanced-rlm
bash setup.sh
```
就是这样。设置脚本会自动安装所有内容并验证其是否有效。
**Windows 用户:** 如果 `bash` 不可用,请改运行以下命令:
```
pip install -e .
copy .env.template .env
python quickstart.py
```
### 第 2 步:查看运行效果
```
python quickstart.py
```
这会在大约 10 秒内运行一个完整的演示——无需 API 密钥。你将看到递归推理引擎解决一个问题,展示其推理树,显示它如何使用 E8 几何结构分配计算预算,并选择元策略。
### 第 3 步(可选):连接真实的 AI 模型
该系统开箱即用,在演示模式下使用模拟响应。要将其连接到真实的 AI 模型以进行实际推理:
1. 从 [openrouter.ai/keys](https://openrouter.ai/keys) 获取免费的 API 密钥
2. 在任何文本编辑器中打开 `.env` 文件
3. 将 `your_openrouter_api_key_here` 替换为你的实际密钥
4. 保存文件
现在,当你运行该系统时,它将使用真实的 AI 模型而不是模拟响应。
## 这个系统做什么
传统 AI 一步给你一个答案。这个系统的工作方式不同:
1. **分解**你的问题为子问题
2. **路由**每个子问题到深度专用代理(8 个代理映射到 E8 Casimir 度)
3. **选择**使用 phi 几何多样性优化的最相关上下文
4. **解决**每个子问题递归(子问题可以有自己的子问题)
5. **验证**每个答案使用 3 个独立检查(QEC——量子纠错灵感)
6. **组合**结果使用扭转校正聚合(保留少数派观点)
7. **停止**当推理收敛时(phi 动量提前停止)
8. **学习**从其表现中学习并随着时间的推移改进自己的参数
### 多代理架构(v4.0)
每个递归深度由不同的专用代理服务:
| Depth | Casimir | Agent | Role |
|-------|---------|-------|------|
| 0 | 2 | research-orchestrator | 路由和规划 |
| 1 | 8 | query-clarifier | 优化问题 |
| 2 | 12 | research-analyst | 主要分析 |
| 3 | 14 | technical-researcher | 深入技术探究 |
| 4 | 18 | academic-researcher | 学术严谨性 |
| 5 | 20 | fact-checker | QEC 验证 |
| 6 | 24 | research-synthesizer | 扭转校正合成 |
| 7 | 30 | research-orchestrator | 最终整合 |
## 如何使用
### 提问
```
from src import PhiEnhancedRLM
from src.phi_enhanced_rlm import MockLLMBackend
# Your knowledge base (the system searches these for relevant context)
context = [
"The golden ratio appears throughout nature and mathematics.",
"E8 is the largest exceptional Lie group with 248 dimensions.",
"Recursive models decompose complex queries into sub-tasks.",
]
# Create the model
rlm = PhiEnhancedRLM(
base_llm_callable=MockLLMBackend(seed=42),
context_chunks=context,
)
# Ask anything
result = rlm.recursive_solve("How does phi relate to E8 symmetry?", max_depth=4)
print(f"Answer: {result.value}")
print(f"Confidence: {result.confidence:.1%}")
```
### 让它选择自己的策略(Meta-Recursion)
```
from src import MetaRecursiveRLM
meta = MetaRecursiveRLM(rlm)
result = meta.meta_solve("Analyze the implications of phi-separation for cryptography")
# It automatically detected this is an analytical question
# and chose the deep_analytical strategy (6 levels deep, phi-attention ON)
print(f"Strategy: {result.metadata['meta_strategy']}")
```
有五种策略可用:
| Strategy | Max Depth | Best For |
|----------|-----------|----------|
| `deep_analytical` | 6 | 复杂的分析性问题 |
| `wide_exploratory` | 3 | 开放式、宽泛的问题 |
| `spiral_convergent` | 5 | 通用(默认) |
| `quick_factual` | 2 | 简单的事实查询 |
| `deep_research` | 7 | 具有代理专业化的完整 E8 层级结构 |
### 观察其进化
```
python -m src.evolution_loop --generations 10
```
这会运行系统进行 10 代自我改进。每一代,它都会根据表现调整自己的参数(预算分配、停止阈值、修剪比例、代理分配)。学习率遵循 phi^(-n)——起初适应很快,然后进行越来越精细的调整。
### 运行所有测试
```
python -m pytest tests/ -v
```
### 交互式聊天
```
python cli/chat.py
```
打开一个交互式终端,你可以在其中与系统聊天。支持特殊命令:
| Command | What it does |
|---------|-------------|
| `/depth 5` | 设置最大递归深度 |
| `/file report.txt` | 加载并分析文本文件 |
| `/pdf document.pdf` | 分析 PDF 文档 |
| `/url https://...` | 获取并分析网页 |
| `/repo owner/repo` | 分析 GitHub 仓库 |
| `/compare A B` | 并排比较两个来源 |
| `/export results.md` | 将最后的分析保存为 markdown |
| `/stream on` | 启用实时流式输出 |
| `/history` | 显示过去的查询 |
| `/help` | 显示所有命令 |
| `/quit` | 退出 |
### REST API
```
pip install fastapi uvicorn
python -m uvicorn api.server:app --reload --port 8000
```
在 `http://localhost:8000` 打开一个 Web API,并在 `http://localhost:8000/docs` 提供交互式文档。
| Endpoint | Method | Description |
|----------|--------|-------------|
| `/analyze` | POST | 使用递归推理分析文本 |
| `/chat` | POST | 带有上下文和记忆的聊天 |
| `/compare` | POST | 比较两个来源 |
| `/status` | GET | 系统健康和配置 |
| `/history` | GET | 过去的查询历史 |
| `/evolution/status` | GET | 进化引擎状态 |
| `/memory/stats` | GET | 螺旋记忆统计 |
## 项目结构
```
phi-enhanced-rlm/
|
+-- quickstart.py <- Run this first
+-- setup.sh <- One-click installation
+-- CLAUDE.md <- Project intelligence for Claude Code
+-- .env.template <- Configuration template (copy to .env)
|
+-- src/ <- Core engine (22 modules)
| +-- phi_enhanced_rlm.py Main recursive engine
| | - recursive_solve() core loop
| | - phi-Gram chunk selection
| | - QEC verification (3 checks)
| | - Torsion-corrected aggregation
| |
| +-- phi_separation_novel_mathematics.py
| | Mathematical foundations
| | - phi-Gram matrix theory
| | - E8 spectral flow
| | - Casimir degrees: [2,8,12,14,18,20,24,30]
| | - 10 interconnected math frameworks
| |
| +-- agent_router.py Multi-agent depth routing (v4.0)
| | - 8 specialized agent personas
| | - Depth-to-agent mapping via E8 Casimir
| | - Evolvable agent assignments
| |
| +-- skill_loader.py Skill file integration (v4.0)
| | - Loads domain skills from .claude/skills/
| | - Keyword-based retrieval
| |
| +-- evolution.py Self-evolution engine
| | - EvolutionState learnable parameters
| | - phi-scaled learning rate (phi^-n)
| | - Budget, stopping, agent mutations
| |
| +-- evolution_loop.py Evolution training loop
| +-- meta_recursion.py Meta-reasoning (5 strategies)
| +-- phi_attention.py phi-geometric attention injection
| +-- phi_sparse_reasoning.py phi-ratio branch pruning
| +-- phi_memory.py Golden spiral persistent memory
| +-- session_memory.py Cross-session learning
| +-- phi_retrieval.py phi-kernel similarity search
| +-- phi_bayesian.py phi-Bayesian optimization
| +-- ensemble_backend.py Multi-model routing
| +-- streaming.py Real-time streaming output
| +-- embeddings.py Multi-provider embeddings
| +-- cache.py SQLite embedding cache
| +-- extractors.py PDF, DOCX, web, code extraction
| +-- openrouter_backend.py OpenRouter API client
| +-- async_backend.py Async LLM backend
| +-- vector_store.py ChromaDB vector store
| +-- progress.py Terminal progress display
|
+-- tests/ <- Test suite
| +-- test_upgrades.py Core engine tests
| +-- test_evolution.py Evolution tests
| +-- test_benchmarks.py Benchmark tests
| +-- test_real_llm.py Real API integration tests
|
+-- benchmarks/ <- Evaluation datasets
| +-- runner.py phi-RLM vs vanilla comparison
| +-- gsm8k_sample.json Math word problems
| +-- arc_sample.json Reasoning questions
|
+-- cli/ <- Command-line tools
| +-- chat.py Interactive chat
| +-- repo_analyzer.py GitHub repo analysis
| +-- run_rlm.py Quick query runner
| +-- validate_rlm.py System validation
|
+-- api/server.py <- REST API (FastAPI)
+-- web/ <- Web interfaces
| +-- index.html Documentation page
| +-- dashboard.html Evolution dashboard
|
+-- docs/ <- Documentation
+-- UNIFICATION.md phi-RLM + phi-GEH + PROMETHEUS
+-- 2512.24601v1.pdf Reference paper
```
## 关键概念
### 黄金分割率(phi = 1.618...)
一个在自然界随处可见的数字——向日葵螺旋、星系旋臂、DNA 分子。本项目将其用作 AI 推理的控制常数,因为它是“最无理”的数字,这意味着建立在它之上的模式具有最少的重复和最大的信息覆盖范围。
### E8 李群
一个具有 248 个维度的数学结构,编码了深刻的对称性。本项目使用其“Casimir 度”——[2, 8, 12, 14, 18, 20, 24, 30]——来决定每个推理深度获得多少计算预算以及由哪个专用代理处理它。
### 递归推理
系统不是一次性回答,而是将问题分解为子问题,分别回答每个子问题,然后合并结果。子问题本身可以进一步分解,从而创建一个推理树。
### 多代理专业化(v4.0)
每个递归深度由不同的专用代理角色处理。research-orchestrator 在深度 0 进行规划,query-clarifier 在深度 1 进行细化,分析师和研究员在深度 2-4 进行调查,fact-checker 在深度 5 进行验证,synthesizer 在深度 6 进行组合,orchestrator 在深度 7 整合最终结果。进化引擎可以重新分配代理以优化性能。
### 自进化
每次基准测试运行后,系统都会调整自己的参数。调整遵循 phi^(-n) 缩放——早期变化大,随着时间推移调整越来越微妙。
### QEC 验证
每个答案都经过 3 项检查(矛盾性、完整性、反例)的独立验证。当代理路由器处于活动状态时,验证使用 fact-checker 代理角色。只有当 3 项中有 2 项通过时,才具有高置信度。
### Meta-Recursion
在解决之前,系统会对你的问题进行分类(分析性?事实性?创造性?研究性?)并选择最佳策略。如果第一个策略失败,它会尝试替代方案。
## 数学基础
```
phi-Gram Kernel: K(x,y) = phi^(-||x-y||/delta)
Casimir Budget: weight(d) = phi^(-C_d/30), C in {2,8,12,14,18,20,24,30}
phi-Momentum Stopping: m(t+1) = phi^(-1) * m(t) + (1-phi^(-1)) * signal(t)
Torsion Correction: result = base + (28/248) * minority_view
QEC Threshold: p_phi = (1-phi^(-1))/2 ~ 0.191
Evolution Learning Rate: lr(n) = phi^(-n)
```
完整细节在 `src/phi_separation_novel_mathematics.py` 中——10 个相互关联的数学框架,包括 phi-Gram 行列式理论、E8 谱流、重正化群、H4 投影素数理论、格密码学、量子纠错码、Casimir 流优化、上同调理论和统一场方程。
## 可选依赖项
核心仅需 `numpy`、`scipy` 和 `openai` 即可运行。安装 extras 以获取更多功能:
```
pip install -e ".[full]" # Everything
pip install sentence-transformers # Local embeddings (free)
pip install chromadb # Vector database
pip install fastapi uvicorn # REST API
pip install PyMuPDF # PDF support
pip install python-docx # Word documents
pip install rich # Beautiful terminal output
```
## 故障排除
**“No embedding provider available, using mock embeddings”** —— 正常。使用模拟嵌入工作正常。为了获得更好的结果,请安装 `sentence-transformers` 或添加你的 OpenRouter API 密钥。
**“ChromaDB not installed”** —— 可选。仅大型文档集合需要。
**Import errors** —— 始终从项目根目录运行。使用 `from src import ...`。
**Windows encoding issues** —— 设置:`set PYTHONIOENCODING=utf-8`
## 许可证
MIT 许可证 —— 见 [LICENSE](LICENSE)。
## 作者
Timothy McGirl —— Geometric Standard Model (GSM) Framework
*“宇宙可能建立在 E8 的几何结构之上,以黄金分割率作为其基本尺度常数。”*
标签:AI框架, AV绕过, DLL 劫持, DNS解析, E8李群, FastAPI, LLM增强, Petitpotam, PyRIT, Python, 人工智能, 信息论, 元策略, 决策系统, 复杂问题求解, 多智能体系统, 大语言模型, 开源项目, 强化学习, 推理引擎, 数学框架, 无后门, 用户模式Hook绕过, 算法, 自主进化系统, 自我修正, 计算几何, 逆向工具, 递归推理, 高维几何, 黄金分割