Arneunalarming861/Laminae
GitHub: Arneunalarming861/Laminae
Laminae 是一个用 Rust 编写的模块化 SDK,通过安全防护、风格控制、自学习与沙箱等六大中间层,将原始大语言模型快速转化为生产就绪的 AI 系统。
Stars: 0 | Forks: 0
Laminae
原始 LLM 与生产级 AI 之间缺失的中间层。
如果您觉得 Laminae 很有用,请考虑给它一个 ⭐ - 这有助于其他人发现这个项目!
📖 文档 · 更新日志
用 ❤️ 为 AI 和 Vibe Coding 社区而作。
Laminae(拉丁语:*layers*)是一个开源的模块化 Rust SDK,它为任何 AI 或 LLM 应用程序增加了防护机制、安全性、个性、声音、学习和管控能力。每一层都可以独立工作,也可以组合成一个完整的生产就绪栈。
```
┌─────────────────────────────────────────────┐
│ Your Application │
├─────────────────────────────────────────────┤
│ Psyche │ Multi-agent cognitive pipeline │
│ Persona │ Voice extraction & enforcement │
│ Cortex │ Self-improving learning loop │
│ Shadow │ Adversarial red-teaming │
│ Ironclad │ Process execution sandbox │
│ Glassbox │ I/O containment layer │
├─────────────────────────────────────────────┤
│ Any LLM Backend │
│ (Claude, GPT, Ollama, your own) │
└─────────────────────────────────────────────┘
```
## 为什么选择 Laminae?
每个 AI 应用都在从头开始重新构建安全性、提示注入防御和输出验证。大多数应用甚至完全跳过了这一步。Laminae 提供了结构化的安全层,它们位于你的 LLM 和用户之间——由 Rust 强制执行,而非通过提示词。
**没有现有的 SDK 能做到这一点。** LangChain、LlamaIndex 等其他 SDK 专注于检索和链接。Laminae 则专注于 LLM *周围*发生的事情:塑造其个性、从纠正中学习、审计其输出、沙箱化其行为以及限制其影响范围。
## 各层说明
### Psyche - 多智能体认知管线
受弗洛伊德启发的架构,由三个智能体塑造每一个响应:
- **Id(本我)** - 创造力。生成非传统的角度、情感基调、创造性的重构。运行在小型本地 LLM (Ollama) 上 - 零成本。
- **Superego(超我)** - 安全评估器。评估风险、伦理边界、操纵企图。同样在本地运行 - 零成本。
- **Ego(自我)** - 你的 LLM。接收用户的请求,以及由 Id 和 Superego 提供的不可见上下文。在不知道已被塑造的情况下生成最终响应。
核心理念:Id 和 Superego 运行在小型、快速的本地模型上。它们的输出被压缩成“上下文信号”,作为不可见的系统上下文注入到 Ego 的提示词中。用户永远看不到塑造过程——他们只会得到更好、更安全的响应。
```
use laminae::psyche::{PsycheEngine, EgoBackend, PsycheConfig};
use laminae::ollama::OllamaClient;
struct MyEgo { /* your LLM client */ }
impl EgoBackend for MyEgo {
fn complete(&self, system: &str, user_msg: &str, context: &str)
-> impl std::future::Future
标签:AI代理, AI安全, AI控制, AI风险缓解, Chat Copilot, DLL 劫持, LLM, Petitpotam, Rust, Unmanaged PE, Vibe Coding, 中间件, 人工智能, 可视化界面, 大模型应用开发, 大语言模型, 定制化, 开源, 护栏, 模块化, 生产环境, 用户模式Hook绕过, 网络流量审计, 通知系统, 集成