Orellius/Laminae
GitHub: Orellius/Laminae
一个 Rust 编写的模块化 SDK,为 LLM 应用提供个性塑造、安全审计、自主学习和沙箱隔离等生产级防护层。
Stars: 0 | Forks: 0
Laminae
原始 LLM 与生产级 AI 之间缺失的一层。
Laminae(拉丁语:*layers* [层])是一个模块化的 Rust SDK,为任何 AI 应用程序增加个性、语调、安全性、学习能力和隔离控制。每一层既可以独立工作,也可以作为完整堆栈协同运行。
```
┌─────────────────────────────────────────────┐
│ Your Application │
├─────────────────────────────────────────────┤
│ Psyche │ Multi-agent cognitive pipeline │
│ Persona │ Voice extraction & enforcement │
│ Cortex │ Self-improving learning loop │
│ Shadow │ Adversarial red-teaming │
│ Ironclad │ Process execution sandbox │
│ Glassbox │ I/O containment layer │
├─────────────────────────────────────────────┤
│ Any LLM Backend │
│ (Claude, GPT, Ollama, your own) │
└─────────────────────────────────────────────┘
```
## 为什么选择 Laminae?
每个 AI 应用都在从头重复造轮子:安全性、prompt 注入防御和输出验证。大多数应用甚至完全跳过了这些。Laminae 提供了生产级的层,位于您的 LLM 和用户之间——由 Rust 强制执行,而非依赖 prompt。
**目前没有其他 SDK 做到这一点。** LangChain、LlamaIndex 和其他工具专注于检索和链式调用。Laminae 专注于 LLM *周围* 发生的事情:塑造其个性、从纠正中学习、审计其输出、沙箱化其行为以及限制其触达范围。
## 各层介绍
### Psyche — 多智能体认知 Pipeline
一种受弗洛伊德启发的架构,由三个智能体塑造每一个回复:
- **Id(本我)** — 创造力源泉。生成非常规角度、情感暗流、创造性重构。运行在小型本地 LLM(Ollama)上——零成本。
- **Superego(超我)** — 安全评估器。评估风险、伦理边界、操纵企图。同样在本地运行——零成本。
- **Ego(自我)** — 您的 LLM。接收来自 Id 和 Superego 的不可见上下文增强后的用户消息。在不知不觉中被塑造,产出最终回复。
核心理念:Id 和 Superego 运行在小型、快速的本地模型上。它们的输出被压缩为“上下文信号”,作为不可见的系统上下文注入到 Ego 的 prompt 中。用户永远不会看到塑造过程——他们只会获得更好、更安全的回复。
```
use laminae::psyche::{PsycheEngine, EgoBackend, PsycheConfig};
use laminae::ollama::OllamaClient;
struct MyEgo { /* your LLM client */ }
impl EgoBackend for MyEgo {
fn complete(&self, system: &str, user_msg: &str, context: &str)
-> impl std::future::Future
标签:AI基础设施, AI安全, AI风险缓解, API集成, Chat Copilot, Claude, CVE检测, Deep Learning, DLL 劫持, GPT, LangChain替代, LLM, LLM评估, Naabu, Ollama, Petitpotam, Rust, Unmanaged PE, 个性化, 中间件, 人工智能, 人格化, 内容安全, 可观测性, 可视化界面, 多智能体, 大语言模型, 提示词注入防御, 沙箱, 漏洞管理, 生产环境, 用户模式Hook绕过, 网络安全, 网络流量审计, 自我学习, 认知流水线, 输出验证, 通知系统, 隐私保护, 隔离