langfuse/langfuse

GitHub: langfuse/langfuse

开源 LLM 工程平台,提供调用追踪、提示词管理、评估测试和在线调试等一站式能力,帮助团队高效开发、监控和优化 AI 应用。

Stars: 25361 | Forks: 2575

github-banner

Langfuse 全面拥抱开源

Langfuse 云端版 · 自托管 · 演示

文档 · 报告 Bug · 功能请求 · 更新日志 · 路线图 ·

Langfuse 使用 GitHub Discussions 来提供支持和处理功能请求。
我们正在招聘。 加入我们,参与产品工程和技术推向市场相关岗位。

MIT License Y Combinator W23 Docker Pulls langfuse Python package on PyPi langfuse npm package
chat on Discord follow on X(Twitter) follow on LinkedIn Commits last month Issues closed Discussion posts Ask DeepWiki

README in English 简体中文版自述文件 日本語のREADME README in Korean

基于 ClickHouse 开源数据库倾力构建

Langfuse 是一个**开源 LLM 工程**平台。它帮助团队协作完成 AI 应用程序的**开发、监控、评估**和**调试**。Langfuse 可以在**几分钟内完成自托管**部署,并且经过**生产环境实战检验**。 [![Langfuse 概览视频](https://static.pigsec.cn/wp-content/uploads/repos/2026/04/4e08e43e2b194022.png)](https://langfuse.com/watch-demo) ## ✨ 核心功能 Langfuse Overview - [LLM 应用程序可观测性](https://langfuse.com/docs/tracing):为您的应用程序进行插桩,并开始将 traces 接收至 Langfuse,从而跟踪应用程序中的 LLM 调用及其他相关逻辑,例如检索、embedding 或 agent 操作。检查并调试复杂的日志和用户会话。试试交互式[demo](https://langfuse.com/docs/demo)了解实际效果。 - [Prompt 管理](https://langfuse.com/docs/prompt-management/get-started)帮助您集中管理、进行版本控制,并协同迭代您的 prompts。得益于服务器和客户端强大的缓存机制,您可以迭代 prompts 而不会增加应用程序的延迟。 - [评估](https://langfuse.com/docs/evaluation/overview)是 LLM 应用程序开发工作流的关键,Langfuse 能够适应您的需求。它支持 LLM-as-a-judge、用户反馈收集、手动标注以及通过 API/SDK 实现自定义评估 pipeline。 - [数据集](https://langfuse.com/docs/evaluation/dataset-runs/datasets)支持用于评估 LLM 应用程序的测试集和基准。它们支持持续改进、部署前测试、结构化实验、灵活评估,并与 LangChain 和 LlamaIndex 等框架无缝集成。 - [LLM Playground](https://langfuse.com/docs/playground) 是一款用于测试和迭代您的 prompts 及模型配置的工具,可缩短反馈循环并加速开发。当您在 tracing 中发现不佳的结果时,可以直接跳转到 playground 对其进行迭代。 - [全面的 API](https://langfuse.com/docs/api):Langfuse 常被用于构建定制化的 LLMOps 工作流,同时利用 Langfuse 通过 API 提供的基础构建模块。提供 OpenAPI 规范、Postman 集合以及适用于 Python、JS/TS 的类型化 SDK。 ## 📦 部署 Langfuse Langfuse Deployment Options ### Langfuse 云端版 由 Langfuse 团队管理的部署,提供慷慨的免费额度,无需信用卡。
Static Badge
### 自托管 Langfuse 在您自己的基础设施上运行 Langfuse: - [本地部署](https://langfuse.com/self-hosting/local):使用 Docker Compose 在 5 分钟内于您自己的机器上运行 Langfuse。 # 获取最新 Langfuse 仓库的副本 git clone https://github.com/langfuse/langfuse.git cd langfuse # 运行 langfuse docker compose docker compose up - [虚拟机](https://langfuse.com/self-hosting/docker-compose):使用 Docker Compose 在单一虚拟机上运行 Langfuse。 - [Kubernetes (Helm)](https://langfuse.com/self-hosting/kubernetes-helm):使用 Helm 在 Kubernetes 集群上运行 Langfuse。这是首选的生产环境部署方式。 - Terraform 模板:[AWS](https://langfuse.com/self-hosting/aws),[Azure](https://langfuse.com/self-hosting/azure),[GCP](https://langfuse.com/self-hosting/gcp) 请参阅[自托管文档](https://langfuse.com/self-hosting)以了解更多关于架构和配置选项的信息。 ## 🔌 集成 github-integrations ### 主要集成: | 集成 | 支持 | 描述 | | ---------------------------------------------------------------------------- | -------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------ | | [SDK](https://langfuse.com/docs/sdk) | Python, JS/TS | 使用 SDK 进行手动插桩以实现完全的灵活性。 | | [OpenAI](https://langfuse.com/integrations/model-providers/openai-py) | Python, JS/TS | 通过直接替换 OpenAI SDK 进行自动化插桩。 | | [Langchain](https://langfuse.com/docs/integrations/langchain) | Python, JS/TS | 通过将回调处理程序传递给 Langchain 应用程序进行自动化插桩。 | | [LlamaIndex](https://langfuse.com/docs/integrations/llama-index/get-started) | Python | 通过 LlamaIndex 回调系统进行自动化插桩。 | | [Haystack](https://langfuse.com/docs/integrations/haystack) | Python | 通过 Haystack 内容追踪系统进行自动化插桩。 | | [LiteLLM](https://langfuse.com/docs/integrations/litellm) | Python, JS/TS (仅限 proxy) | 将任何 LLM 作为 GPT 的直接替代品。使用 Azure、OpenAI、Cohere、Anthropic、Ollama、VLLM、Sagemaker、HuggingFace、Replicate (100 多个 LLM)。 | | [Vercel AI SDK](https://langfuse.com/docs/integrations/vercel-ai-sdk) | JS/TS | TypeScript 工具包,旨在帮助开发者使用 React、Next.js、Vue、Svelte、Node.js 构建基于 AI 的应用程序。 | | [Mastra](https://langfuse.com/docs/integrations/mastra) | JS/TS | 用于构建 AI agents 和多 agent 系统的开源框架。 | | [API](https://langfuse.com/docs/api) | | 直接调用公共 API。提供 OpenAPI 规范。 | ### 已集成 Langfuse 的软件包: | 名称 | 类型 | 描述 | | ----------------------------------------------------------------------- | ------------------ | ----------------------------------------------------------------------------------------------------------------------- | | [Instructor](https://langfuse.com/docs/integrations/instructor) | 库 | 用于获取结构化 LLM 输出 (JSON、Pydantic) 的库。 | | [DSPy](https://langfuse.com/docs/integrations/dspy) | 库 | 系统地优化语言模型提示和权重的框架。 | | [Mirascope](https://langfuse.com/docs/integrations/mirascope) | 库 | 用于构建 LLM 应用程序的 Python 工具包。 | | [Ollama](https://langfuse.com/docs/integrations/ollama) | 模型 (本地) | 在您自己的机器上轻松运行开源 LLM。 | | [Amazon Bedrock](https://langfuse.com/docs/integrations/amazon-bedrock) | 模型 | 在 AWS 上运行基础和微调模型。 | | [AutoGen](https://langfuse.com/docs/integrations/autogen) | Agent 框架 | 用于构建分布式 agents 的开源 LLM 平台。 | | [Flowise](https://langfuse.com/docs/integrations/flowise) | 聊天/Agent UI | 用于定制 LLM 流程的 JS/TS 无代码构建器。 | | [Langflow](https://langfuse.com/docs/integrations/langflow) | 聊天/Agent UI | 基于 Python 的 LangChain UI,使用 react-flow 设计,为实验和原型设计流程提供了一种轻松的方式。 | | [Dify](https://langfuse.com/docs/integrations/dify) | 聊天/Agent UI | 带有无代码构建器的开源 LLM 应用程序开发平台。 | | [OpenWebUI](https://langfuse.com/docs/integrations/openwebui) | 聊天/Agent UI | 支持各种 LLM 运行器(包括自托管和本地模型)的自托管 LLM 聊天 Web UI。 | | [Promptfoo](https://langfuse.com/docs/integrations/promptfoo) | 工具 | 开源 LLM 测试平台。 | | [LobeChat](https://langfuse.com/docs/integrations/lobechat) | 聊天/Agent UI | 开源聊天机器人平台。 | | [Vapi](https://langfuse.com/docs/integrations/vapi) | 平台 | 开源语音 AI 平台。 | | [Inferable](https://langfuse.com/docs/integrations/other/inferable) | Agents | 用于构建分布式 agents 的开源 LLM 平台。 | | [Gradio](https://langfuse.com/docs/integrations/other/gradio) | 聊天/Agent UI | 用于构建如聊天 UI 等 Web 界面的开源 Python 库。 | | [Goose](https://langfuse.com/docs/integrations/goose) | Agents | 用于构建分布式 agents 的开源 LLM 平台。 | | [smolagents](https://langfuse.com/docs/integrations/smolagents) | Agents | 开源 AI agents 框架。 | | [CrewAI](https://langfuse.com/docs/integrations/crewai) | Agents | 用于 agent 协作和使用工具的多 agent 框架。 | ## 🚀 快速开始 为您的应用程序进行插桩,并开始将 traces 接收至 Langfuse,从而跟踪应用程序中的 LLM 调用及其他相关逻辑(例如检索、embedding 或 agent 操作)。检查并调试复杂的日志和用户会话。 ### 1️⃣ 创建新项目 1. [创建 Langfuse 账号](https://cloud.langfuse.com/auth/sign-up) 或 [自托管](https://langfuse.com/self-hosting) 2. 创建一个新项目 3. 在项目设置中创建新的 API 凭证 ### 2️⃣ 记录您的第一次 LLM 调用 [`@observe()` 装饰器](https://langfuse.com/docs/sdk/python/decorators)让追踪任何 Python LLM 应用程序变得简单。在这个快速开始中,我们还使用了 Langfuse 的 [OpenAI 集成](https://langfuse.com/integrations/model-providers/openai-py)来自动捕获所有模型参数。 ``` pip install langfuse openai ``` ``` LANGFUSE_SECRET_KEY="sk-lf-..." LANGFUSE_PUBLIC_KEY="pk-lf-..." LANGFUSE_BASE_URL="https://cloud.langfuse.com" # 🇪🇺 EU region # LANGFUSE_BASE_URL="https://us.cloud.langfuse.com" # 🇺🇸 US 区域 ``` ``` from langfuse import observe from langfuse.openai import openai # OpenAI integration @observe() def story(): return openai.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "What is Langfuse?"}], ).choices[0].message.content @observe() def main(): return story() main() ``` ### 3️⃣ 在 Langfuse 中查看 traces 在 Langfuse 中查看您的语言模型调用和其他应用程序逻辑。 Example trace in Langfuse _[Langfuse 中的公共示例 trace](https://cloud.langfuse.com/project/cloramnkj0002jz088vzn1ja4/traces/2cec01e3-3dc2-472f-afcf-3b968cf0c1f4?timestamp=2025-02-10T14%3A27%3A30.275Z&observation=cb5ff844-07ef-41e6-b8e2-6c64344bc13b)_ ## 💭 支持 为你的问题寻找答案: - 我们的[文档](https://langfuse.com/docs)是寻找答案的最佳起点。它内容全面,并且我们投入了大量时间来维护它。您也可以通过 GitHub 建议修改文档。 - [Langfuse 常见问题解答](https://langfuse.com/faq)回答了最常见的问题。 - 使用“[Ask AI](https://langfuse.com/docs/ask-ai)”即时获取您问题的答案。 支持渠道: - **在 GitHub Discussions 上的[公开问答区](https://github.com/orgs/langfuse/discussions/categories/support)提出任何问题。** 请提供尽可能多的详细信息(例如代码片段、截图、背景信息),以帮助我们理解您的问题。 - 在 GitHub Discussions 上[请求功能](https://github.com/orgs/langfuse/discussions/categories/ideas)。 - 在 GitHub Issues 上[报告 Bug](https://github.com/langfuse/langfuse/issues)。 - 对于时间紧迫的查询,请通过应用内聊天组件 ping 我们。 ## 🥇 许可证 本仓库采用 MIT 许可证授权,`ee` 文件夹除外。详情请参阅 [LICENSE](LICENSE) 和 [文档](https://langfuse.com/docs/open-source)。 ## 依赖项 我们在基于 Linux Alpine 镜像 的 Docker 容器中部署此代码库([源码](https://github.com/nodejs/docker-node))。您可以在 [web/Dockerfile](web/Dockerfile) 和 [worker/Dockerfile](worker/Dockerfile) 中找到 Dockerfile。 ## ❤️ 使用 Langfuse 的开源项目 使用 Langfuse 的顶级开源 Python 项目,按 Star 数排名([来源](https://github.com/langfuse/langfuse-docs/blob/main/components-mdx/dependents)): | 仓库 | Star 数 | | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -----: | |   [langflow-ai](https://github.com/langflow-ai) / [langflow](https://github.com/langflow-ai/langflow) | 116251 | |   [open-webui](https://github.com/open-webui) / [open-webui](https://github.com/open-webui/open-webui) | 109642 | |   [abi](https://github.com/abi) / [screenshot-to-code](https://github.com/abi/screenshot-to-code) | 70877 | |   [lobehub](https://github.com/lobehub) / [lobe-chat](https://github.com/lobehub/lobe-chat) | 65454 | |   [infiniflow](https://github.com/infiniflow) / [ragflow](https://github.com/infiniflow/ragflow) | 64118 | |   [firecrawl](https://github.com/firecrawl) / [firecrawl](https://github.com/firecrawl/firecrawl) | 56713 | |   [run-llama](https://github.com/run-llama) / [llama_index](https://github.com/run-llama/llama_index) | 44203 | |   [FlowiseAI](https://github.com/FlowiseAI) / [Flowise](https://github.com/FlowiseAI/Flowise) | 43547 | |   [QuivrHQ](https://github.com/QuivrHQ) / [quivr](https://github.com/QuivrHQ/quivr) | 38415 | |   [microsoft](https://github.com/microsoft) / [ai-agents-for-beginners](https://github.com/microsoft/ai-agents-for-beginners) | 38012 | |   [chatchat-space](https://github.com/chatchat-space) / [Langchain-Chatchat](https://github.com/chatchat-space/Langchain-Chatchat) | 36071 | |   [mindsdb](https://github.com/mindsdb) / [mindsdb](https://github.com/mindsdb/mindsdb) | 35669 | |   [danny-avila](https://github.com/danny-avila) / [LibreChat](https://github.com/danny-avila/LibreChat) | 33142 | |   [BerriAI](https://github.com/BerriAI) / [litellm](https://github.com/BerriAI/litellm) | 28726 | |   [onlook-dev](https://github.com/onlook-dev) / [onlook](https://github.com/onlook-dev/onlook) | 22447 | |   [NixOS](https://github.com/NixOS) / [nixpkgs](https://github.com/NixOS/nixpkgs) | 21748 | |   [kortix-ai](https://github.com/kortix-ai) / [suna](https://github.com/kortix-ai/suna) | 17976 | |   [anthropics](https://github.com/anthropics) / [courses](https://github.com/anthropics/courses) | 17057 | |   [mastra-ai](https://github.com/mastra-ai) / [mastra](https://github.com/mastra-ai/mastra) | 16484 | |   [langfuse](https://github.com/langfuse) / [langfuse](https://github.com/langfuse/langfuse) | 16054 | |   [Canner](https://github.com/Canner) / [WrenAI](https://github.com/Canner/WrenAI) | 11868 | |   [promptfoo](https://github.com/promptfoo) / [promptfoo](https://github.com/promptfoo/promptfoo) | 8350 | |   [The-Pocket](https://github.com/The-Pocket) / [PocketFlow](https://github.com/The-Pocket/PocketFlow) | 8313 | |   [OpenPipe](https://github.com/OpenPipe) / [ART](https://github.com/OpenPipe/ART) | 7093 | |   [topoteretes](https://github.com/topoteretes) / [cognee](https://github.com/topoteretes/cognee) | 7011 | |   [awslabs](https://github.com/awslabs) / [agent-squad](https://github.com/awslabs/agent-squad) | 6785 | |   [BasedHardware](https://github.com/BasedHardware) / [omi](https://github.com/BasedHardware/omi) | 6231 | |   [hatchet-dev](https://github.com/hatchet-dev) / [hatchet](https://github.com/hatchet-dev/hatchet) | 6019 | |   [zenml-io](https://github.com/zenml-io) / [zenml](https://github.com/zenml-io/zenml) | 4873 | |   [refly-ai](https://github.com/refly-ai) / [refly](https://github.com/refly-ai/refly) | 4654 | |   [coleam00](https://github.com/coleam00) / [ottomator-agents](https://github.com/coleam00/ottomator-agents) | 4165 | |   [JoshuaC215](https://github.com/JoshuaC215) / [agent-service-toolkit](https://github.com/JoshuaC215/agent-service-toolkit) | 3557 | |   [colanode](https://github.com/colanode) / [colanode](https://github.com/colanode/colanode) | 3517 | |   [VoltAgent](https://github.com/VoltAgent) / [voltagent](https://github.com/VoltAgent/voltagent) | 3210 | |   [bragai](https://github.com/bragai) / [bRAG-langchain](https://github.com/bragai/bRAG-langchain) | 3010 | |   [pingcap](https://github.com/pingcap) / [autoflow](https://github.com/pingcap/autoflow) | 2651 | |   [sourcebot-dev](https://github.com/sourcebot-dev) / [sourcebot](https://github.com/sourcebot-dev/sourcebot) | 2570 | |   [open-webui](https://github.com/open-webui) / [pipelines](https://github.com/open-webui/pipelines) | 2055 | |   [YFGaia](https://github.com/YFGaia) / [dify-plus](https://github.com/YFGaia/dify-plus) | 1734 | |   [TheSpaghettiDetective](https://github.com/TheSpaghettiDetective) / [obico-server](https://github.com/TheSpaghettiDetective/obico-server) | 1687 | |   [MLSysOps](https://github.com/MLSysOps) / [MLE-agent](https://github.com/MLSysOps/MLE-agent) | 1387 | |   [TIGER-AI-Lab](https://github.com/TIGER-AI-Lab) / [TheoremExplainAgent](https://github.com/TIGER-AI-Lab/TheoremExplainAgent) | 1385 | |   [trailofbits](https://github.com/trailofbits) / [buttercup](https://github.com/trailofbits/buttercup) | 1223 | |   [wassim249](https://github.com/wassim249) / [fastapi-langgraph-agent-production-ready-template](https://github.com/wassim249/fastapi-langgraph-agent-production-ready-template) | 1200 | |   [alishobeiri](https://github.com/alishobeiri) / [thread](https://github.com/alishobeiri/thread) | 1098 | |   [dmayboroda](https://github.com/dmayboroda) / [minima](https://github.com/dmayboroda/minima) | 1010 | |   [zstar1003](https://github.com/zstar1003) / [ragflow-plus](https://github.com/zstar1003/ragflow-plus) | 993 | |   [openops-cloud](https://github.com/openops-cloud) / [openops](https://github.com/openops-cloud/openops) | 939 | |   [dynamiq-ai](https://github.com/dynamiq-ai) / [dynamiq](https://github.com/dynamiq-ai/dynamiq) | 927 | |   [xataio](https://github.com/xataio) / [agent](https://github.com/xataio/agent) | 857 | |   [plastic-labs](https://github.com/plastic-labs) / [tutor-gpt](https://github.com/plastic-labs/tutor-gpt) | 845 | |   [trendy-design](https://github.com/trendy-design) / [llmchat](https://github.com/trendy-design/llmchat) | 829 | |   [hotovo](https://github.com/hotovo) / [aider-desk](https://github.com/hotovo/aider-desk) | 781 | |   [opslane](https://github.com/opslane) / [opslane](https://github.com/opslane/opslane) | 719 | |   [wrtnlabs](https://github.com/wrtnlabs) / [autoview](https://github.com/wrtnlabs/autoview) | 688 | |   [andysingal](https://github.com/andysingal) / [llm-course](https://github.com/andysingal/llm-course) | 643 | |   [theopenconversationkit](https://github.com/theopenconversationkit) / [tock](https://github.com/theopenconversationkit/tock) | 587 | |   [sentient-engineering](https://github.com/sentient-engineering) / [agent-q](https://github.com/sentient-engineering/agent-q) | 487 | |   [NicholasGoh](https://github.com/NicholasGoh) / [fastapi-mcp-langgraph-template](https://github.com/NicholasGoh/fastapi-mcp-langgraph-template) | 481 | |   [i-am-alice](https://github.com/i-am-alice) / [3rd-devs](https://github.com/i-am-alice/3rd-devs) | 472 | |   [AIDotNet](https://github.com/AIDotNet) / [koala-ai](https://github.com/AIDotNet/koala-ai) | 470 | |   [phospho-app](https://github.com/phospho-app) / [text-analytics-legacy](https://github.com/phospho-app/text-analytics-legacy) | 439 | |   [inferablehq](https://github.com/inferablehq) / [inferable](https://github.com/inferablehq/inferable) | 403 | |   [duoyang666](https://github.com/duoyang666) / [ai_novel](https://github.com/duoyang666/ai_novel) | 397 | |   [strands-agents](https://github.com/strands-agents) / [samples](https://github.com/strands-agents/samples) | 385 | |   [FranciscoMoretti](https://github.com/FranciscoMoretti) / [sparka](https://github.com/FranciscoMoretti/sparka) | 380 | |   [RobotecAI](https://github.com/RobotecAI) / [rai](https://github.com/RobotecAI/rai) | 373 | |   [ElectricCodeGuy](https://github.com/ElectricCodeGuy) / [SupabaseAuthWithSSR](https://github.com/ElectricCodeGuy/SupabaseAuthWithSSR) | 370 | |   [souzatharsis](https://github.com/souzatharsis) / [tamingLLMs](https://github.com/souzatharsis/tamingLLMs) | 323 | |   [aws-samples](https://github.com/aws-samples) / [aws-ai-ml-workshop-kr](https://github.com/aws-samples/aws-ai-ml-workshop-kr) | 295 | |   [weizxfree](https://github.com/weizxfree) / [KnowFlow](https://github.com/weizxfree/KnowFlow) | 285 | |   [zenml-io](https://github.com/zenml-io) / [zenml-projects](https://github.com/zenml-io/zenml-projects) | 276 | |   [wxai-space](https://github.com/wxai-space) / [LightAgent](https://github.com/wxai-space/LightAgent) | 275 | |   [Ozamatash](https://github.com/Ozamatash) / [deep-research-mcp](https://github.com/Ozamatash/deep-research-mcp) | 269 | |   [sql-agi](https://github.com/sql-agi) / [DB-GPT](https://github.com/sql-agi/DB-GPT) | 241 | |   [guyernest](https://github.com/guyernest) / [advanced-rag](https://github.com/guyernest/advanced-rag) | 238 | |   [bklieger-groq](https://github.com/bklieger-groq) / [mathtutor-on-groq](https://github.com/bklieger-groq/mathtutor-on-groq) | 233 | |   [plastic-labs](https://github.com/plastic-labs) / [honcho](https://github.com/plastic-labs/honcho) | 224 | |   [OVINC-CN](https://github.com/OVINC-CN) / [OpenWebUI](https://github.com/OVINC-CN/OpenWebUI) | 202 | |   [zhutoutoutousan](https://github.com/zhutoutoutousan) / [worldquant-miner](https://github.com/zhutoutoutousan/worldquant-miner) | 202 | |   [iceener](https://github.com/iceener) / [ai](https://github.com/iceener/ai) | 186 | |   [giselles-ai](https://github.com/giselles-ai) / [giselle](https://github.com/giselles-ai/giselle) | 181 | |   [ai-shifu](https://github.com/ai-shifu) / [ai-shifu](https://github.com/ai-shifu/ai-shifu) | 181 | |   [aws-samples](https://github.com/aws-samples) / [sample-serverless-mcp-servers](https://github.com/aws-samples/sample-serverless-mcp-servers) | 175 | |   [celerforge](https://github.com/celerforge) / [freenote](https://github.com/celerforge/freenote) | 171 | |   [babelcloud](https://github.com/babelcloud) / [LLM-RGB](https://github.com/babelcloud/LLM-RGB) | 164 | |   [8090-inc](https://github.com/8090-inc) / [xrx-sample-apps](https://github.com/8090-inc/xrx-sample-apps) | 163 | |   [deepset-ai](https://github.com/deepset-ai) / [haystack-core-integrations](https://github.com/deepset-ai/haystack-core-integrations) | 163 | |   [codecentric](https://github.com/codecentric) / [c4-genai-suite](https://github.com/codecentric/c4-genai-suite) | 152 | |   [XSpoonAi](https://github.com/XSpoonAi) / [spoon-core](https://github.com/XSpoonAi/spoon-core) | 150 | |   [chatchat-space](https://github.com/chatchat-space) / [LangGraph-Chatchat](https://github.com/chatchat-space/LangGraph-Chatchat) | 144 | |   [langfuse](https://github.com/langfuse) / [langfuse-docs](https://github.com/langfuse/langfuse-docs) | 139 | |   [piyushgarg-dev](https://github.com/piyushgarg-dev) / [genai-cohort](https://github.com/piyushgarg-dev/genai-cohort) | 135 | |   [i-dot-ai](https://github.com/i-dot-ai) / [redbox](https://github.com/i-dot-ai/redbox) | 132 | |   [bmd1905](https://github.com/bmd1905) / [ChatOpsLLM](https://github.com/bmd1905/ChatOpsLLM) | 127 | |   [Fintech-Dreamer](https://github.com/Fintech-Dreamer) / [FinSynth](https://github.com/Fintech-Dreamer/FinSynth) | 121 | |   [kenshiro-o](https://github.com/kenshiro-o) / [nagato-ai](https://github.com/kenshiro-o/nagato-ai) | 119 | ## 🔒 安全与隐私 我们非常重视数据安全和隐私。请参阅我们的[安全与隐私](https://langfuse.com/security)页面以获取更多信息。 ### 遥测 默认情况下,Langfuse 会自动将自托管实例的基本使用情况统计信息报告给中央服务器。 这有助于我们: 1. 了解 Langfuse 的使用方式,并改进最相关的功能。 2. 跟踪整体使用情况,用于内部和外部(例如融资)报告。 遥测不包括原始 traces、prompts、observations、scores 或数据集内容。我们在[遥测文档](https://langfuse.com/self-hosting/security/telemetry)中记录了收集的具体字段、发送目标位置以及实现参考。 对于 Langfuse OSS,您可以通过设置 `TELEMETRY_ENABLED=false` 来选择退出。
标签:API集成, DLL 劫持, Evals, GET参数, Langchain, Langfuse, LiteLLM, LLMOps, LLM工程平台, OpenAI, OpenTelemetry, Prompt管理, YC W23, 内存规避, 可观测性, 大语言模型, 子域名突变, 开源, 指标评估, 提示词工程, 数据可视化, 数据集管理, 模型监控, 沙盒, 用户代理, 策略决策点, 自动化攻击, 自托管, 请求拦截, 逆向工具