Anil-matcha/Open-Generative-AI

GitHub: Anil-matcha/Open-Generative-AI

开源无审查的AI图像与视频生成工作室,聚合200+模型并提供本地推理、自托管和可视化工作流编排能力。

Stars: 6512 | Forks: 1292

# Open Generative AI — Higgsfield AI, Freepik, Krea, Openart AI 的无审查开源替代方案 ## 🌐 在线体验 — 无需安装 **托管版本:** [https://dev.muapi.ai/open-generative-ai](https://dev.muapi.ai/open-generative-ai) 直接在浏览器中使用所有四个工作室(图像、视频、唇形同步、电影)——无需 Node.js,无需设置。注册免费账号即可开始生成。托管版本始终与最新模型保持同步更新。 ## ⬇️ 下载桌面应用 一键安装程序 —— 无需 Node.js 或终端。 | 平台 | 下载 | |---|---| | macOS Apple Silicon (M1/M2/M3/M4) | [Open Generative AI-1.0.2-arm64.dmg](https://github.com/Anil-matcha/Open-Generative-AI/releases/download/v1.0.2/Open.Generative.AI-1.0.2-arm64.dmg) | | macOS Intel (x64) | [Open Generative AI-1.0.2.dmg](https://github.com/Anil-matcha/Open-Generative-AI/releases/download/v1.0.2/Open.Generative.AI-1.0.2.dmg) | | Windows (x64 + ARM64) | [Open Generative AI Setup 1.0.2.exe](https://github.com/Anil-matcha/Open-Generative-AI/releases/download/v1.0.2/Open.Generative.AI.Setup.1.0.2.exe) | | Linux (Ubuntu x64) | 使用 `npm run electron:build:linux` 在本地构建 | 所有版本发布于:[github.com/Anil-matcha/Open-Generative-AI/releases](https://github.com/Anil-matcha/Open-Generative-AI/releases) ### macOS 安装指南 由于该应用未经 Apple 公证,macOS Gatekeeper 会在首次启动时阻止它。请按照以下步骤操作: **步骤 1** — 挂载 DMG 文件并将应用拖入 `/Applications` **步骤 2** — 打开终端并运行: ``` xattr -cr "/Applications/Open Generative AI.app" ``` **步骤 3** — 在 `/Applications` 中右键点击该应用 → 点击 **打开** → 在对话框中再次点击 **打开** **替代方法(无需终端):** 1. 尝试打开应用 — macOS 会将其阻止 2. 前往 **系统设置 → 隐私与安全性** 3. 向下滚动找到 _"Open Generative AI was blocked"_ 4. 点击 **仍要打开** → **打开** ### Windows 安装 — SmartScreen 警告修复 由于安装程序未进行代码签名,Windows SmartScreen 可能会显示警告: 1. 在 SmartScreen 对话框中点击 **更多信息** 2. 点击 **仍要运行** 应用将静默安装到 `%LocalAppData%`,并在“开始”菜单中创建快捷方式。 ### Ubuntu / Linux 安装 使用 Electron Builder 构建时可生成 Linux 制品: ``` # 构建 Linux 安装包 (AppImage + .deb) npm run electron:build:linux ``` 生成的文件会写入 `release/` 文件夹: - **AppImage** — 便携版,设为可执行后直接运行: chmod +x "release/Open Generative AI-*.AppImage" ./release/Open\ Generative\ AI-*.AppImage - **.deb** — 在 Debian/Ubuntu 上安装: sudo apt install ./release/open-generative-ai_*_amd64.deb 如果 AppImage 在较旧的系统上无法启动,请安装 `libfuse2`: ``` sudo apt install libfuse2 ``` #### Ubuntu 24.04+ / AppArmor 沙箱限制 Ubuntu 24.04 及更高版本启用了内核安全策略 (`apparmor_restrict_unprivileged_userns`),会阻止 Chromium 的用户命名空间沙箱。如果应用无法启动或立即崩溃,您有两个选择: **选项 A — 推荐:改为安装 `.deb` 包。** `.deb` 包附带一个 AppArmor 配置文件,可在安装时自动授予所需权限,无需更改系统设置。 **选项 B — 临时系统修复(AppImage 用户):** ``` sudo sysctl -w kernel.apparmor_restrict_unprivileged_userns=0 ``` 此更改持续到下次重启。要使其永久生效: ``` echo 'kernel.apparmor_restrict_unprivileged_userns=0' | sudo tee /etc/sysctl.d/99-userns.conf ``` Open Generative AI 是一个免费、无审查、开源的 AI 图像、视频、电影和唇形同步工作室,为所有人带来不受限制的创作工作流。没有内容过滤,没有提示词被拒绝,没有任何限制——只有完全的创作自由。由 [Muapi.ai](https://muapi.ai) 提供支持,支持跨多种模型(如 Flux、Nano Banana、Midjourney、Kling、Sora、Veo、Seedream、Infinite Talk、LTX Lipsync、Wan 2.2 等)进行 text-to-image、image-to-image、text-to-video、image-to-video 和音频驱动的唇形同步生成——所有这些都可以在一个您可以自托管和自定义的时尚现代界面中完成。 **为什么选择 Open Generative AI 而不是 Higgsfield AI, Freepik, Krea AI, Openart AI?** - **无审查且无限制** — 没有内容过滤,没有保姆式限制,没有提示词拒绝 - **免费且开源** — 无需订阅,无供应商锁定 - **自托管** — 数据保留在您的机器上,完全的创作控制权 - **200+ 模型** — text-to-image、image-to-image、text-to-video、image-to-video、lip sync - **多图像输入** — 可为兼容模型提供多达 14 张参考图像 - **唇形同步工作室** — 使用 9 个专用模型让肖像动起来或将唇形与任何音频同步 - **可扩展** — 添加您自己的模型,修改 UI,在其基础上进行构建 要深入了解技术架构以及“无限预算”电影工作流背后的理念,请参阅我们的[综合指南和路线图](https://medium.com/@anilmatcha/)。 ![Studio Demo](https://static.pigsec.cn/wp-content/uploads/repos/2026/04/fc73794c80191450.webp) ## ⚡ 本地模型推理(仅限桌面应用) 桌面应用包含一个由 [stable-diffusion.cpp](https://github.com/leejet/stable-diffusion.cpp) 驱动的内置**本地生成引擎** —— 完全在您自己的机器上生成图像,无需 API 密钥,也无需互联网连接。 ### 支持的本地模型 | 模型 | 类型 | 大小 | 速度 | |---|---|---|---| | **Z-Image Turbo** ⚡ | Diffusion Transformer | 2.5 GB + 2.7 GB 辅助文件 | 8步加速 | | **Z-Image Base** ⚡ | Diffusion Transformer | 3.5 GB + 2.7 GB 辅助文件 | 50步高质量 | | **Dreamshaper 8** | SD 1.5 | 2.1 GB | 20步通用 | | **Realistic Vision v5.1** | SD 1.5 | 2.1 GB | 25步写实 | | **Anything v5** | SD 1.5 | 2.1 GB | 20步动漫/插画 | | **SDXL Base 1.0** | SDXL | 6.9 GB | 30步高分辨率 | ### 如何使用本地模型 1. 在桌面应用中打开 **Settings → Local Models** 2. 安装 **sd.cpp inference engine**(一键自动下载) 3. 下载您选择的模型(以及 Z-Image 的辅助文件) 4. 在 **Image Studio** 中,点击模型选择器旁边的 **⚡ Local** 切换按钮 5. 选择您的本地模型并生成——无需 API 密钥 所有下载均在应用内进行。不会在系统范围内安装任何内容。 ### 硬件说明 - 支持 CPU 运行(所有平台)和 **Metal GPU**(macOS Apple Silicon — M1/M2/M3/M4) - Metal GPU 加速内置于 macOS 桌面二进制文件中 —— 比纯 CPU 运行快得多 - 建议:运行 Z-Image 模型时配备 16 GB RAM(7.4 GB 权重 + 2.4 GB 计算缓冲区) - 在生成期间系统可能会变慢 —— 该过程在运行时会使用所有可用的 CPU 核心 ## ✨ 功能特性 - **图像工作室 (Image Studio)** — 通过文本提示词生成图像(50+ text-to-image 模型)或转换现有图像(55+ image-to-image 模型)。根据是否提供参考图像自动切换模型集。在支持它们的模型中可见质量和分辨率控件。 - **本地推理** — 使用 Z-Image Turbo/Base, Dreamshaper, Realistic Vision, Anything v5 或 SDXL 在设备上生成图像,无需 API 密钥,由 stable-diffusion.cpp 提供支持并在 Apple Silicon 上实现 Metal GPU 加速。 - **多图像输入** — 为兼容的编辑模型(Nano Banana 2 Edit, Flux Kontext Dev, GPT-4o Edit 等)上传多达 14 张参考图像。具有顺序编号的多选选择器、批量上传以及“Use Selected”确认流程。 - **视频工作室 (Video Studio)** — 通过文本提示词生成视频(40+ text-to-video 模型)或将起始帧图像动画化(60+ image-to-video 模型)。与 Image Studio 一样的智能模式切换。 - **唇形同步工作室 (Lip Sync Studio)** — 使用音频让肖像图像动起来或在现有视频上同步唇形。跨两种模式的 9 个专用模型:肖像图像 + 音频 → 讲话视频,以及视频 + 音频 → 唇形同步视频。 - **电影工作室 (Cinema Studio)** — 具有专业相机控制(镜头、焦距、光圈)的逼真电影镜头界面 - **工作流工作室 (Workflow Studio)** — 以可视化方式构建和运行多步骤 AI pipeline。将图像、视频和音频模型链接到自动化流程中。浏览社区模板,使用基于节点的编辑器创建您自己的模板,并通过交互式 playground 运行它们。 - **上传历史** — 参考图像上传一次并存储在本地。选择器面板允许您在不同会话中重复使用任何先前上传的图像——无需重新上传。 - **智能控件** — 动态的宽高比、分辨率/质量和时长选择器,可适应每个模型的功能(包括具有分辨率或质量选项的 t2i 模型) - **生成历史** — 浏览、重温并下载所有过去的生成内容(保存在浏览器存储中) - **图像和视频下载** — 一键下载全分辨率的生成输出 - **API 密钥管理** — 在浏览器 localStorage 中安全存储 API 密钥(除了 Muapi 之外,绝不会发送到任何服务器) - **响应式设计** — 在桌面和移动设备上均可完美运行,采用深色玻璃拟物化 UI ### 🖼️ 图像工作室 — 双模式 图像工作室会自动在两个模型集之间切换: | 模式 | 触发条件 | 模型 | 提示词 | | :--- | :--- | :--- | :--- | | **Text-to-Image** | 默认(无图像) | 50+ t2i 模型(Flux, Nano Banana 2, Seedream 5.0, Ideogram, GPT-4o, Midjourney…) | 必填 | | **Image-to-Image** | 已上传参考图像 | 55+ i2i 模型(Kontext, Nano Banana 2 Edit, Seedream 5.0 Edit, Seededit, Upscaler…) | 选填 | #### 新增模型 | 模型 | 类型 | 核心特性 | | :--- | :--- | :--- | | **Nano Banana 2** | Text-to-Image | Google Gemini 3.1 Flash Image · 分辨率 1K/2K/4K · Google Search 增强 · 宽高比 `auto` | | **Nano Banana 2 Edit** | Image-to-Image | 最多 **14 张参考图像** · 分辨率 1K/2K/4K · Google Search 增强 | | **Seedream 5.0** | Text-to-Image | 字节跳动 · 质量 basic/high · 8 种宽高比 · 最高 4K | | **Seedream 5.0 Edit** | Image-to-Image | 字节跳动 · 自然语言风格迁移 · 质量 basic/high | | **MiniMax Image 01** | Text-to-Image | MiniMax · 8 种宽高比 · 每次请求最多 4 张图像 · 1500 字符提示词 | #### 多图像输入 接受多张参考图像的模型在被激活时会提供一个多选选择器: | 模型 | 最大图像数 | | :--- | :--- | | Nano Banana 2 Edit | 14 | | Nano Banana Edit | 10 | | Flux Kontext Dev I2I | 10 | | Kling O1 Edit Image | 10 | | GPT-4o Edit / GPT Image 1.5 Edit | 10 | | Bytedance Seedream Edit v4 / v4.5 | 10 | | Vidu Q2 Reference to Image | 7 | | Flux 2 Flex/Pro Edit | 8 | | Nano Banana Pro Edit | 8 | | Flux Kontext Pro/Max I2I | 2 | | Wan 2.5/2.6 Image Edit | 2–3 | | Qwen Image Edit Plus / 2511 | 3 | | GPT-4o Image to Image | 5 | | Flux 2 Klein 4b/9b Edit | 4 | 当选择了多图像模型时,上传触发器会切换为多选模式: - **带顺序编号的复选框** — 图像按您选择的顺序发送给模型 - **批量上传** — 从文件对话框中一次性选取多个文件 - 触发上的**计数徽章**显示有多少张图像处于活动状态;当有更多可用槽位时会出现 `+` 徽章 - **“Use Selected” 按钮** 确认并关闭选择器 ### 🎬 视频工作室 — 双模式 视频工作室遵循相同的模式: | 模式 | 触发条件 | 模型 | 提示词 | | :--- | :--- | :--- | :--- | | **Text-to-Video** | 默认(无图像) | 40+ t2v 模型(Kling, Sora, Veo, Wan, Seedance 2.0, Hailuo, Runway…) | 必填 | | **Image-to-Video** | 已上传起始帧 | 60+ i2v 模型(Kling I2V, Veo3 I2V, Runway I2V, Wan I2V, Seedance 2.0 I2V, Midjourney I2V…) | 选填 | #### 新增模型 | 模型 | 类型 | 核心特性 | | :--- | :--- | :--- | | **Seedance 2.0** | Text-to-Video | 字节跳动 · 宽高比 16:9 / 9:16 / 4:3 / 3:4 · 时长 5 / 10 / 15s · 质量 basic/high | | **Seedance 2.0 I2V** | Image-to-Video | 字节跳动 · 将图像动画化为视频 · 最多 9 张参考图像 · 宽高比 16:9 / 9:16 / 4:3 / 3:4 · 时长 5 / 10 / 15s · 质量 basic/high | | **Seedance 2.0 Extend** | 视频扩展 | 字节跳动 · 无缝延续任何 Seedance 2.0 的生成内容 · 保留风格、运动和音频 · 可选延续提示词 · 时长 5 / 10 / 15s · 质量 basic/high | | **Grok Imagine T2V** | Text-to-Video | xAI · 时长 6 / 10 / **15s** · 模式:fun / normal / spicy · 宽高比 9:16 / 16:9 / 2:3 / 3:2 / 1:1 | | **Grok Imagine I2V** | Image-to-Video | xAI · 时长 6 / 10 / **15s** · 模式:fun / normal / spicy · 从静止图像生成电影级运动 | | **MiniMax Hailuo 02 / 2.3 Standard & Pro** | Text-to-Video / Image-to-Video | MiniMax · 全高清视频 · 多种宽高比 · 包含快速变体 | ### 🎙️ 唇形同步工作室 **唇形同步工作室 (Lip Sync Studio)** 使用跨两种输入模式的 9 个模型,生成由音频驱动的讲话视频: | 模式 | 触发条件 | 描述 | | :--- | :--- | :--- | | **Portrait Image** | 默认 | 上传肖像图像 + 音频文件 → 动画讲话视频 | | **Video** | 切换至视频模式 | 上传现有视频 + 音频文件 → 唇形同步视频 | #### 基于图像的模型(肖像图像 + 音频 → 视频) | 模型 | Endpoint | 分辨率 | 提示词 | | :--- | :--- | :--- | :--- | | **Infinite Talk** | `infinitetalk-image-to-video` | 480p, 720p | 选填 | | **Wan 2.2 Speech to Video** | `wan2.2-speech-to-video` | 480p, 720p | 选填 | | **LTX 2.3 Lipsync** | `ltx-2.3-lipsync` | 480p, 720p, 1080p | 选填 | | **LTX 2 19B Lipsync** | `ltx-2-19b-lipsync` | 480p, 720p, 1080p | 选填 | #### 基于视频的模型(视频 + 音频 → 唇形同步视频) | 模型 | Endpoint | 分辨率 | 提示词 | | :--- | :--- | :--- | :--- | | **Sync Lipsync** | `sync-lipsync` | — | — | | **LatentSync** | `latentsync-video` | — | — | | **Creatify Lipsync** | `creatify-lipsync` | — | — | | **Veed Lipsync** | `veed-lipsync` | — | — | | **Infinite Talk V2V** | `infinitetalk-video-to-video` | 480p, 720p | 选填 | **工作原理:** 1. 使用切换按钮选择 **Portrait Image** 或 **Video** 模式 2. 使用图像/视频上传按钮上传您的肖像图像(或视频) 3. 使用音频上传按钮上传您的音频文件 4. 可选择输入提示词以引导运动风格 5. 选择模型和分辨率(在支持的模型中),然后点击 **Generate** 生成历史单独保存在 `lipsync_history` 中,待处理的任务会在页面重新加载时自动恢复。 ### 🔀 工作流工作室 **工作流工作室 (Workflow Studio)** 允许您在不编写代码的情况下构建和运行多步骤 AI pipeline。 **核心功能:** - **模板** — 从预构建的工作流开始(图像链、视频 pipeline 等) - **我的工作流** — 保存和管理您自己的自定义 pipeline - **社区** — 浏览并运行其他用户发布的工作流 - **基于节点的构建器** — 拖放式可视化编辑器,用于连接模型和在步骤间路由输出 - **Playground** — 使用表单 UI 交互式运行任何工作流;结果内联呈现 - **API 执行** — 每个工作流也可以通过 Muapi API 调用 ### 🎥 电影工作室控件 **电影工作室 (Cinema Studio)** 提供对虚拟相机的精确控制,将您的选择转化为优化的提示词修饰符: | 类别 | 可用选项 | | :--- | :--- | | **相机** | Modular 8K Digital, Full-Frame Cine Digital, Grand Format 70mm Film, Studio Digital S35, Classic 16mm Film, Premium Large Format Digital | | **镜头** | Creative Tilt, Compact Anamorphic, Extreme Macro, 70s Cinema Prime, Classic Anamorphic, Premium Modern Prime, Warm Cinema Prime, Swirl Bokeh Portrait, Vintage Prime, Halation Diffusion, Clinical Sharp Prime | | **焦距** | 8mm (Ultra-Wide), 14mm, 24mm, 35mm (Human Eye), 50mm (Portrait), 85mm (Tight Portrait) | | **光圈** | f/1.4 (Shallow DoF), f/4 (Balanced), f/11 (Deep Focus) | ### 📁 上传历史与选择器 您上传的每张图片都会保存在本地(URL + 缩略图),因此您永远不会重复上传同一个文件: - 点击上传按钮以打开 **参考图像选择器** - 之前上传的图像会以 3 列缩略图网格显示 - **单图像模型** — 点击缩略图即可立即选择并关闭 - **多图像模型** — 切换多个缩略图(显示带顺序编号),然后点击 **Use Selected** - 使用 **Upload files** 按钮上传新图像(在多图像模式下支持多文件选择) - 使用 ✕ 按钮从历史记录中删除单个图像 - 历史记录在浏览器会话之间持久保存(存储在 `localStorage` 中) ## 🚀 快速开始 ### 前置条件 - [Node.js](https://nodejs.org/) (v18+) - 一个 [Muapi.ai](https://muapi.ai) API 密钥 ### 设置 ``` # 克隆仓库 git clone https://github.com/Anil-matcha/Open-Generative-AI.git cd Open-Generative-AI # 安装依赖 (安装 root + packages/studio 工作区) npm install # 启动开发服务器 npm run dev ``` 在浏览器中打开 `http://localhost:3000`。首次使用时,系统会提示您输入 Muapi API 密钥。 ### 生产环境构建 ``` npm run build npm run start ``` ### 桌面应用构建 使用 Electron 构建原生桌面应用: ``` # macOS (DMG — Intel + Apple Silicon) npm run electron:build # Windows (NSIS 安装程序 — x64 + ARM64) npm run electron:build:win # Linux (AppImage + DEB — x64) npm run electron:build:linux # 一次性构建两个平台 npm run electron:build:all ``` 安装程序输出到 `release/` 文件夹。预构建的二进制文件也可在 [Releases 页面](https://github.com/Anil-matcha/Open-Generative-AI/releases)获取。 ## 🏗️ 架构 该应用是一个带有共享 `packages/studio` 组件库的 **Next.js monorepo**。 ``` Open-Generative-AI/ ├── app/ # Next.js App Router │ ├── layout.js # Root layout (Tailwind, fonts) │ ├── page.js # Redirects → /studio │ └── studio/ │ └── page.js # Studio page — renders StandaloneShell ├── components/ │ ├── StandaloneShell.js # Tab nav + BYOK (API key from localStorage) │ └── ApiKeyModal.js # API key entry modal ├── packages/ │ └── studio/ # Shared React component library │ └── src/ │ ├── index.js # Exports: ImageStudio, VideoStudio, LipSyncStudio, CinemaStudio, WorkflowStudio │ ├── models.js # 200+ model definitions (single source of truth) │ ├── muapi.js # API client (named exports, apiKey as first param) │ └── components/ │ ├── ImageStudio.jsx # Dual-mode t2i/i2i studio │ ├── VideoStudio.jsx # Dual-mode t2v/i2v studio │ ├── LipSyncStudio.jsx # Portrait/video + audio → talking video │ ├── CinemaStudio.jsx # Pro studio with camera controls │ └── WorkflowStudio.jsx # Multi-step pipeline builder & playground ├── next.config.mjs # transpilePackages: ['studio'] ├── tailwind.config.js └── package.json # workspaces: ["packages/studio"] ``` `packages/studio` 库也被 [muapi.ai](https://muapi.ai) 上的托管版本所使用 —— 在 `packages/studio/src/models.js` 中进行的模型更新会自动应用于自托管应用和托管版本。 ## 🔌 API 集成 该应用使用两步模式与 [Muapi.ai](https://muapi.ai) 进行通信: 1. **提交** — `POST /api/v1/{model-endpoint}` 附带提示词和参数 2. **轮询** — `GET /api/v1/predictions/{request_id}/result`,直到状态为 `completed` 身份验证使用 `x-api-key` 标头。在开发期间,Vite proxy 通过将 `/api` 请求路由到 `https://api.muapi.ai` 来处理 CORS。 文件上传使用 `POST /api/v1/upload_file` (multipart/form-data) 并返回一个托管 URL,该 URL 被传递给图像条件模型。对于多图像模型,完整的 `images_list` 数组会在一个请求中转发给 API。 唇形同步任务使用相同的两步模式:一个专用的 `processLipSync()` 方法接受 `image_url` 或 `video_url` 以及 `audio_url`,分派到模型的 endpoint,并轮询直到输出视频 URL 可用。 ## 🎨 支持的模型类别 | 类别 | 数量 | 示例 | |---|---|---| | **Text-to-Image** | 50+ | Flux Dev, Nano Banana 2, Seedream 5.0, Ideogram v3, Midjourney v7, GPT-4o, SDXL | | **Image-to-Image** | 55+ | Nano Banana 2 Edit (×14), Flux Kontext Pro, GPT-4o Edit, Seededit v3, Upscaler, Background Remover | | **Text-to-Video** | 40+ | Kling v3, Sora 2, Veo 3, Wan 2.6, Seedance 2.0, Seedance 2.0 Extend, Seedance Pro, Hailuo 2.3, Runway Gen-3 | | **Image-to-Video** | 60+ | Kling v2.1 I2V, Veo3 I2V, Runway I2V, Seedance 2.0 I2V, Midjourney v7 I2V, Hunyuan I2V, Wan2.2 I2V | | **Lip Sync** | 9 | Infinite Talk I2V, Wan 2.2 Speech to Video, LTX 2.3 Lipsync, LTX 2 19B Lipsync, Sync, LatentSync, Creatify, Veed, Infinite Talk V2V | ## 🛠️ 技术栈 - **Next.js 14** — App Router, server components, 快速开发服务器 - **React 18** — 工作室 UI 组件 - **Tailwind CSS v3** — 实用优先的样式方案 - **npm workspaces** — 带有共享 `packages/studio` 库的 Monorepo - **Muapi.ai** — AI 模型 API 网关 ## 🤔 这与 Higgsfield AI, Freepik, Krea, Openart AI 有何不同? **Open Generative AI** 是一个社区驱动的开源替代方案,提供类似的创作能力,但不受封闭生态系统的限制: | | 其他提供商 | Open Generative AI | | :--- | :--- | :--- | | **费用** | 基于订阅 | 免费(开源) | | **内容过滤** | 有 — 提示词被阻止或更改 | 无 — 完全无审查 | | **限制** | 强制执行平台限制 | 不受限制的创作自由 | | **模型** | 专有 | 200+ 开源和商业模型 | | **多图像输入** | 有限 | 每次请求最多 14 张图像 | | **唇形同步** | 无 | 9 个模型,图像和视频模式 | | **托管版本** | 订阅制 | 在 [muapi.ai/open-generative-ai](https://muapi.ai/open-generative-ai) 免费使用 | | **自托管** | 不支持 | 支持 | | **可定制性** | 不可定制 | 完全可修改 | | **数据隐私** | 基于云端 | 数据保留在本地 | | **源代码** | 闭源 | MIT 许可 | ## 📄 许可证 MIT ## 🙏 鸣谢 由 [Muapi.ai]() 构建 —— AI 图像和视频生成模型的统一 API。 **深入探讨**:有关“AI Influencer”引擎、即将推出的“Popcorn”故事板功能以及本项目未来的更多详细信息,请阅读[完整技术概述](https://medium.com/@anilmatcha/)。 *正在寻找免费、无审查的 Higgsfield AI, Freepik, Krea, Openart AI 替代方案吗?Open Generative AI 是一个开源、无限制的 AI 图像和视频生成工作室 —— 一个可替代 Higgsfield AI, Freepik, Krea, Openart AI 且没有内容过滤的方案,您可以自托管、自定义和扩展。* 本项目是一个独立的、实验性的开源倡议,不隶属于、不经 Higgsfield Inc., Freepik, Krea AI, OpenArt AI 或其任何各自的公司、产品或服务认可或与之有关联。任何对第三方平台、模型或技术的引用仅出于互操作性、基准测试、研究或教育目的。所有商标、标志和品牌名称均属于其各自所有者的财产。如果本仓库中的任何内容引起混淆或疑虑,请联系我们,我们将立即审查并解决。
标签:AIGC, AI内容创作, AI图像生成, AI工作室, AI视频生成, Electron, Flux, Freepik替代, GNU通用公共许可证, Higgsfield AI替代, Kling, Krea替代, Lip Sync, Midjourney, MITM代理, MIT许可, Node.js, Openart AI替代, Sora, Stable Diffusion, Veo, 人工智能, 免安装, 免费AI工具, 多模态AI, 开源替代方案, 数字艺术, 文生图, 文生视频, 无审查AI, 桌面应用, 深度学习, 生成式AI, 用户模式Hook绕过, 电影制作, 索引, 自定义脚本, 自托管