🤖 自托管、社区驱动、本地的OpenAI兼容API。可在消费级硬件上替代OpenAI运行LLMs。无需GPU

作者:Sec-Labs | 发布时间:

项目地址

https://github.com/go-skynet/LocalAI

ad1a1b7183121611

 

项目介绍

🤖 自托管、社区驱动、本地的OpenAI兼容API。可在消费级硬件上替代OpenAI运行LLMs。无需GPU。LocalAI是一个RESTful API,用于运行ggml兼容模型:llama.cpp、alpaca.cpp、gpt4all.cpp、rwkv.cpp、whisper.cpp、vicuna、koala、gpt4all-j、cerebras等等!

如何工作

ad1a1b7183121745

LocalAI是一个与OpenAI API规范兼容的、可用于本地推理的即插即用的REST API。它允许在本地或企业内部使用消费级硬件运行模型,支持多个与ggml格式兼容的模型系列。请参阅下面的模型兼容性表格以获取支持的模型系列列表。

  • 本地的、OpenAI的备选REST API。您拥有自己的数据。
  • 支持多个模型,包括音频转录、使用GPT进行文本生成,以及使用稳定扩散(实验性功能)进行图像生成。
  • 首次加载后,将模型保留在内存中,以加快推理速度。
  • 支持提示模板。
  • 不使用外部Shell,而是使用C++绑定进行更快的推理和更好的性能。
  • 不需要GPU。也不需要互联网访问。可选择在与llama.cpp兼容的LLMs中启用GPU加速。请参阅构建说明

LocalAI是一个由社区驱动的项目,致力于让任何人都能够使用人工智能。欢迎任何贡献、反馈和PR!它最初由SpectroCloud OSS Officemudler创建。

LocalAI使用C++绑定来优化速度。它基于llama.cppgpt4allrwkv.cppggmlwhisper.cpp进行音频转录,以及bert.cpp进行嵌入。

请参阅示例以了解如何集成LocalAI

新闻

  • 2023年5月17日: 发布 v1.12.0!🔥🔥 包括对llama.cpp兼容模型和图像生成的CUDA(#258)支持。
  • 2023年5月16日: 🔥🔥🔥 llama.cpp后端实验性支持CUDA(#258),master分支实现稳定扩散的CPU图像生成(#272)。

现在LocalAI也能生成图像了:

mode=0 mode=1 (winograd/sgemm)

ad1a1b7183122139

ad1a1b7183122149

  • 2023年5月14日: 发布 v1.11.1!修复了rwkv后端的问题。
  • 2023年5月13日: 发布 v1.11.0!🔥 更新了llama.cpp绑定:此更新包含了模型文件的重大更改(ggerganov/llama.cpp#1405),旧的模型仍可与gpt4all-llama后端兼容。
  • 2023年5月12日: 发布 v1.10.0!🔥🔥 更新了gpt4all绑定。添加了对GPTNeox(实验性)、RedPajama(实验性)、Starcoder(实验性)、Replit(实验性)和MosaicML MPT的支持。现在embeddings端点支持令牌数组。请查看langchain-chroma示例!注意 - 此更新不包括 ggerganov/llama.cpp#1405,该更改会导致模型不兼容。
  • 2023年5月11日: 发布 v1.9.0!🔥 重要的whisper更新(#233 #229),扩展了gpt4all模型系列的支持(#232)。Redpajama/dolly实验性(#214
  • 2023年5月10日: 发布 v1.8.0!🔥 添加了对bert.cpp的快速准确嵌入支持(#222
  • 2023年5月9日: 添加了对转录端点的实验性支持(#211
  • 2023年5月8日: 支持使用llama.cpp后端的模型进行嵌入(#207
  • 2023年5月2日: 支持rwkv.cpp模型(#158),以及/edits端点
  • 2023年5月1日: 支持在llama.cpp后端使用SSE流的令牌(#152

Twitter:@LocalAI_API@mudler_it

模型兼容性

它与llama.cpp支持的模型兼容,并且还支持GPT4ALL-Jcerebras-GPT(使用ggml)

已测试的模型有:

注意:您可能需要将一些旧模型转换为新格式,有关指示,请参阅llama.cpp中的README,例如运行gpt4all

标签:工具分享