在本地机器上运行 LLaMA 的最简单方法 | 最高可以支持650亿参数 | dalai

作者:Sec-Labs | 发布时间:

项目地址

https://github.com/cocktailpeanut/dalai

在您的计算机上运行 LLaMA 和 Alpaca。

GitHub 推特 Discord

运行这个

 

ad1a1b7183221332

 

效果展示

羊驼和骆驼都在你的电脑上工作!

a36e179147221401

  1. llama.cppllama-dl CDNalpaca.cpp提供支持
  2. 包括可入侵的网络应用程序
  3. 附带 JavaScript API
  4. 附带Socket.io API
标签:工具分享, ChatGPT