LocalAI
本地运行 AI 模型的完整 AI 堆栈。
简介
LocalAI 是您在本地运行 AI 模型的完整 AI 堆栈。它设计得简单、高效且易于使用,可作为 OpenAI API 的即插即用替代品,同时确保您的数据私密且安全。
安装部署
LocalAI 有非常详细的文档,请参考其文档安装部署。
使用 LocalAI
在 AI 设置 --- AI 供应方案中选择 LOCAL_AI,填入你的 API 地址,然后选择你想使用的 LLM 模型即可。
注意:LocalAI 的模型没有给出类别,所有模型混合在一块,请选择正确且对应的模型,不然会出现错误。