AILocalAI本页总览LocalAI 简介 LocalAI是用于在本地运行AI模型的完整AI堆栈。它的设计是简单、高效和可访问的,提供一个兼容OpenAI的API,允许用户在消费级硬件(包括CPU环境)上运行大型语言模型(LLM)、图像生成、语音转录等AI任务,同时保持用户的数据隐私和安全。 本文主要介绍如何在我们的Bianbu平台上从源码编译安装和使用LocalAI,以及添加自定义的推理后端。 编译安装步骤 安装系统依赖