Skip to main content

5.2.3 大语言模型

功能介绍

本节介绍本地部署大语言模型(LLM)工具 Ollama 的使用方法。Ollama 是一款开源、跨平台的 LLM 本地化部署框架,支持在 PC、边缘服务器等设备上快速部署主流预训练语言模型(如 LLaMA、DeepSeek、Qwen 等),可离线运行,无需依赖云服务或高性能 GPU。

安装

在支持的系统上安装 Ollama 工具集:

sudo apt update
sudo apt install spacemit-ollama-toolkit

安装完成后,执行以下命令验证是否安装成功:

ollama list

如果输出如下格式内容,则表示安装成功:

NAME       ID        SIZE      MODIFIED
...

使用示例

Ollama 会自动检测系统环境并下载适配的 4-bit 量化模型(Q4_K_M、Q4_0、Q4_1),无需手动配置。

以启动 qwen3:0.6b 模型为例:

ollama run qwen3:0.6b

该命令将在首次运行时自动下载 Q4_K_M 格式的模型(默认加速方案),之后可直接进行对话或调用。

手动制作加速模型(拓展)

如果需要自定义模型部署(例如使用非默认名称、定制配置文件等),可按照以下步骤手动下载并制作模型。

下载模型文件与配置文件

建议下载 Q4 开头的 4-bit 量化模型,在 K1 开发板上具有最佳性能。以 Qwen2.5-0.5B-Instruct 为例:

sudo apt install wget
wget https://modelscope.cn/models/second-state/Qwen2.5-0.5B-Instruct-GGUF/resolve/master/Qwen2.5-0.5B-Instruct-Q4_0.gguf -P ~/
wget https://archive.spacemit.com/spacemit-ai/modelfile/qwen2.5:0.5b.modelfile -P ~/

wget http://archive.spacemit.com/spacemit-ai/gguf/qwen2.5-0.5b-fc-q4_0.gguf -P ~/
wget http://archive.spacemit.com/spacemit-ai/modelfile/qwen2.5-0.5b-fc.modelfile -P ~/

.gguf 文件为主模型文件,.modelfile 为 Ollama 所需的模型构建配置文件。

创建 Ollama 模型

执行以下命令创建本地模型:

cd ~/
ollama create qwen2.5:0.5b -f qwen2.5:0.5b.modelfile
ollama create qwen2.5-0.5b-fc -f qwen2.5-0.5b-fc.modelfile

⚠️ .modelfile 内容应根据所下载模型名称、路径、格式等进行适配,具体格式可参考 Ollama 官网提供的文档:https://ollama.com/search

启动模型

创建完成后,执行下述命令即可运行:

ollama run qwen2.5:0.5b

系统将启动模型,等待用户输入交互或接口调用。