02 - 安装与配置
安装与配置
从下载安装到完成基础配置,快速上手 LM Studio。
2.1 系统要求
硬件要求
| 组件 | 最低要求 | 推荐配置 |
|---|
| CPU | x86_64 / ARM64 | 多核处理器(8 核+) |
| RAM | 8 GB | 16 GB+(运行 7B 模型) |
| 磁盘 | 2 GB(应用)+ 模型空间 | SSD,50 GB+ 可用空间 |
| GPU(可选) | 支持 Vulkan 的显卡 | NVIDIA RTX 3060 12GB+ / Apple M1+ |
软件要求
| 平台 | 最低版本 |
|---|
| Windows | Windows 10 (64-bit) |
| macOS | macOS 12 (Monterey) |
| Linux | Ubuntu 20.04 / Fedora 38 / Arch Linux |
GPU 驱动要求
| GPU 类型 | 驱动要求 |
|---|
| NVIDIA | 驱动版本 535+,CUDA 12+ |
| AMD (Windows) | Adrenalin 驱动最新版 |
| AMD (Linux) | ROCm 5.7+ 或 Vulkan |
| Apple Silicon | macOS 12+(Metal 内置) |
2.2 下载与安装
Windows 安装
步骤:
1. 访问 https://lmstudio.ai/
2. 点击 "Download for Windows"
3. 运行下载的 .exe 安装包
4. 按照安装向导完成安装
5. 首次启动时会询问模型存储路径
# 可选:使用 winget 安装(如果可用)
winget install LMStudio.LMStudio
# 或使用 scoop
scoop install lm-studio
macOS 安装
步骤:
1. 访问 https://lmstudio.ai/
2. 点击 "Download for Mac"
3. 打开下载的 .dmg 文件
4. 将 LM Studio 拖入 Applications 文件夹
5. 首次打开时,右键选择 "打开"(绕过 Gatekeeper)
# 可选:使用 Homebrew 安装
brew install --cask lm-studio
Linux 安装
# 方法一:AppImage(推荐)
# 1. 从官网下载 .AppImage 文件
chmod +x LM-Studio-*.AppImage
./LM-Studio-*.AppImage
# 方法二:deb 包(Ubuntu/Debian)
sudo dpkg -i lm-studio-*.deb
sudo apt-get install -f # 修复依赖
# 方法三:rpm 包(Fedora/RHEL)
sudo rpm -i lm-studio-*.rpm
# 方法四:AUR(Arch Linux)
yay -s lm-studio-bin
Linux GPU 支持配置
# NVIDIA GPU - 确认驱动安装
nvidia-smi
# 应显示驱动版本 535+ 和 CUDA 版本
# 如果使用 Flatpak 版本,需要权限
flatpak override --user --filesystem=home com.lmstudio.LMStudio
# 检查 Vulkan 支持(AMD / Intel GPU)
vulkaninfo | grep "GPU"
2.3 首次启动配置
设置模型存储路径
首次启动 LM Studio 时,需要指定模型存储目录。模型文件通常较大(4-70 GB),建议:
推荐路径:
├── Windows: D:\lm-studio-models(非系统盘)
├── macOS: ~/lm-studio-models 或外接 SSD
└── Linux: ~/lm-studio-models 或 /data/lm-studio-models
注意:
- 确保目标磁盘有足够空间(建议 50 GB+)
- SSD 会显著加快模型加载速度
- 路径中避免包含中文或特殊字符
界面语言与外观
LM Studio 支持明暗主题切换,界面语言以英文为主。建议初次使用时:
Settings(设置):
├── Model Storage Path: 设置模型下载路径
├── Hardware Info: 查看 GPU / CPU 信息
├── Server Settings: 配置 API 服务器默认参数
└── Appearance: 切换明暗主题
2.4 界面介绍
LM Studio 的界面分为以下几个主要区域:
主界面布局
┌──────────────────────────────────────────────────────────┐
│ LM Studio [−] [□] [×] │
├────────┬─────────────────────────────────────────────────┤
│ │ │
│ 🏠 │ 当前活动区域 │
│ 首页 │ │
│ │ ┌─────────────────────────────────────┐ │
│ 💬 │ │ │ │
│ 聊天 │ │ 聊天界面 / 模型搜索 / 服务器 │ │
│ │ │ │ │
│ 🔍 │ │ │ │
│ 搜索 │ │ │ │
│ │ └─────────────────────────────────────┘ │
│ 🖥️ │ │
│ 服务器 │ │
│ │ ┌─────────────────────────────────────┐ │
│ ⚙️ │ │ 模型选择: [当前模型 ▾] 参数: [...] │ │
│ 设置 │ └─────────────────────────────────────┘ │
│ │ │
├────────┴─────────────────────────────────────────────────┤
│ 状态栏: GPU 状态 │ 内存使用 │ 服务器状态 │
└──────────────────────────────────────────────────────────┘
各功能区域说明
| 区域 | 功能 | 说明 |
|---|
| 左侧导航栏 | 页面切换 | 首页、聊天、搜索、服务器、设置 |
| 主内容区 | 核心操作 | 根据选中的功能显示不同内容 |
| 顶部工具栏 | 模型选择 | 选择当前使用的模型 |
| 底部状态栏 | 系统信息 | 显示 GPU、内存、服务器状态 |
2.5 模型搜索与下载
搜索模型
操作步骤:
1. 点击左侧导航栏的 🔍 "搜索" 图标
2. 在搜索框中输入模型名称(如 "qwen2.5")
3. 浏览搜索结果,选择合适的版本
4. 点击下载按钮开始下载
搜索技巧
搜索语法:
├── 关键词搜索: qwen2.5
├── 指定参数量: qwen2.5-7b
├── 指定量化: qwen2.5 q4_k_m
├── 指定用途: qwen2.5-instruct
└── 组合搜索: qwen2.5-7b-instruct q4
筛选条件:
├── 文件格式: GGUF(LM Studio 仅支持 GGUF)
├── 参数量: 1B / 3B / 7B / 13B / 70B
└── 量化类型: Q4_K_M / Q5_K_M / Q8_0 等
模型命名规则解读
示例:Qwen2.5-7B-Instruct-Q4_K_M.gguf
Qwen2.5 → 模型系列名称
7B → 参数量(70 亿参数)
Instruct → 经过指令微调,适合对话
Q4_K_M → 量化级别(4-bit,K-quant,Medium)
.gguf → 文件格式(GGML Universal Format)
选择下载版本的建议
| 你的 RAM | 推荐模型大小 | 推荐量化 |
|---|
| 8 GB | ≤ 3B | Q4_K_M |
| 16 GB | ≤ 7B | Q4_K_M / Q5_K_M |
| 32 GB | ≤ 13B | Q5_K_M / Q8_0 |
| 64 GB | ≤ 34B | Q4_K_M / Q5_K_M |
| 128 GB | ≤ 70B | Q4_K_M |
2.6 GPU 配置
查看 GPU 信息
在 LM Studio 的设置页面中,可以查看当前系统的 GPU 信息:
Settings → Hardware Info
示例输出:
┌─────────────────────────────────────┐
│ Hardware Information │
├─────────────────────────────────────┤
│ GPU: NVIDIA GeForce RTX 4070 │
│ VRAM: 12 GB │
│ CUDA: 12.4 │
│ Driver: 551.86 │
│ CPU: AMD Ryzen 7 7800X3D │
│ RAM: 32 GB DDR5 │
│ Metal: N/A (非 macOS) │
└─────────────────────────────────────┘
GPU Offloading 配置
GPU Offloading 是指将模型的部分或全部层(layer)加载到 GPU 上运行,以提升推理速度。
参数说明:
├── n_gpu_layers = 0 → 完全使用 CPU
├── n_gpu_layers = 20 → 部分层使用 GPU(混合模式)
└── n_gpu_layers = 99 → 尽可能全部使用 GPU
选择建议:
├── VRAM 充足(≥ 模型大小)→ 设置为 99(全部 GPU)
├── VRAM 不足 → 设置为部分值(如模型一半层数)
└── 无独立显卡 → 设置为 0(纯 CPU)
GPU 层数计算参考
| 模型参数量 | 模型层数 | Q4_K_M VRAM 需求 | 建议 n_gpu_layers |
|---|
| 3B | 32 | ~2.5 GB | 99(12GB+ 显卡) |
| 7B | 32 | ~5 GB | 99(12GB+ 显卡) |
| 13B | 40 | ~9 GB | 99(16GB+ 显卡) |
| 34B | 60 | ~22 GB | 部分 offload |
| 70B | 80 | ~42 GB | 部分 offload |
NVIDIA GPU 配置示例
# 确认 NVIDIA 驱动和 CUDA 版本
nvidia-smi
# 输出示例:
# +-----------------------------------------------------------------------------+
# | NVIDIA-SMI 551.86 Driver Version: 551.86 CUDA Version: 12.4 |
# |-------------------------------+----------------------+----------------------+
# | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
# | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
# |===============================+======================+======================|
# | 0 NVIDIA GeForce ... Off | 00000000:01:00.0 On | N/A |
# | 0% 35C P8 10W / 200W | 512MiB / 12282MiB | 0% Default |
# +-------------------------------+----------------------+----------------------+
Apple Silicon 配置
macOS (M1/M2/M3/M4) 特点:
├── 统一内存架构:GPU 和 CPU 共享内存
├── Metal 加速:自动启用,无需额外配置
├── 内存优势:M1 Pro 16GB → 可用 ~14GB 给模型
└── 性能特点:内存带宽大,适合大模型推理
注意事项:
├── macOS 会自动管理 Metal 加速
├── 在 LM Studio 中无需手动设置 GPU layers
└── 统一内存意味着 RAM 和 VRAM 是同一个池
AMD GPU 配置
Linux (AMD ROCm):
# 确认 ROCm 安装
rocminfo
# 设置环境变量(如果需要)
export HSA_OVERRIDE_GFX_VERSION=10.3.0 # 根据你的 GPU 调整
Windows (AMD):
├── LM Studio 使用 Vulkan 后端支持 AMD GPU
├── 确保 Adrenalin 驱动为最新版本
└── 在 Settings 中确认 GPU 被识别
2.7 验证安装
基本功能测试
验证清单:
□ LM Studio 能正常启动
□ 能搜索到模型
□ 能下载模型(选择一个小模型,如 1-3B)
□ 能加载模型并在聊天界面对话
□ GPU 信息显示正确(如果有独立显卡)
□ 本地服务器能启动并响应请求
API 服务器测试
# 1. 在 LM Studio 中启动 Local Server(左侧 🖥️ 图标)
# 2. 选择一个已下载的模型
# 3. 点击 "Start Server"
# 测试 API 是否正常
curl http://localhost:1234/v1/models
# 预期输出:
# {
# "data": [
# {
# "id": "qwen2.5-7b-instruct",
# "object": "model",
# ...
# }
# ]
# }
# 测试聊天补全
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5-7b-instruct",
"messages": [
{"role": "user", "content": "Hello, say hi in Chinese"}
]
}'
2.8 常见安装问题
| 问题 | 原因 | 解决方案 |
|---|
| 启动黑屏 | GPU 驱动过旧 | 更新显卡驱动到最新版本 |
| 下载速度慢 | 网络连接 Hugging Face 慢 | 使用代理或镜像站 |
| 找不到 GPU | 驱动未正确安装 | 重新安装 GPU 驱动 |
| 磁盘空间不足 | 模型存储路径空间不够 | 更改模型路径到大容量磁盘 |
| Linux 权限问题 | AppImage 权限不足 | chmod +x 后执行 |
2.9 本章小结
| 步骤 | 内容 |
|---|
| 下载安装 | 从官网下载对应平台的安装包 |
| 路径配置 | 设置模型存储路径(大容量 SSD) |
| 界面熟悉 | 了解五个主要功能区域 |
| 模型下载 | 搜索并下载适合你硬件的模型 |
| GPU 配置 | 确认 GPU 识别,设置 offload 层 |
| 验证测试 | 通过聊天和 API 测试确认安装成功 |
扩展阅读