强曰为道

与天地相似,故不违。知周乎万物,而道济天下,故不过。旁行而不流,乐天知命,故不忧.
文档目录

02 - 安装与配置

安装与配置

从下载安装到完成基础配置,快速上手 LM Studio。

2.1 系统要求

硬件要求

组件最低要求推荐配置
CPUx86_64 / ARM64多核处理器(8 核+)
RAM8 GB16 GB+(运行 7B 模型)
磁盘2 GB(应用)+ 模型空间SSD,50 GB+ 可用空间
GPU(可选)支持 Vulkan 的显卡NVIDIA RTX 3060 12GB+ / Apple M1+

软件要求

平台最低版本
WindowsWindows 10 (64-bit)
macOSmacOS 12 (Monterey)
LinuxUbuntu 20.04 / Fedora 38 / Arch Linux

GPU 驱动要求

GPU 类型驱动要求
NVIDIA驱动版本 535+,CUDA 12+
AMD (Windows)Adrenalin 驱动最新版
AMD (Linux)ROCm 5.7+ 或 Vulkan
Apple SiliconmacOS 12+(Metal 内置)

2.2 下载与安装

Windows 安装

步骤:
1. 访问 https://lmstudio.ai/
2. 点击 "Download for Windows"
3. 运行下载的 .exe 安装包
4. 按照安装向导完成安装
5. 首次启动时会询问模型存储路径
# 可选:使用 winget 安装(如果可用)
winget install LMStudio.LMStudio

# 或使用 scoop
scoop install lm-studio

macOS 安装

步骤:
1. 访问 https://lmstudio.ai/
2. 点击 "Download for Mac"
3. 打开下载的 .dmg 文件
4. 将 LM Studio 拖入 Applications 文件夹
5. 首次打开时,右键选择 "打开"(绕过 Gatekeeper)
# 可选:使用 Homebrew 安装
brew install --cask lm-studio

Linux 安装

# 方法一:AppImage(推荐)
# 1. 从官网下载 .AppImage 文件
chmod +x LM-Studio-*.AppImage
./LM-Studio-*.AppImage

# 方法二:deb 包(Ubuntu/Debian)
sudo dpkg -i lm-studio-*.deb
sudo apt-get install -f  # 修复依赖

# 方法三:rpm 包(Fedora/RHEL)
sudo rpm -i lm-studio-*.rpm

# 方法四:AUR(Arch Linux)
yay -s lm-studio-bin

Linux GPU 支持配置

# NVIDIA GPU - 确认驱动安装
nvidia-smi
# 应显示驱动版本 535+ 和 CUDA 版本

# 如果使用 Flatpak 版本,需要权限
flatpak override --user --filesystem=home com.lmstudio.LMStudio

# 检查 Vulkan 支持(AMD / Intel GPU)
vulkaninfo | grep "GPU"

2.3 首次启动配置

设置模型存储路径

首次启动 LM Studio 时,需要指定模型存储目录。模型文件通常较大(4-70 GB),建议:

推荐路径:
├── Windows: D:\lm-studio-models(非系统盘)
├── macOS:   ~/lm-studio-models 或外接 SSD
└── Linux:   ~/lm-studio-models 或 /data/lm-studio-models

注意:
- 确保目标磁盘有足够空间(建议 50 GB+)
- SSD 会显著加快模型加载速度
- 路径中避免包含中文或特殊字符

界面语言与外观

LM Studio 支持明暗主题切换,界面语言以英文为主。建议初次使用时:

Settings(设置):
├── Model Storage Path: 设置模型下载路径
├── Hardware Info: 查看 GPU / CPU 信息
├── Server Settings: 配置 API 服务器默认参数
└── Appearance: 切换明暗主题

2.4 界面介绍

LM Studio 的界面分为以下几个主要区域:

主界面布局

┌──────────────────────────────────────────────────────────┐
│  LM Studio                              [−] [□] [×]     │
├────────┬─────────────────────────────────────────────────┤
│        │                                                  │
│  🏠    │         当前活动区域                               │
│  首页   │                                                  │
│        │    ┌─────────────────────────────────────┐       │
│  💬    │    │                                     │       │
│  聊天   │    │     聊天界面 / 模型搜索 / 服务器      │       │
│        │    │                                     │       │
│  🔍    │    │                                     │       │
│  搜索   │    │                                     │       │
│        │    └─────────────────────────────────────┘       │
│  🖥️    │                                                  │
│  服务器  │                                                  │
│        │    ┌─────────────────────────────────────┐       │
│  ⚙️    │    │ 模型选择: [当前模型 ▾]  参数: [...]   │       │
│  设置   │    └─────────────────────────────────────┘       │
│        │                                                  │
├────────┴─────────────────────────────────────────────────┤
│  状态栏: GPU 状态 │ 内存使用 │ 服务器状态                    │
└──────────────────────────────────────────────────────────┘

各功能区域说明

区域功能说明
左侧导航栏页面切换首页、聊天、搜索、服务器、设置
主内容区核心操作根据选中的功能显示不同内容
顶部工具栏模型选择选择当前使用的模型
底部状态栏系统信息显示 GPU、内存、服务器状态

2.5 模型搜索与下载

搜索模型

操作步骤:
1. 点击左侧导航栏的 🔍 "搜索" 图标
2. 在搜索框中输入模型名称(如 "qwen2.5")
3. 浏览搜索结果,选择合适的版本
4. 点击下载按钮开始下载

搜索技巧

搜索语法:
├── 关键词搜索: qwen2.5
├── 指定参数量: qwen2.5-7b
├── 指定量化: qwen2.5 q4_k_m
├── 指定用途: qwen2.5-instruct
└── 组合搜索: qwen2.5-7b-instruct q4

筛选条件:
├── 文件格式: GGUF(LM Studio 仅支持 GGUF)
├── 参数量: 1B / 3B / 7B / 13B / 70B
└── 量化类型: Q4_K_M / Q5_K_M / Q8_0 等

模型命名规则解读

示例:Qwen2.5-7B-Instruct-Q4_K_M.gguf

Qwen2.5     → 模型系列名称
7B          → 参数量(70 亿参数)
Instruct    → 经过指令微调,适合对话
Q4_K_M      → 量化级别(4-bit,K-quant,Medium)
.gguf       → 文件格式(GGML Universal Format)

选择下载版本的建议

你的 RAM推荐模型大小推荐量化
8 GB≤ 3BQ4_K_M
16 GB≤ 7BQ4_K_M / Q5_K_M
32 GB≤ 13BQ5_K_M / Q8_0
64 GB≤ 34BQ4_K_M / Q5_K_M
128 GB≤ 70BQ4_K_M

2.6 GPU 配置

查看 GPU 信息

在 LM Studio 的设置页面中,可以查看当前系统的 GPU 信息:

Settings → Hardware Info

示例输出:
┌─────────────────────────────────────┐
│ Hardware Information                │
├─────────────────────────────────────┤
│ GPU: NVIDIA GeForce RTX 4070       │
│ VRAM: 12 GB                        │
│ CUDA: 12.4                         │
│ Driver: 551.86                     │
│ CPU: AMD Ryzen 7 7800X3D          │
│ RAM: 32 GB DDR5                    │
│ Metal: N/A (非 macOS)              │
└─────────────────────────────────────┘

GPU Offloading 配置

GPU Offloading 是指将模型的部分或全部层(layer)加载到 GPU 上运行,以提升推理速度。

参数说明:
├── n_gpu_layers = 0   → 完全使用 CPU
├── n_gpu_layers = 20  → 部分层使用 GPU(混合模式)
└── n_gpu_layers = 99  → 尽可能全部使用 GPU

选择建议:
├── VRAM 充足(≥ 模型大小)→ 设置为 99(全部 GPU)
├── VRAM 不足               → 设置为部分值(如模型一半层数)
└── 无独立显卡              → 设置为 0(纯 CPU)

GPU 层数计算参考

模型参数量模型层数Q4_K_M VRAM 需求建议 n_gpu_layers
3B32~2.5 GB99(12GB+ 显卡)
7B32~5 GB99(12GB+ 显卡)
13B40~9 GB99(16GB+ 显卡)
34B60~22 GB部分 offload
70B80~42 GB部分 offload

NVIDIA GPU 配置示例

# 确认 NVIDIA 驱动和 CUDA 版本
nvidia-smi

# 输出示例:
# +-----------------------------------------------------------------------------+
# | NVIDIA-SMI 551.86       Driver Version: 551.86       CUDA Version: 12.4     |
# |-------------------------------+----------------------+----------------------+
# | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
# | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
# |===============================+======================+======================|
# |   0  NVIDIA GeForce ...  Off  | 00000000:01:00.0  On |                  N/A |
# |  0%   35C    P8    10W / 200W |    512MiB / 12282MiB |      0%      Default |
# +-------------------------------+----------------------+----------------------+

Apple Silicon 配置

macOS (M1/M2/M3/M4) 特点:
├── 统一内存架构:GPU 和 CPU 共享内存
├── Metal 加速:自动启用,无需额外配置
├── 内存优势:M1 Pro 16GB → 可用 ~14GB 给模型
└── 性能特点:内存带宽大,适合大模型推理

注意事项:
├── macOS 会自动管理 Metal 加速
├── 在 LM Studio 中无需手动设置 GPU layers
└── 统一内存意味着 RAM 和 VRAM 是同一个池

AMD GPU 配置

Linux (AMD ROCm):
# 确认 ROCm 安装
rocminfo

# 设置环境变量(如果需要)
export HSA_OVERRIDE_GFX_VERSION=10.3.0  # 根据你的 GPU 调整

Windows (AMD):
├── LM Studio 使用 Vulkan 后端支持 AMD GPU
├── 确保 Adrenalin 驱动为最新版本
└── 在 Settings 中确认 GPU 被识别

2.7 验证安装

基本功能测试

验证清单:
□ LM Studio 能正常启动
□ 能搜索到模型
□ 能下载模型(选择一个小模型,如 1-3B)
□ 能加载模型并在聊天界面对话
□ GPU 信息显示正确(如果有独立显卡)
□ 本地服务器能启动并响应请求

API 服务器测试

# 1. 在 LM Studio 中启动 Local Server(左侧 🖥️ 图标)
# 2. 选择一个已下载的模型
# 3. 点击 "Start Server"

# 测试 API 是否正常
curl http://localhost:1234/v1/models

# 预期输出:
# {
#   "data": [
#     {
#       "id": "qwen2.5-7b-instruct",
#       "object": "model",
#       ...
#     }
#   ]
# }
# 测试聊天补全
curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b-instruct",
    "messages": [
      {"role": "user", "content": "Hello, say hi in Chinese"}
    ]
  }'

2.8 常见安装问题

问题原因解决方案
启动黑屏GPU 驱动过旧更新显卡驱动到最新版本
下载速度慢网络连接 Hugging Face 慢使用代理或镜像站
找不到 GPU驱动未正确安装重新安装 GPU 驱动
磁盘空间不足模型存储路径空间不够更改模型路径到大容量磁盘
Linux 权限问题AppImage 权限不足chmod +x 后执行

2.9 本章小结

步骤内容
下载安装从官网下载对应平台的安装包
路径配置设置模型存储路径(大容量 SSD)
界面熟悉了解五个主要功能区域
模型下载搜索并下载适合你硬件的模型
GPU 配置确认 GPU 识别,设置 offload 层
验证测试通过聊天和 API 测试确认安装成功

扩展阅读