使用 LM Studio 在 macOS 中本地运行大模型

LM Studio

本地运行大模型的工具中,LM Studio 和 Ollama 是最受欢迎的两款。在最近这一次的更新中,LM Studio 新增了对 MLX 的支持。
Ref: Mac跑大模型,首选LM Studio

选择 LM Studio 是因为自带 Chat 的 UI ,而且支持 MLX 。

不过 MLX 模型比较少,更新也慢。

MLX,是苹果公司开源的一个机器学习框架,专门为M系列芯片做了优化。

使用

下载安装后,点击左侧的搜索按钮可以下载模型

LM Stuidio

下载完成后点击顶部的 Select a model to load 就可以开始对话了。

切换语言

LM Studio UI 支持多种语言,右下角点击设置的齿轮图标,

运行速度

lmstudio-community/Qwen2.5-Coder-7B-Instruct-GGUF

占用显存 4.6GB

输出速度

1
42.12 tok/sec • 636 tokens • 0.20s to first token

14b 版本速度减半