Ollama 原生安装与“破限版”模型使用指南 (Windows/Mac)
想要在本地运行大模型,拥有一个断网也能用的私人 AI 助手?Ollama 是目前最强大的选择,而且它自带了原生的交互界面,无需安装任何额外的第三方软件即可直接使用。
本文将带你一步步完成安装,并教你如何挖掘那些**“无拘无束”**的特殊版本模型。
🛠️ 第一步:下载与安装
无论你是 Windows 还是 Mac 用户,起点都是官网。
🌐 官方下载地址:
https://ollama.com
🪟 Windows 用户
Ollama 的 Windows 版本非常成熟,安装过程和安装其他软件一样简单。
下载:在官网点击
Download for Windows,下载OllamaSetup.exe。安装:双击运行,点击
Install。验证:安装完成后,任务栏右下角会出现 羊驼图标。
按
Win + R,输入
cmd打开命令提示符,输入ollama --version。如果显示版本号,即为成功。
🍎 macOS 用户
如果你使用的是 M1/M2/M3/M4 芯片 的 Mac,体验会非常丝滑。
下载:在官网点击
Download for macOS。安装:解压 zip 文件,将
Ollama.app拖入 "应用程序" 文件夹。运行:双击打开,按照提示操作。完成后顶部菜单栏会出现小羊驼图标。
打开 终端 (Terminal),输入
ollama --version验证。
🛒 第二步:模型选择与下载 (配合原生界面)
Ollama 自带一个非常简洁高效的命令行前端 (Terminal Interface)。我们只需要去官网挑选好“大脑”,然后通过命令直接把模型“拉”进这个界面里。
1. 挑选你的“大脑”
Ollama 的原生界面看不到模型列表,我们需要先去官网“进货”。
访问模型库:点击官网右上角的 Models (或访问
)。ollama.com/library 搜索技巧 (高能预警):
如果你想要普通的模型,直接搜模型的名字,例如deepseek。
如果你想要“解除限制”的模型:请在搜索框输入关键词
abliterated(去除限制) 或uncensored(无审查)。
获取命令:点进你选中的模型页面,复制右侧的命令(例如
ollama run huihui-ai/abliterated)。
⚠️ 避坑指南:你的电脑能不能跑?
在复制命令之前,请务必检查你的硬件配置,否则原生界面会直接卡死:
🪟 Windows 用户:
核心看显存 (VRAM)。原则:显卡显存 > 模型文件大小。
如果没有独显,则需要:系统剩余内存 > 模型文件大小。
🍎 Mac 用户:
核心看系统内存。原则:系统剩余内存 > 模型文件大小。
注意:macOS 系统本身会占用几 GB 内存,请预留空间。
如果你不知道怎么选我这里给你准备了一个最小的破限模型,复制下方命令粘贴到终端内
💬 第三步:回到原生界面,Have Fun
一切准备就绪,我们直接使用 Ollama 的原生交互模式开始对话。
1. 启动与下载
回到你的 Windows 命令行 (CMD/PowerShell) 或 Mac 终端 (Terminal),粘贴刚才在官网复制的命令,然后回车。
如果是第一次运行该模型,系统会自动开始下载(你会看到进度条)。
下载完成后,界面会自动进入对话模式(出现
>>>提示符)。
2. 开始对话
现在,你已经处于 Ollama 的原生前端里了。
你可以直接输入中文和它聊天。
如果你下载的是
abliterated版本,你会发现它回答问题非常直爽,没有任何说教。
常用快捷键:
退出对话:输入
/bye或者按Ctrl + D。查看已装模型:在命令行输入
ollama list。
🚀 极简指南:Ollama 原生安装与“破限版”模型
想要在本地运行大模型,拥有一个断网也能用的私人 AI 助手?Ollama 是目前最强大的选择。本指南将带你完成安装,并教你如何使用原生界面体验无限制版模型。
🛠️ 第一步:下载与安装
无论你是 Windows 还是 Mac 用户,起点都是官网。
🌐 官方下载地址: https://ollama.com
Windows用户
- 在官网点击 Download for Windows,下载
OllamaSetup.exe。 - 双击运行,点击 Install 完成安装。
- 验证:按
Win + R,输入cmd,在黑框中输入下面命令,出现版本号即成功。
ollama --version
macOS用户 (M1/M2/M3/M4)
- 在官网点击 Download for macOS。
- 解压并将
Ollama.app拖入 "应用程序" 文件夹。 - 双击运行,顶部菜单栏出现小羊驼图标即成功。
🛒 第二步:去官网“进货” (寻找破限版)
Ollama 的原生界面非常简洁,我们需要先去官网挑选好“大脑”,复制命令。
- 访问模型库: https://ollama.com/library
- 💡 隐藏玩法:如果你想要无拘无束、没有说教的模型,请在搜索框输入关键词:
abliterated (去除限制) 或者 uncensored (无审查) - 获取命令:进入模型详情页,复制右侧命令(如
ollama run xxx)。
下载前请务必检查硬件配置,否则电脑会卡死:
- Windows 用户:主要看显存 (VRAM)。
原则:显存 > 模型文件大小 (如无独显,则需内存 > 模型大小)。 - Mac 用户:主要看系统内存。
原则:系统剩余内存 > 模型文件大小。
💬 第三步:回到原生界面,Have Fun
不需要安装任何第三方软件,我们直接使用 Ollama 的原生终端界面。
1. 启动与下载
打开终端 (Terminal) 或 命令提示符 (CMD),粘贴刚才在官网复制的命令并回车:
ollama run huihui-ai/abliterated:latest
注意:首次运行会自动下载模型,请耐心等待进度条走完。
2. 开始对话
下载完成后,你会看到 >>> 提示符。现在你可以直接用中文和它聊天了!
- 交互体验:原生界面反应最快,且无隐私泄露风险。
- 常用指令:
- 退出对话:输入
/bye或按Ctrl + D - 查看已装模型:输入
ollama list
- 退出对话:输入







评论