Mac用Ollama本地跑通大模型保姆级教程
这篇教程为Mac用户提供了一份Ollama本地大模型部署的完整指南。从安装Ollama、下载模型到参数调整和API调用,教程详细介绍了每个步骤的操作方法,特别针对32G内存的Mac进行了优化配置建议。文章重点推荐了Qwen3.5-Flash-35B模型,并提供了VSCode和JetBrains IDE的集成方法,让AI可以直接辅助编程工作。教程强调零代码基础即可上手,保证隐私安全的同时实现离线AI
目录
大家好,这篇是给纯新手的Ollama本地大模型部署教程,全程不用配复杂环境、不用懂代码,跟着点、跟着输命令就能在自己电脑上离线跑AI大模型,隐私安全、速度还快,适合想入门本地AI的朋友~
大家好,这篇是给纯新手的Ollama本地大模型部署教程,全程不用配复杂环境、不用懂代码,跟着点、跟着输命令就能在自己电脑上离线跑AI大模型,隐私安全、速度还快,适合想入门本地AI的朋友~
一、这篇文章能帮你解决什么?
-
零基础在Mac安装Ollama,一条命令跑大模型
-
不用云端、数据不上传,隐私更安全
-
学会下载、运行、对话、调参
-
把本地AI接到VSCode、IDEA里当编程助手
-
给出32G内存Mac最优配置,不卡机、不闪退
二、Ollama是什么?
Ollama是专门简化本地大模型运行的工具,主打一个极简:
-
不用Python、不用CUDA,一条命令装模型
-
对Mac M系列芯片深度优化,速度快一倍
-
完全本地运行,离线可用、隐私安全
-
自带模型库,通义千问、Llama、DeepSeek一键下载
-
提供API,能对接各种软件
三、第一步:安装Ollama
-
打开官网:ollama.com
-
点Download下载Mac版.dmg
-
拖进Applications文件夹
-
打开软件,按提示安装命令行工具
-
终端验证:
ollama --version
显示版本号就成功!
四、第二步:下载并运行模型(核心!)
1. 常用命令先记牢
ollama serve # 手动启动服务(一般自动开)
ollama list # 查看已下模型
ollama ps # 查看正在跑的模型
访问 http://localhost:11434 看到“Ollama is running”就对了。
2. 推荐模型(32G内存Mac)
ollama run mdq100/qwen3.5-flash:35b
-
自动下载+自动启动
-
350亿参数MoE架构,每次只激活30亿,省内存、速度快
-
量化后约20G,32G内存流畅跑
3. 怎么对话?
-
出现 >>> 就可以直接提问
-
输 /bye 退出对话
-
输 /? 看帮助命令
五、第三步:让AI更听话——参数调整(新手友好版)
不想每次都设参数,就做一个自己的专属模型:
-
导出模板
ollama show --modelfile mdq100/qwen3.5-flash:35b > Modelfile
-
编辑文件,加这些常用参数
PARAMETER temperature 0.7 # 0.3更严谨,1.2更脑洞
PARAMETER num_ctx 8192 # 记忆长度
PARAMETER num_predict 2000 # 最长回答
PARAMETER top_p 0.9 SYSTEM "你是专业编程助手,回答简洁、给代码示例"
-
创建自定义模型
ollama create my-qwen -f Modelfile
-
运行你的专属模型
ollama run my-qwen
六、第四步:用API调用本地AI(简单示例)
Ollama自带API,Python/Java/Shell都能调:
# 对话接口示例
curl http://localhost:11434/api/chat -d '{
"model": "mdq100/qwen3.5-flash:35b",
"messages": [{"role":"user","content":"你好"}]
}'
也能兼容OpenAI格式,直接替换base_url就行。
七、第五步:在IDE里用本地AI写代码(超实用)
VSCode(插件安装)
-
装Continue插件
-
改配置文件
config.json
models:
- name: Qwen3.5-Flash-35B
provider: ollama
model: mdq100/qwen3.5-flash:35b
apiBase: http://localhost:11434
-
重启VSCode,侧边栏直接对话、改代码、补全
JetBrains IDE(IDEA/PyCharm)
-
装Devoxx Genie插件,配置Ollama地址和模型名
八、新手必看:避坑+最佳实践
-
32G内存最优:跑35B Q4量化版本最稳
-
必开优化:
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_KV_CACHE_TYPE=q8_0
export OLLAMA_KEEP_ALIVE=30m
九、总结
这篇全程小白视角,把Ollama从安装→跑模型→调参→IDE集成讲透了,不用懂复杂原理,照着做就能拥有自己的离线本地大模型,学习、编程、日常问答都能用,还不用担心隐私泄露~
适合人群:Mac用户、AI新手、不想用云端AI的开发者、学生党
建议收藏,跟着一步步操作,一次成功,欢迎互相学习交流!
更多推荐





所有评论(0)