墨风如雪博客

  • 源码小店
  • 传家宝VPS
让AI使用变得如此简单
  1. 首页
  2. AI
  3. 正文

Mac本地部署DeepSeek蒸馏模型指南:Ollama极简手册

2025年 2月 4日 415点热度 0人点赞 0条评论

🍎 Mac本地部署DeepSeek蒸馏模型指南:Ollama极简手册

——让你的Mac变身“AI小钢炮”💥


一、准备工作:Mac的“硬件咖啡豆研磨器”

1.1 最低配置要求

组件 入门级(7B模型) 旗舰级(33B模型)
芯片 M1(2020款) M2 Pro/Max(2023款)
内存 8GB(需关闭Chrome) 32GB(可边跑AI边刷剧)
硬盘 15GB空间(留点地方给猫片) 100GB+(模型全家桶爱好者)
系统 macOS Monterey 12.3+ Ventura 13.1+(推荐)

📌 冷知识:DeepSeek蒸馏模型=原模型的"精华萃取版",体积缩小40%,性能保留85%!

1.2 必备软件

  • Ollama:模型管理神器(官网)
  • Homebrew:Mac界的软件百宝箱
  • Python 3.10+:建议通过Miniforge安装ARM原生版
    iShot_2025-02-04_10.43.54

二、安装步骤:3步召唤AI小精灵🧞

Step 1:安装Ollama(比泡面还快)

# 一键安装(终端输入)  
/bin/bash -c "$(curl -fsSL https://ollama.ai/install.sh)"  

# 验证安装(看到版本号就算成功)  
ollama --version  
# 输出示例:ollama version 0.1.12 darwin/arm64  

Step 2:下载DeepSeek模型(选你爱的口味)

# 基础编程模型(程序员必装)  
ollama pull deepseek-coder-7b  

# 聊天模型(含互联网最新知识)  
ollama pull deepseek-chat-7b  

# 国内加速技巧(替换镜像源)  
OLLAMA_MODELS=https://mirror.example.com ollama pull deepseek-math-7b  

Step 3:启动对话(和AI说“嗨”)

# 基础模式  
ollama run deepseek-chat-7b "用东北话解释量子纠缠"  

# 高级模式(开启GPU加速)  
OLLAMA_GPU_LAYER=metal ollama run deepseek-coder-7b  

三、模型对比:找到你的“灵魂伴侣”🤖

模型名称 内存占用 硬盘需求 推理速度 擅长领域
1.3B 2.4GB 0.8GB ⚡⚡⚡⚡ 数学计算/快速问答
7B 8GB 4GB ⚡⚡⚡ 代码生成/日常对话
13B 16GB 8GB ⚡⚡ 创意写作/专业咨询
33B 32GB+ 16GB ⚡ 论文润色/复杂推理

💡 选择建议:

  • M1用户:7B模型是甜蜜点
  • M2 Pro用户:可挑战13B模型
  • 内存焦虑症患者:试试--num-gpu 50%限制显存

四、黄金搭档软件:生产力开挂套装🚀

4.1 交互神器

  • Chatbox:颜值爆表的聊天界面

    brew install --cask chatbox  
    iShot_2025-02-04_10.47.22
  • Ollama WebUI:浏览器随时访问
    docker run -d -p 3000:3000 -v ollama:/root/.ollama -e OLLAMA_HOST=127.0.0.1:11434 ghcr.io/ollama-webui/ollama-webui:main  
06

4.2 开发神器

  • VS Code插件:
    • Continue:代码自动补全
    • Ollama Assistant:侧边栏直接对话

4.3 效率神器

  • Alfred Workflow:快捷键秒呼AI
    iShot_2025-02-04_10.49.54
  • PopClip扩展:划词即刻提问

五、本地部署的5大核弹级优势💣

5.1 隐私安全

  • 你的聊天记录不会成为训练数据(想象和AI吐槽老板的内容被上传...😱)

5.2 离线王者

# 飞机上写代码成就达成!  
sudo ifconfig en0 down && ollama run deepseek-coder-7b  

5.3 定制自由

  • 魔改提示词:
    SYSTEM_PROMPT = "你现在是精通阴阳怪气的北京出租车司机"  
  • 加载私人知识库:
    ollama run deepseek-rag-33b --attach ~/Documents/my_knowledge.zip  

5.4 成本控制

方案 7B模型年成本
云端API ≈$720(按$0.002/1k tokens)
本地部署 $0(电费≈一杯奶茶钱)

5.5 硬件压榨

  • M系列芯片的神经网络引擎(ANE)火力全开
  • 外接显卡扩展:
    # 使用eGPU加速(AMD显卡限定)  
    OLLAMA_GPU_LAYER=rocm ollama run deepseek-13b  

六、常见问题急救包🆘

Q1:下载模型卡住怎么办?

# 国内镜像加速(任选其一)  
export OLLAMA_MODELS=https://mirror.example.com  
export OLLAMA_HOST=mirror.ghproxy.com  

Q2:内存爆炸怎么救?

# 启用4-bit量化  
ollama run deepseek-7b --quantize q4_1  

# 限制GPU使用率  
OLLAMA_GPU_UTILIZATION=50% ollama run...  

Q3:如何让AI记住对话?

# 启动时加载历史记录  
ollama run deepseek-chat-7b --history-file ~/ai_chat_history.json  

🎁 终极彩蛋:模型变身指南

# 让AI用甄嬛体写代码注释  
ollama run deepseek-coder-7b --prompt-template "说句代码注释便是极好的,倒也不负恩泽。n{{.Prompt}}"  

# 创建私人模型分身  
ollama create my-ai -f Modelfile  # 内含自定义指令  

现在,你的Mac已经解锁AI超能力!遇到问题时记住:
“重启解决90%的问题,剩下的10%需要再喝一杯咖啡☕”

如果想使用在线的R1模型 可以去硅基流动官网 申请在线API使用 在我的往期教程里面就有

可以关注我的博客 里面都是我最新的文章:我的博客 有源代码需求也可以关注我的:我的小店

本作品采用 知识共享署名 4.0 国际许可协议 进行许可
标签: 安装
最后更新:2025年 2月 4日

墨风如雪

一个热爱生活,热爱分享的程序员

打赏 点赞
< 上一篇
下一篇 >

文章评论

您需要 登录 之后才可以评论

墨风如雪

一个热爱生活,热爱分享的程序员

最新 热点 随机
最新 热点 随机
DeepSeek OCR:用'眼睛'阅读长文本,AI记忆新纪元? 告别代码苦海:Manus 1.5 让你的创意以光速落地 Anthropic Haiku 4.5:这波AI性能,我愿称之为“超值”! 美团LongCat-Audio-Codec:给语音大模型装上“顺风耳”与“巧舌” 告别无声AI视频!谷歌Veo 3.1打造沉浸式视听盛宴 Karpathy的nanochat:百元就能造ChatGPT?AI圈炸锅了!
国产大模型安全新突破:DeepSeek-R1-Safe,平衡木上的舞者10秒100MB,ChatExcel一键PPT:它真把报告变“魔法”了?深思熟虑的“终章”:DeepSeek-V3.1-Terminus,不止于“完善”英伟达Audio2Face开源:AI给虚拟角色注入灵魂告别纸上谈兵:Meta CWM让AI代码真正活起来告别指令,迎接AI同事!Kimi“OK Computer”模式震撼登场
告别显存焦虑!Google Gemma-3-27B QAT 版发布:你的 RTX 3090 也能跑顶尖大模型了! Google AI Studio免费开放Gemini 2.0 Flash Experimental画图模型:一场创意设计的革命 Anthropic Haiku 4.5:这波AI性能,我愿称之为“超值”! SpringBoot四大核心组件详解 全网最全的DeepSeek模型收集合集 全球主流云厂商齐聚! Llama 4:参数屠榜还是数据注水?AI 圈的最新‘瓜’熟了没?
标签聚合
AI spring 教程 大模型 设计模式 deepseek 算法 java

COPYRIGHT © 2023 墨风如雪博客. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang