Lazy loaded image
Ollama部署Deepseek
字数 465阅读时长 2 分钟
2024-7-2
2025-3-28
日期
类型
状态
链接
摘要
标签
分类
图标
密码
URL

docker官网

安装

Windows安装

  1. 安装 Ollama
    1. 设置模型路径
      1. 查看已安装模型
        1. 启动模型
          1. 卸载模型
            1. 设置模型路径
                • 如果需要更改模型的存储路径,可以通过设置环境变量 OLLAMA_MODELS 来指定。例如:
            notion image
            notion image

            docker部署ollama

            以管理员运行powershell;或者直接手动添加,打开编辑系统环境变量-环境变量-新建,

            开放其他机器访问api

            第一行输入OLLAMA_HOST,第二行输入0.0.0.0:11434
            notion image
            notion image

            部署open_webui

            https://github.com/open-webui/open-webui
            • 使用nvidia gpu
            • 普通运行
            • 镜像站
            notion image

            本地加载模型

            https://blog.csdn.net/m0_60594197/article/details/145595538
            本地加载模型
            • 测试指标
            https://m.bilibili.com/opus/1029329495642865689

            模型文件

            https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B/files
             

            参考

            https://mp.weixin.qq.com/s/Zz7Rul7DtA0_rmwyUJMSjw
             
            【轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI-哔哩哔哩】
            https://b23.tv/OYfTrhe
            📌
            https://www.cnblogs.com/zafu/p/18699353
            DeepSeek-R1-32B
            CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
            内存: 64GB+硬盘: 30GB+显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
            场景:高精度专业领域
            任务(医疗/法律咨询)多模态任务预处理(需结合其他框架)
            4-bit 量化后的显存占用 每个参数在 4-bit 量化后占用 0.5 字节。 32B 参数的显存占用为:
            notion image

            其他

            CPU only

            本地运行 LobeChat

            假设你已经在本地 11434 端口启动了 Ollama 服务。运行以下 Docker 命令行,在本地启动 LobeChat:
            显存需求
            上一篇
            IP Scanner扫描工具
            下一篇
            小米手机开发者选项