日期
类型
状态
链接
摘要
标签
分类
图标
密码
URL
docker官网
安装
Windows安装
- 安装 Ollama:
- 设置模型路径:
- 查看已安装模型:
- 启动模型:
- 卸载模型:
- 设置模型路径:
- 如果需要更改模型的存储路径,可以通过设置环境变量
OLLAMA_MODELS来指定。例如:


docker部署ollama
以管理员运行powershell;或者直接手动添加,打开编辑系统环境变量-环境变量-新建,
开放其他机器访问api
第一行输入
OLLAMA_HOST,第二行输入0.0.0.0:11434

部署open_webui
https://github.com/open-webui/open-webui
- 使用nvidia gpu
- 普通运行
- 镜像站

本地加载模型
https://blog.csdn.net/m0_60594197/article/details/145595538
本地加载模型- 测试指标
https://m.bilibili.com/opus/1029329495642865689
模型文件
https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B/files
参考
https://mp.weixin.qq.com/s/Zz7Rul7DtA0_rmwyUJMSjw
【轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI-哔哩哔哩】
https://b23.tv/OYfTrhe
https://www.cnblogs.com/zafu/p/18699353
DeepSeek-R1-32B
CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
内存: 64GB+硬盘: 30GB+显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
场景:高精度专业领域
任务(医疗/法律咨询)多模态任务预处理(需结合其他框架)
4-bit 量化后的显存占用 每个参数在 4-bit 量化后占用 0.5 字节。 32B 参数的显存占用为:

其他
CPU only
本地运行 LobeChat
假设你已经在本地
显存需求11434 端口启动了 Ollama 服务。运行以下 Docker 命令行,在本地启动 LobeChat:- 作者:Wpenga
- 链接:https://wpeng.dpdns.org/article/e5bdcd38-b761-43e8-a96b-eecbece632c5
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。

