无忧启动论坛

 找回密码
 注册
搜索
系统gho:最纯净好用系统下载站投放广告、加入VIP会员,请联系 微信:wuyouceo
楼主: 天风
打印 上一主题 下一主题

五分钟搞定Deepseek本地化部署,轻松拿捏不求人!

    [复制链接]
91#
发表于 2025-2-6 14:28:12 | 只看该作者
回复

使用道具 举报

92#
发表于 2025-2-6 15:09:03 | 只看该作者
谢谢分享
回复

使用道具 举报

93#
发表于 2025-2-6 16:35:50 | 只看该作者
谢谢分享
回复

使用道具 举报

94#
发表于 2025-2-6 18:46:41 | 只看该作者
民用版本吧。
有人的地方就有网络,有网络的地方就有AI。
回复

使用道具 举报

95#
发表于 2025-2-6 19:55:44 | 只看该作者
模型大小配置参考表格,这个在哪里?让我这个不知深浅的小白试试看看
回复

使用道具 举报

96#
发表于 2025-2-6 20:55:29 | 只看该作者
谢谢分享安装方法
回复

使用道具 举报

97#
发表于 2025-2-7 07:08:57 | 只看该作者
本帖最后由 p3506 于 2025-2-7 07:12 编辑
天风 发表于 2025-2-6 08:46
需要退出OLLAMA然后再设置变量,重新启动OLLAMA

我刚才试了,设置变量后需要重启电脑才有效,
回复

使用道具 举报

98#
发表于 2025-2-7 08:51:39 | 只看该作者
收藏使用
回复

使用道具 举报

99#
发表于 2025-2-7 09:06:17 | 只看该作者
收藏了,有台32G内存和P9000显卡的电脑,装上试试
回复

使用道具 举报

100#
发表于 2025-2-7 09:48:56 | 只看该作者
双说是免费,一直提示要激活许可证
回复

使用道具 举报

101#
发表于 2025-2-7 09:57:24 | 只看该作者
谢谢分享
回复

使用道具 举报

102#
发表于 2025-2-7 10:12:08 | 只看该作者
分平台配置建议
以下按模型规模和平台分类,提供 最低配置 和 推荐配置。

1.5B 模型
平台

最低配置

推荐配置

Windows

- CPU: Intel i5 / Ryzen 5

- CPU: Intel i7 / Ryzen 7

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA GTX 1650 (4GB)

- GPU: RTX 3060 (12GB)

macOS

- M1/M2 芯片(8GB 统一内存)

- M1 Pro/Max 或 M3 芯片(16GB+)

Linux

- CPU: 4 核

- CPU: 8 核

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA T4 (16GB)

- GPU: RTX 3090 (24GB)

7B/8B 模型
平台

最低配置

推荐配置

Windows

- CPU: Intel i7 / Ryzen 7

- CPU: Intel i9 / Ryzen 9

- RAM: 16GB

- RAM: 32GB

- GPU: RTX 3060 (12GB)

- GPU: RTX 4090 (24GB)

macOS

- M2 Pro/Max(32GB 统一内存)

- M3 Max(64GB+ 统一内存)

Linux

- CPU: 8 核

- CPU: 12 核

- RAM: 32GB

- RAM: 64GB

- GPU: RTX 3090 (24GB)

- 多卡(如 2x RTX 4090)

14B 模型
平台

最低配置

推荐配置

Windows

- GPU: RTX 3090 (24GB)

- GPU: RTX 4090 + 量化优化

- RAM: 32GB

- RAM: 64GB

macOS

- M3 Max(64GB+ 统一内存)

- 仅限量化版本,性能受限

Linux

- GPU: 2x RTX 3090(通过 NVLink)

- 多卡(如 2x RTX 4090 48GB)

- RAM: 64GB

- RAM: 128GB

32B 模型
平台

最低配置

推荐配置

Windows

- 不推荐(显存不足)

- 需企业级 GPU(如 RTX 6000 Ada)

macOS

- 无法本地部署(硬件限制)

- 云 API 调用

Linux

- GPU: 4x RTX 4090(48GB 显存)

- 专业卡(如 NVIDIA A100 80GB)

- RAM: 128GB

- RAM: 256GB + PCIe 4.0 SSD
回复

使用道具 举报

103#
发表于 2025-2-7 10:12:11 | 只看该作者
现在本地部署的可以联网嘛
回复

使用道具 举报

104#
发表于 2025-2-7 10:12:40 | 只看该作者
感谢分享
回复

使用道具 举报

105#
发表于 2025-2-7 10:55:29 | 只看该作者
dfw9 发表于 2025-2-6 09:11
请提供一下不卡的硬件配置,以便对照参考。

我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块)

点评

楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?  详情 回复 发表于 2025-2-8 11:28
回复

使用道具 举报

106#
发表于 2025-2-7 11:10:31 | 只看该作者
感谢分享
回复

使用道具 举报

107#
发表于 2025-2-7 11:20:05 | 只看该作者
我在本地安装后试用发现本地版的1.5b就是人工智障,建议用网络上免费的满血版。我要的不多,只是想要一个智能问答知识库,把我说的语音智能识别为文字记录到知识库,把我的需求通过语音从知识库里快速优选后用语音和文字告诉我。最好能做成小爱同学那样的问答型。
回复

使用道具 举报

108#
发表于 2025-2-7 11:28:21 | 只看该作者
看起来很难
回复

使用道具 举报

109#
发表于 2025-2-8 10:27:43 | 只看该作者
感谢分享,打算试一下
回复

使用道具 举报

110#
发表于 2025-2-8 10:39:58 | 只看该作者
感谢分享
回复

使用道具 举报

111#
发表于 2025-2-8 11:01:38 | 只看该作者
我就在线用
回复

使用道具 举报

112#
发表于 2025-2-8 11:27:37 | 只看该作者
这个R1是满血的吗
回复

使用道具 举报

113#
发表于 2025-2-8 11:28:39 | 只看该作者
15126222223 发表于 2025-2-7 10:55
我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块)

楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

点评

我一个人使用。  详情 回复 发表于 2025-2-8 12:20
回复

使用道具 举报

114#
发表于 2025-2-8 11:32:10 | 只看该作者
刚刚想用deepseek询问一个生活中的常识,结果告诉我服务器繁忙,请稍后再试。(再牛的算法也架不住中国人多啊),所以搭本地服务局域网内共享使用一直是我的理想配置。
回复

使用道具 举报

115#
发表于 2025-2-8 11:40:05 | 只看该作者
感谢分享,准备试试
回复

使用道具 举报

116#
发表于 2025-2-8 12:20:01 | 只看该作者
hkl7366 发表于 2025-2-8 11:28
楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

我一个人使用。
回复

使用道具 举报

117#
发表于 2025-2-8 14:15:05 | 只看该作者
谢谢分享!
回复

使用道具 举报

118#
发表于 2025-2-8 17:13:12 | 只看该作者
谢谢楼主分享!
回复

使用道具 举报

119#
发表于 2025-2-8 22:10:14 | 只看该作者
感谢楼主分享
回复

使用道具 举报

120#
发表于 2025-2-8 22:49:17 | 只看该作者
这个太大了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|捐助支持|无忧启动 ( 闽ICP备05002490号-1 )

闽公网安备 35020302032614号

GMT+8, 2025-2-20 05:13

Powered by Discuz! X3.3

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表