无忧启动论坛

 找回密码
 注册
搜索

五分钟搞定Deepseek本地化部署,轻松拿捏不求人!

查看数: 5018 | 评论数: 129 | 收藏 58
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2025-2-5 16:17

正文摘要:

本帖最后由 天风 于 2025-2-10 09:41 编辑 可以免费使用的DeepSeek链接网页版:https://cloud.siliconflow.cn/i/z8TB3gng 今年春节给人最大的惊喜不是春晚而是Deepseek智能AI模型的开源,以及对漂亮国的打 ...

回复

benboba 发表于 前天 17:00
在线的现在用着也还行了
winpefk 发表于 4 天前
plutoshen 发表于 2025-2-5 16:36
数据量太大了

知道吗,cuda runner 占差不多1G,你显卡不支持 cuda 12 就把 cuda 12 runner 删了,省500M
hzz0518 发表于 4 天前
感谢分享
ylac 发表于 4 天前
连接 Ollama API 失败。这通常是由于配置错误或 Ollama API 账户问题。请检查您的设置并验证您的 Ollama API 账户状态。
cchessbd 发表于 6 天前
plutoshen 发表于 2025-2-14 20:15
我32G内存,最高装的32b,再大就卡得不行了。

9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。
plutoshen 发表于 6 天前
felixatvan 发表于 2025-2-6 02:48
我曾试着在Linux下安装r1:8b,机器内存是8G,最后两步失败。在我的这件案例里,内存是关键的。

我32G内存,最高装的32b,再大就卡得不行了。

点评

9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。  详情 回复 发表于 6 天前
ellx98 发表于 2025-2-11 09:15:14
下载好的数据是在那里?我想移动到非C盘
andylxh 发表于 2025-2-10 16:32:25
有没有傻瓜式一键配置完成
2010laodu 发表于 2025-2-10 16:23:00
感谢分享
3062064 发表于 2025-2-10 09:31:59

感谢分享,
lmyx2008 发表于 2025-2-8 22:49:17
这个太大了
ninja2007 发表于 2025-2-8 22:10:14
感谢楼主分享
2011lanz 发表于 2025-2-8 17:13:12
谢谢楼主分享!
2267981144 发表于 2025-2-8 14:15:05
谢谢分享!
15126222223 发表于 2025-2-8 12:20:01
hkl7366 发表于 2025-2-8 11:28
楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

我一个人使用。
yaojil 发表于 2025-2-8 11:40:05
感谢分享,准备试试
hkl7366 发表于 2025-2-8 11:32:10
刚刚想用deepseek询问一个生活中的常识,结果告诉我服务器繁忙,请稍后再试。(再牛的算法也架不住中国人多啊),所以搭本地服务局域网内共享使用一直是我的理想配置。
hkl7366 发表于 2025-2-8 11:28:39
15126222223 发表于 2025-2-7 10:55
我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块)

楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

点评

我一个人使用。  详情 回复 发表于 2025-2-8 12:20
mh2296970 发表于 2025-2-8 11:27:37
这个R1是满血的吗
fjun67 发表于 2025-2-8 11:01:38
我就在线用
lijie1562 发表于 2025-2-8 10:39:58
感谢分享
NJpaladin 发表于 2025-2-8 10:27:43
感谢分享,打算试一下
zhou116yan 发表于 2025-2-7 11:28:21
看起来很难
lifeislife 发表于 2025-2-7 11:20:05
我在本地安装后试用发现本地版的1.5b就是人工智障,建议用网络上免费的满血版。我要的不多,只是想要一个智能问答知识库,把我说的语音智能识别为文字记录到知识库,把我的需求通过语音从知识库里快速优选后用语音和文字告诉我。最好能做成小爱同学那样的问答型。
3062064 发表于 2025-2-7 11:10:31
感谢分享
15126222223 发表于 2025-2-7 10:55:29
dfw9 发表于 2025-2-6 09:11
请提供一下不卡的硬件配置,以便对照参考。

我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块)

点评

楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?  详情 回复 发表于 2025-2-8 11:28
nclnum1 发表于 2025-2-7 10:12:40
感谢分享
merlynr 发表于 2025-2-7 10:12:11
现在本地部署的可以联网嘛
20057842 发表于 2025-2-7 10:12:08
分平台配置建议
以下按模型规模和平台分类,提供 最低配置 和 推荐配置。

1.5B 模型
平台

最低配置

推荐配置

Windows

- CPU: Intel i5 / Ryzen 5

- CPU: Intel i7 / Ryzen 7

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA GTX 1650 (4GB)

- GPU: RTX 3060 (12GB)

macOS

- M1/M2 芯片(8GB 统一内存)

- M1 Pro/Max 或 M3 芯片(16GB+)

Linux

- CPU: 4 核

- CPU: 8 核

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA T4 (16GB)

- GPU: RTX 3090 (24GB)

7B/8B 模型
平台

最低配置

推荐配置

Windows

- CPU: Intel i7 / Ryzen 7

- CPU: Intel i9 / Ryzen 9

- RAM: 16GB

- RAM: 32GB

- GPU: RTX 3060 (12GB)

- GPU: RTX 4090 (24GB)

macOS

- M2 Pro/Max(32GB 统一内存)

- M3 Max(64GB+ 统一内存)

Linux

- CPU: 8 核

- CPU: 12 核

- RAM: 32GB

- RAM: 64GB

- GPU: RTX 3090 (24GB)

- 多卡(如 2x RTX 4090)

14B 模型
平台

最低配置

推荐配置

Windows

- GPU: RTX 3090 (24GB)

- GPU: RTX 4090 + 量化优化

- RAM: 32GB

- RAM: 64GB

macOS

- M3 Max(64GB+ 统一内存)

- 仅限量化版本,性能受限

Linux

- GPU: 2x RTX 3090(通过 NVLink)

- 多卡(如 2x RTX 4090 48GB)

- RAM: 64GB

- RAM: 128GB

32B 模型
平台

最低配置

推荐配置

Windows

- 不推荐(显存不足)

- 需企业级 GPU(如 RTX 6000 Ada)

macOS

- 无法本地部署(硬件限制)

- 云 API 调用

Linux

- GPU: 4x RTX 4090(48GB 显存)

- 专业卡(如 NVIDIA A100 80GB)

- RAM: 128GB

- RAM: 256GB + PCIe 4.0 SSD

小黑屋|手机版|Archiver|捐助支持|无忧启动 ( 闽ICP备05002490号-1 )

闽公网安备 35020302032614号

GMT+8, 2025-2-20 05:21

Powered by Discuz! X3.3

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表