无忧启动论坛
标题: 五分钟搞定Deepseek本地化部署,轻松拿捏不求人! [打印本页]
作者: 天风 时间: 2025-2-5 16:17
标题: 五分钟搞定Deepseek本地化部署,轻松拿捏不求人!
本帖最后由 天风 于 2025-2-10 09:41 编辑
今年春节给人最大的惊喜不是春晚而是Deepseek智能AI模型的开源,以及对漂亮国的打击!
那么DP官方服务器经常被攻击导致无法运行,那么作为一个经常需要文字工作的牛马就很迫切需要一个本地化的deepseek,其实并不像官方所说的那样需要配置高端性能的电脑和显卡才能工作,今天一上班就从可行性上分析并测试,顺利安装成功并调试完成,输出作品的速度还能够忍受,1000字的文稿形成速度大约需要2分钟。
下面为大家简要说一下整个部署过程:
首先需要准备两个小软件,如果想要在本地运行 DeepSeek 需要用到 Ollama和Chatbox 这俩工具,大家可以到官网搜索下载,为了提高下载速度大家可以从网盘下载,我已经上传好了
Ollama 安装完成后需要打开电脑的 CMD ,也就是命令提示符,只需要在电脑下方的搜索框中输入 cmd 即可打开。
打开后在命令提示符窗口中输入 ollama help 并按回车键,这个操作是为了验证这个软件是否安装成功,如果没有报错的话则表示这个软件安装成功。
这时需要退出软件,修改一下此软件的系统环境变量,以便于下一步下载大模型数据,在系统高级设置中,新建环境变量,OLLAMA_MODELS,把变量值设置为你自己的路径,这里暂定为E:\Ollama\models
回到 https://ollama.com/网址中,在网页上方搜索框中输入 Deepseek-r1,点击 Deepseek-r1 后会进入详情界面,里面有多个参数规模可供选择,从 1.5b 到 671b 都有。需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。选择好模型规模后,复制右边的一个命令。命令复制完成后回到命令提示符窗口,将刚刚复制的命令粘贴到命令提示符窗口中并按回车键即可下载模型。 我电脑16G内存,选用了8b模型:ollama run deepseek-r1:8b
下载完成后, 就可以直接在命令行界面进行聊天对话,如果对这个界面并不满意,那么我们可以进行下一步的工作,安装chatbox,按提示选择本地模型,选择ollama-api,其他选择默认,保存,退出chatbox并重新启动,大功告成,可以使用了!
作者: 小灰兔 时间: 2025-2-5 16:22
感谢分享
作者: plutoshen 时间: 2025-2-5 16:30
不知道要占多大硬盘空间,准备试试。
作者: 天风 时间: 2025-2-5 16:31
ollama软件+deepseek数据大约9G
作者: plutoshen 时间: 2025-2-5 16:36
数据量太大了
作者: siemens 时间: 2025-2-5 16:36
ollama有点麻烦,我直接用LM Studio
作者: 2012andyle113 时间: 2025-2-5 16:49
本地化数据有点大啊
作者: 孤夜听风 时间: 2025-2-5 16:53
这还是最简单的,如果没私密的要求直接上网页的,人家机器可是专业的。
作者: 445112826 时间: 2025-2-5 16:57
谢谢分享安装方法。
作者: q531724 时间: 2025-2-5 16:57
感谢分享
作者: marstj 时间: 2025-2-5 17:02
谢谢分享好方法
作者: fd1688 时间: 2025-2-5 17:03
谢谢分享安装方法。
作者: 邪恶海盗 时间: 2025-2-5 17:05
壕无人性...
二○二五年二月五日
作者: ylac 时间: 2025-2-5 17:23
数据都来源那里
作者: aliw 时间: 2025-2-5 17:27
挺好,等我SSD到了试一下
作者: http88 时间: 2025-2-5 17:30
正好需要Deepseek本地化部署!谢谢您的分享。
作者: lifufu8888 时间: 2025-2-5 17:37
感谢分享
作者: woy8 时间: 2025-2-5 17:38
谢谢分享安装方法。
作者: yc2428 时间: 2025-2-5 17:38
谢谢分享
作者: handsome_xiang 时间: 2025-2-5 17:48
感谢分享
作者: 79师 时间: 2025-2-5 17:53
有搞好的吗,发图看下
作者: kailue 时间: 2025-2-5 17:57
谢谢分享
作者: 15126222223 时间: 2025-2-5 18:07
我安装一个14b和一个32b的,运行起来不错,一点不卡。
作者: martin313 时间: 2025-2-5 18:13
这个还是在线,更好
作者: wn168cn@163.com 时间: 2025-2-5 18:18
好方法 感谢分享
作者: youxia1220 时间: 2025-2-5 18:20
谢谢分享
作者: chairmansu 时间: 2025-2-5 18:30
感谢分享
作者: fuldho 时间: 2025-2-5 18:32
不知道他能帮我干什么
作者: dwso 时间: 2025-2-5 18:37
感谢分享
作者: 装咖啡的小杯 时间: 2025-2-5 18:46
感谢分享,用ollama部署了
作者: fjun67 时间: 2025-2-5 18:46
再看看它的功能。
作者: wang1126 时间: 2025-2-5 19:23
谢谢楼主分享
作者: wwoldok 时间: 2025-2-5 19:34
收藏学习一下
作者: alexxin331 时间: 2025-2-5 19:35
运行对CPU有要求吗?硬盘要留出多少来安装模型?
作者: cxydeity 时间: 2025-2-5 19:40
学习一下
作者: 荃新焦点 时间: 2025-2-5 19:50
我今晚去试一下,谢谢版主
作者: kmshzi 时间: 2025-2-5 20:02
谢谢超版分享 安装试试
作者: tcog 时间: 2025-2-5 20:07
多谢老板多谢
作者: 123-888 时间: 2025-2-5 20:09
最后1%很难下载啊
作者: 天风 时间: 2025-2-5 20:18
最后那一点儿需要一点耐心
作者: wu_youfans 时间: 2025-2-5 20:41
感谢分享,真是太好了
作者: zp1688 时间: 2025-2-5 20:52
威武霸气!!!!!!!!!!!!!!
作者: proof 时间: 2025-2-5 20:55
谢谢分享
作者: k8_ka 时间: 2025-2-5 20:58
感谢分享
作者: zhou116yan 时间: 2025-2-5 21:30
看起来有点难啊
作者: xudi1234 时间: 2025-2-5 21:33
1.5b 到 671b 如何选择?显卡、cpu、内存 哪个最重要?
作者: 123-888 时间: 2025-2-5 21:36
谢谢。最后等了10分钟好了,但我设置了OLLAMA_MODELS环境变量后下载的modes还是在C盘下,没有到指定的目录。
作者: netfood 时间: 2025-2-5 21:39
标识关注!
作者: 5460 时间: 2025-2-5 22:10
模型大小配置参考表格在哪里
作者: 唐峰 时间: 2025-2-5 22:12
电脑算力不行,算了。
作者: 家驹 时间: 2025-2-5 22:14
谢谢分享!
作者: xyzjzlf 时间: 2025-2-5 22:41
谢谢楼主分享!
作者: schdtv 时间: 2025-2-5 23:11
现在用不上,但先谢谢楼主。
作者: valen21 时间: 2025-2-5 23:12
轻度使用我直接用网页版
作者: nianyueriPE 时间: 2025-2-5 23:28
谢谢分享
作者: nianyueriPE 时间: 2025-2-5 23:28
下载试试
作者: yanglinman 时间: 2025-2-6 00:15
感谢分享,学习了!
作者: 上人 时间: 2025-2-6 00:19
谢谢分享安装方法。
作者: 壹行情泪 时间: 2025-2-6 00:31
感谢分享
作者: chibuzhu 时间: 2025-2-6 01:11
感谢分享
作者: felixatvan 时间: 2025-2-6 02:48
我曾试着在Linux下安装r1:8b,机器内存是8G,最后两步失败。在我的这件案例里,内存是关键的。
作者: y迎旭 时间: 2025-2-6 08:08
感谢分享!
作者: lll888yy 时间: 2025-2-6 08:15
本地化数据有点大啊
作者: qwe5892 时间: 2025-2-6 08:38
感谢分享
作者: 天风 时间: 2025-2-6 08:46
需要退出OLLAMA然后再设置变量,重新启动OLLAMA
作者: dfw9 时间: 2025-2-6 09:11
请提供一下不卡的硬件配置,以便对照参考。
作者: CQgaxm 时间: 2025-2-6 09:14
谢谢分享安装方法
作者: wu_youfans 时间: 2025-2-6 09:19
我也是遇到这个问题,刚想上论坛咨询,太感谢了
作者: sulong 时间: 2025-2-6 09:23
deepseek现在挺热门了解一下看看,感谢楼主分享
作者: rgfwqx@163.com 时间: 2025-2-6 09:35
看看
作者: dusknow 时间: 2025-2-6 09:55
缺的不是教程,是能跑满血版的硬件....
作者: 董大 时间: 2025-2-6 10:11
谢谢楼主分享的资源!
作者: mdx680 时间: 2025-2-6 10:15
没有完全看明白,部署起来有难度。
作者: 黑鹰99 时间: 2025-2-6 10:31
感谢分享!
作者: kukuyu 时间: 2025-2-6 10:40
谢谢分享
作者: binyue1985 时间: 2025-2-6 10:41
收藏下,留用,感谢分享
作者: 假大空 时间: 2025-2-6 10:42
web ui阔以直接用page assist插件。
作者: helloman 时间: 2025-2-6 10:46
谢谢分享,本地化成功!
作者: winpefk 时间: 2025-2-6 10:46
天风 发表于 2025-2-5 20:18
最后那一点儿需要一点耐心
可以用 ctrl +c 结束进程,然后再重新下载(如果速度非常慢再用,因为 10%概率丢进度)
作者: D0D 时间: 2025-2-6 10:46
这个最近很热啊,找个时间试一试
作者: ttff2005 时间: 2025-2-6 10:53
楼主真牛!~ 太感谢啦,我也试试!!
作者: jimis 时间: 2025-2-6 11:29
既然不会画画,为什么告诉我,我需要什么你都能画出来?
Thinking
<think>
今天,我遇到了一个用户,他说:“既然不会画画,为什么告诉我,你能画出我需要的内容?”这让我有点困惑。我先回想一下自己是否真的无法画画。嗯,我确实没有专业绘画的技能,但可能在某些方面可以帮助他,比如生成图像、设计或提供视觉化建议。
用户提问的原因,可能是因为我之前在某些情况下展示了生成图片的能力,这让他觉得我能够画出具体的内容。实际上,我并不自己绘制图片,而是依赖于AI模型来处理图像数据并生成图像。这让我意识到,我的能力主要是在处理文本、信息和逻辑方面,而不是视觉创作。
用户可能误解了我的功能,以为我可以直接进行绘画或设计工作。所以,我需要明确告诉他,我无法自己绘制图片,但可以协助分析问题、提供设计建议或使用AI工具生成图像。这有助于消除他的误解,同时提供实际可行的帮助。
接下来,我应该如何回应呢?首先,感谢他的理解和提问,然后解释我的能力范围,并明确告诉他我能做些什么。同时,鼓励他提出具体需求,以便我能够更好地协助解决问题。
最后,保持语气友好,让用户感到被支持和重视,即使在技术上的限制,但通过团队合作,可以共同达成目标。
</think>
当然可以!尽管我无法直接绘制图像或生成视觉内容,但我非常擅长分析信息、提供创意建议,并使用AI工具协助生成图像。请告诉我您需要什么,我会尽力帮助您完成任务或提供有用的见解。如果您有具体的设计需求,例如Logo、流程图或其他视觉元素,我可以为您提供设计建议或使用AI工具协助生成这些内容。
作者: 独孤行 时间: 2025-2-6 11:31
本地部署版阉割了多少,性能还有多少
作者: rengrancunzai 时间: 2025-2-6 11:36
谢谢楼主分享
作者: koudai52 时间: 2025-2-6 11:45
谢谢楼主分享!
作者: yuzmb 时间: 2025-2-6 11:56
太有用了,收藏一波
作者: fegr 时间: 2025-2-6 13:18
感谢分享
作者: sinowon 时间: 2025-2-6 13:30
感谢分享
作者: promrhxq 时间: 2025-2-6 13:31
感谢分享好东东
作者: 一代宗师 时间: 2025-2-6 13:54
deepseek现在挺热门了解一下看看
但是我不知道本地化,和他本身用起来没啥区别吧,何必浪费自己资源本地化
作者: 进士小站 时间: 2025-2-6 14:28
感谢楼主分享
体积占用确实有些大
作者: zqfeng01 时间: 2025-2-6 15:09
谢谢分享
作者: cena 时间: 2025-2-6 16:35
谢谢分享
作者: jude886 时间: 2025-2-6 18:46
民用版本吧。
有人的地方就有网络,有网络的地方就有AI。
作者: hh3100 时间: 2025-2-6 19:55
模型大小配置参考表格,这个在哪里?让我这个不知深浅的小白试试看看
作者: tvxun 时间: 2025-2-6 20:55
谢谢分享安装方法
作者: p3506 时间: 2025-2-7 07:08
本帖最后由 p3506 于 2025-2-7 07:12 编辑
我刚才试了,设置变量后需要重启电脑才有效,
作者: wufeiqin 时间: 2025-2-7 08:51
收藏使用
作者: 冒个泡 时间: 2025-2-7 09:06
收藏了,有台32G内存和P9000显卡的电脑,装上试试
作者: fuge663 时间: 2025-2-7 09:48
双说是免费,一直提示要激活许可证
欢迎光临 无忧启动论坛 (http://wuyou.net/) |
Powered by Discuz! X3.3 |