在线的现在用着也还行了 |
plutoshen 发表于 2025-2-5 16:36 知道吗,cuda runner 占差不多1G,你显卡不支持 cuda 12 就把 cuda 12 runner 删了,省500M |
感谢分享 |
连接 Ollama API 失败。这通常是由于配置错误或 Ollama API 账户问题。请检查您的设置并验证您的 Ollama API 账户状态。 |
plutoshen 发表于 2025-2-14 20:15 9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。 |
felixatvan 发表于 2025-2-6 02:48 我32G内存,最高装的32b,再大就卡得不行了。 |
下载好的数据是在那里?我想移动到非C盘 |
有没有傻瓜式一键配置完成 |
感谢分享 |
感谢分享, |
这个太大了 |
感谢楼主分享![]() |
谢谢楼主分享! |
谢谢分享! |
hkl7366 发表于 2025-2-8 11:28 我一个人使用。 |
感谢分享,准备试试 |
刚刚想用deepseek询问一个生活中的常识,结果告诉我服务器繁忙,请稍后再试。(再牛的算法也架不住中国人多啊),所以搭本地服务局域网内共享使用一直是我的理想配置。 |
15126222223 发表于 2025-2-7 10:55 楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用? |
这个R1是满血的吗 |
我就在线用 |
感谢分享 |
感谢分享,打算试一下 |
看起来很难 |
我在本地安装后试用发现本地版的1.5b就是人工智障,建议用网络上免费的满血版。我要的不多,只是想要一个智能问答知识库,把我说的语音智能识别为文字记录到知识库,把我的需求通过语音从知识库里快速优选后用语音和文字告诉我。最好能做成小爱同学那样的问答型。 |
感谢分享 |
dfw9 发表于 2025-2-6 09:11 我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块) |
感谢分享 |
现在本地部署的可以联网嘛 |
分平台配置建议 以下按模型规模和平台分类,提供 最低配置 和 推荐配置。 1.5B 模型 平台 最低配置 推荐配置 Windows - CPU: Intel i5 / Ryzen 5 - CPU: Intel i7 / Ryzen 7 - RAM: 8GB - RAM: 16GB - GPU: NVIDIA GTX 1650 (4GB) - GPU: RTX 3060 (12GB) macOS - M1/M2 芯片(8GB 统一内存) - M1 Pro/Max 或 M3 芯片(16GB+) Linux - CPU: 4 核 - CPU: 8 核 - RAM: 8GB - RAM: 16GB - GPU: NVIDIA T4 (16GB) - GPU: RTX 3090 (24GB) 7B/8B 模型 平台 最低配置 推荐配置 Windows - CPU: Intel i7 / Ryzen 7 - CPU: Intel i9 / Ryzen 9 - RAM: 16GB - RAM: 32GB - GPU: RTX 3060 (12GB) - GPU: RTX 4090 (24GB) macOS - M2 Pro/Max(32GB 统一内存) - M3 Max(64GB+ 统一内存) Linux - CPU: 8 核 - CPU: 12 核 - RAM: 32GB - RAM: 64GB - GPU: RTX 3090 (24GB) - 多卡(如 2x RTX 4090) 14B 模型 平台 最低配置 推荐配置 Windows - GPU: RTX 3090 (24GB) - GPU: RTX 4090 + 量化优化 - RAM: 32GB - RAM: 64GB macOS - M3 Max(64GB+ 统一内存) - 仅限量化版本,性能受限 Linux - GPU: 2x RTX 3090(通过 NVLink) - 多卡(如 2x RTX 4090 48GB) - RAM: 64GB - RAM: 128GB 32B 模型 平台 最低配置 推荐配置 Windows - 不推荐(显存不足) - 需企业级 GPU(如 RTX 6000 Ada) macOS - 无法本地部署(硬件限制) - 云 API 调用 Linux - GPU: 4x RTX 4090(48GB 显存) - 专业卡(如 NVIDIA A100 80GB) - RAM: 128GB - RAM: 256GB + PCIe 4.0 SSD |
Powered by Discuz! X3.3
© 2001-2017 Comsenz Inc.