有玩deepseek本地部署的吗?我想配个主机玩这个了

三级用户 sghong 17天前 2571

最近deepseek这么火,也带动中芯又涨了一波,今天卖了点回血,想着买个机器玩一下本地部署,至少能玩32B把。


    预算2,3万把,MAC和WIN平台都可以,5090现在这么难买就算了把,不知道4090能不能流畅使用32B,或者看看两块7900XTX能不能一起用,能比4090好点。

    或者上个64G内存的苹果电脑,会不会更好些。

争取实现在线抓取新闻并分析,因为我本身做股票是做基本面的,选取国家重点扶持,未来前景比较大的龙头上市公司。


      以前有段时间(16,17年)想过要做量化,不过以我的脑子和经济实力都干不过人家专业的,我还是做我的基本面选股并长线持有把。

      有在玩deepseek的大家就一起讨论一下把,反正闲着也是闲着~~~~~~



最后为三叔默哀三分钟,奏乐~~~~~!


上一篇:抠逼禽兽老三
下一篇:水十分,润色了一下文本+一眼新世界
最新回复 (40)
  • 三级用户 用户名已被注册 17天前
    1 2
    https://pan.baidu.com/s/1CCPhQIhv_dWno4VlW8tJtw?pwd=qgg5
    远景论坛上找到的。
  • 六级用户 进站劣人 17天前
    0 3
    预算两三万,,,大佬大佬。
  • 六级用户 一条大辉狼 17天前
    0 4
    2, 3万配个4090跑32B没啥问题的,不过没啥意思啊~
    360好像是本地部署的最大的那个,都没有原生的效果好
    有那钱,不如本地部署个Chat工具,对接DS的API,效果比你本地部署好的多
  • 三级用户 sghong 17天前
    0 5
    进站劣人 预算两三万,,,大佬大佬。
    便宜的玩不转啊,我现在有4060的笔记本电脑,估计只能玩7B的把,我都懒得装,至少32B起把,最好能上70B的
  • 三级用户 sghong 17天前
    1 6
    一条大辉狼 2, 3万配个4090跑32B没啥问题的,不过没啥意思啊~ 360好像是本地部署的最大的那个,都没有原生的效果好 有那钱,不如本地部署个Chat工具,对接DS的API,效果比你本地部署好的多
    你这个感觉模型还是公共的把,我想搭建的是私有模型啊,通过一定程度的训练达到我的需求(当然,不一定能成功)
  • 六级用户 一条大辉狼 17天前
    0 7
    sghong 你这个感觉模型还是公共的把,我想搭建的是私有模型啊,通过一定程度的训练达到我的需求(当然,不一定能成功)
    你顶多在它的模型上微调哇,反正你配个4090跑个32B肯定没问题,有钱可以玩玩哇
  • 四级用户 woyaodl 17天前
    0 8

    32B-Q4用4070s+i5 12600ks试了一下,2.73tokens/秒速度(空白第一个对话速度)。
    参数量越大推理肯定越好,Q4和Q8推理质量差距在5%-10%左右,感觉量化Q4就够了。

  • 四级用户 pzani1 17天前
    0 9
    帮顶, 我也想试试, 同求
  • 三级用户 sghong 17天前
    0 10
    woyaodl 32B-Q4用4070s+i5 12600ks试了一下,2.73tokens/秒速度(空白第一个对话速度)。参数量越大推理肯定越好,Q4和Q8推理质量差距在5%-10%左右,感觉量化Q4就够了。
    2.73tokens/秒速度已经到了几乎不可用了把,理论上其实上两块魔改的2080TI(22G)会比一块4090会好把,成本也低很多,不过我对矿卡没信心,也懒得折腾。

    当然了,你的内存速度也可能是瓶颈。
  • 三级用户 wang1816 17天前
    0 11
    32g内存,4070tis 运行32b-Q4还不错
  • 三级用户 sghong 17天前
    0 12
    wang1816 32g内存,4070tis 运行32b-Q4还不错
    速度多少,测了吗
  • 四级用户 minghan0313 17天前
    0 13
    我2666v3+32G+2070s,ollama+open webui搭建,14b能跑,但是复杂点的问题得思考1分多钟。

    刚开始玩,测试GPU和显存并没有跑满,还在研究怎么能优化点。
  • 四级用户 woyaodl 17天前
    0 14
    内存是4代是慢了些虽然64G,GPU负载设置到了刚好占满12G显存,没占用共享内存
  • 三级用户 sghong 17天前
    0 15
    woyaodl 内存是4代是慢了些虽然64G,GPU负载设置到了刚好占满12G显存,没占用共享内存
    32B用12G显存应该不够啊
  • 五级用户 ma_er233 17天前
    0 16
    sghong 2.73tokens/秒速度已经到了几乎不可用了把,理论上其实上两块魔改的2080TI(22G)会比一块4090会好把,成本也低很多,不过我对矿卡没信心,也懒得折腾。 当然了,你的内存速度也可能 ...

    就当是 300 baud 猫复古体验(

  • 四级用户 woyaodl 17天前
    0 17

    只是试试看,还是用API爽,不过对于要数学、科学推理发论文之类的人,资金还不够,反正晚上睡觉挂着呗


    屏幕截图 2025-02-05 204117.jpg

  • 三级用户 sghong 17天前
    0 18
    5月出的Project Digits不知道国内能不能买到,其实这玩意才最适合跑个人模型!
  • 三级用户 hiok2000 16天前
    0 19
    理论来说,只要内存够,什么都可以运行DeepSeek。看模型的文件大小,比如8G的,至少需要8X1.2=9.6G的内存。如果GPU内存够,就放到GPU里;如果CPU内存够,就放到CPU就行。所以树莓派都能运行。运行的核心都是llma.cpp,目前github上有多个平台的llma.cpp,既有N卡的CUDA版本,又有华为的CANN版本,CPU的x86和ARM都有。手机的算力比树莓派大,当然也能运行。要不我卖你一个旧手机,包教包会安装运行本地DeepSeek。
  • 三级用户 pz2000 16天前
    0 20
    弄块9700xtx就能跑到25t/s
    • 老男人游戏网配套论坛
      42
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。