本地部署deep seek非常拉垮

四级用户 StierGBC 10天前 1566

1000079021.jpg


上一篇:终于让移动给换了2.5G网口的光猫
下一篇:[水]某群友装逼的下场。
最新回复 (15)
  • 三级用户 crwwin 10天前
    0 2
    本地部署。。还得喂数据的吧。。
  • 四级用户 StierGBC 10天前
    0 3
    crwwin 本地部署。。还得喂数据的吧。。
    是啊,原生模型不行
  • 五级用户 ma_er233 10天前
    0 4
    LLM 不能拿来分析数据,这是个推测文字的东西,没有逻辑或者计算能力
  • 四级用户 supervisor 10天前
    0 5

    本地部署的哪个版本?
    一般电脑开不起大的,网上有种巧妙方法据说可以用大内存(200多GB)+仅16GB显存全量运行671Billion的模型。

  • 四级用户 pinpointer 10天前
    1 6
    StierGBC 是啊,原生模型不行
    你恰恰弄反了,原生模型是目前最好的大模型,但是本地部署基本上没办法的,哪怕你用到32b,都只是蒸馏模型,和原生模型没法比。github上的DS原生模型,光模型本身就要1个T大小。。。显卡和内存要求就不要提了。
  • 五级用户 virtualdub 10天前
    1 7

    部署的是R1吗?如果没有使用ktransformers方案的话,本地部署的32B参数也就是单卡极限了(4090 24GB VRAM),这就是个distill出来的千问Q4量化模型,压根就不是原生的671B Q8量化V3/R1模型,完全体为1.5TB。
    事实上<70B的distill模型都不好用,准确的说就是呆得一批,属于不可用状态,而不是deepseek的问题...

  • 四级用户 StierGBC 10天前
    0 8
    virtualdub 部署的是R1吗?如果没有使用ktransformers方案的话,本地部署的32B参数也就是单卡极限了(4090&nbsp;24GB&nbsp;VRAM),这就是个distill出来的千 ...
    R1 7B
  • 三级用户 用户名已被注册 10天前
    0 9
    这个故事就好像是,你偏要用 挖掘机 炒小白菜。
  • 三级用户 pz2000 10天前
    0 10
    估计得等起码五年HBM普及廉价化后,才可能单机部署原生r1吧,不过那个时候应该有更好的模型了。
  • 三级用户 sghong 10天前
    0 11
    7B说个毛阿,一点意义都没有,至少32B起吧。
  • 四级用户 s461352 10天前
    0 12
    个人设备又不行,怎么可能跟商用比
  • 五级用户 高木同学 10天前
    0 13
    阉割版啊,本地算力达不到,我看好多人在吐槽,然后在线版是完全版,但是服务器又总出错😂
  • 四级用户 Ludens 10天前
    0 14
    放弃本地部署了,还是选择了某个服务商

    付费API渠道R1秒回,16/M token,反正我也不做代码相关的事情,完全够用
  • 三级用户 叹逍遥 10天前
    0 15
    我玩到从任天堂教授那里拿到了大力手套,推开了巨石,准备去找金矿了。
  • 四级用户 StierGBC 10天前
    0 16
    叹逍遥 我玩到从任天堂教授那里拿到了大力手套,推开了巨石,准备去找金矿了。
    前路漫漫其修远兮
    • 老男人游戏网配套论坛
      17
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。