最近deepseek这么火,也带动中芯又涨了一波,今天卖了点回血,想着买个机器玩一下本地部署,至少能玩32B把。
预算2,3万把,MAC和WIN平台都可以,5090现在这么难买就算了把,不知道4090能不能流畅使用32B,或者看看两块7900XTX能不能一起用,能比4090好点。
或者上个64G内存的苹果电脑,会不会更好些。
争取实现在线抓取新闻并分析,因为我本身做股票是做基本面的,选取国家重点扶持,未来前景比较大的龙头上市公司。
以前有段时间(16,17年)想过要做量化,不过以我的脑子和经济实力都干不过人家专业的,我还是做我的基本面选股并长线持有把。
有在玩deepseek的大家就一起讨论一下把,反正闲着也是闲着~~~~~~
最后为三叔默哀三分钟,奏乐~~~~~!
进站劣人 预算两三万,,,大佬大佬。
一条大辉狼 2, 3万配个4090跑32B没啥问题的,不过没啥意思啊~ 360好像是本地部署的最大的那个,都没有原生的效果好 有那钱,不如本地部署个Chat工具,对接DS的API,效果比你本地部署好的多
sghong 你这个感觉模型还是公共的把,我想搭建的是私有模型啊,通过一定程度的训练达到我的需求(当然,不一定能成功)
32B-Q4用4070s+i5 12600ks试了一下,2.73tokens/秒速度(空白第一个对话速度)。参数量越大推理肯定越好,Q4和Q8推理质量差距在5%-10%左右,感觉量化Q4就够了。
woyaodl 32B-Q4用4070s+i5 12600ks试了一下,2.73tokens/秒速度(空白第一个对话速度)。参数量越大推理肯定越好,Q4和Q8推理质量差距在5%-10%左右,感觉量化Q4就够了。
wang1816 32g内存,4070tis 运行32b-Q4还不错
woyaodl 内存是4代是慢了些虽然64G,GPU负载设置到了刚好占满12G显存,没占用共享内存
sghong 2.73tokens/秒速度已经到了几乎不可用了把,理论上其实上两块魔改的2080TI(22G)会比一块4090会好把,成本也低很多,不过我对矿卡没信心,也懒得折腾。 当然了,你的内存速度也可能 ...
就当是 300 baud 猫复古体验(
只是试试看,还是用API爽,不过对于要数学、科学推理发论文之类的人,资金还不够,反正晚上睡觉挂着呗