chatgpt又开始封号了,但我找到一个好玩的。

五级用户 panndora 2023-5-30 5028

国内的大佬开发的,下面是这个软件的自我介绍:

RWKV是一个开源且允许商用的大语言模型,灵活性很高且极具发展潜力。
关于本工具
本工具旨在降低大语言模型的使用门槛,做到人人可用,本工具提供了全自动化的依赖和模型管理,你只需要直接点击运行,跟随引导,即可完成本地大语言模型的部署,工具本身体积极小,只需要一个exe即可完成一键部署。
此外,本工具提供了与OpenAI API完全兼容的接口,这意味着你可以把任意ChatGPT客户端用作RWKV的客户端,实现能力拓展,而不局限于聊天。
底部的预设配置规则
本工具内置了一系列预设配置,以降低使用难度,每个配置名的规则,依次代表着:设备-所需显存/内存-模型规模-模型语言。
例如,GPU-8G-3B-CN,表示该配置用于显卡,需要8G显存,模型规模为30亿参数,使用的是中文模型。
模型规模越大,性能要求越高,显存要求也越高,而同样模型规模的配置中,显存占用越高的,运行速度越快。
例如当你有12G显存,但运行GPU-12G-7B-CN配置速度比较慢,可降级成GPU-8G-3B-CN,将会大幅提速。
关于RWKV
RWKV是具有Transformer级别LLM性能的RNN,也可以像GPT Transformer一样直接进行训练(可并行化)。而且它是100% attention-free的。你只需在位置t处获得隐藏状态即可计算位置t + 1处的状态。你可以使用“GPT”模式快速计算用于“RNN”模式的隐藏状态。
因此,它将RNN和Transformer的优点结合起来 - 高性能、快速推理、节省显存、快速训练、“无限”上下文长度以及免费的语句嵌入(使用最终隐藏状态)。


下载地址:https://github.com/josStorer/RWKV-Runner   



下面是我自己在办公电脑上部署的效果,首先办公电脑配置很差,显卡我用的是我之前买来玩SD画画的那张没视频输出的矿卡,所以是8G显存的,选的是7B的模型。总之我感觉一般来说,你要求不高,又不想蹬梯子或者自己写的论文或者小黄文之类的涉及隐私的,在自己电脑上跑虽然速度慢点,但配置够的话也不是不能用。




上一篇:王国之泪卡关,老是被冻死
下一篇:不断手我是不认可的
最新回复 (25)
  • 五级用户 panndora 2023-5-30
    0 2
    这个EXE程序只有几MB,自带环境配置,依赖安装,模型下载管理等功能,对小白非常友好。
  • 受限用户 luckyeric 2023-5-30
    0 3
  • 四级用户 工口魔 2023-5-30
    0 4
    学习一下,感谢分享
  • 六级用户 一条大辉狼 2023-5-30
    0 5
    厉害啊,整个包部署好有多大啊?文件夹结构能看下啊?
  • 四级用户 wuliway 2023-5-30
    1 6
    最近玩new bing chat也蛮有意思的! 如果问某些特定的名字,有时候会提供你网址哦......
  • 五级用户 panndora 2023-5-30
    0 7
    一条大辉狼 厉害啊,整个包部署好有多大啊?文件夹结构能看下啊?


    3.png


    体积这么大的原因是我在models目录里面有四个模型,其实一般来说只要一个模型就够了。

  • 五级用户 panndora 2023-5-30
    0 8
    一条大辉狼 厉害啊,整个包部署好有多大啊?文件夹结构能看下啊?


    3.png


    体积这么大的原因是我在models目录里面有四个模型,其实一般来说只要一个模型就够了。

  • 四级用户 whffs 2023-5-30
    0 9
    这个模型反映比较慢,据说他的大模型效果更好,可惜我机器带不动
  • 四级用户 xbox361 2023-5-30
    0 10
    看上去很厉害的样子?
  • 六级用户 delka 2023-5-30
    1 11
    模型下中文的就够用吧
  • 四级用户 cyranohsl 2023-5-30
    0 12
    谢谢分享
  • 五级用户 mazz 2023-5-30
    0 13
    wuliway 最近玩new bing chat也蛮有意思的! 如果问某些特定的名字,有时候会提供你网址哦......
    正经吗?
  • 四级用户 wuliway 2023-5-30
    2 14
    mazz 正经吗?
    这就要看user本身怎么使用了,毕竟工具是无好坏的嘛。。
  • 五级用户 mazz 2023-5-30
    0 15
    wuliway 这就要看user本身怎么使用了,毕竟工具是无好坏的嘛。。
    嗯嗯!
  • 五级用户 panndora 2023-5-30
    0 16
    whffs 这个模型反映比较慢,据说他的大模型效果更好,可惜我机器带不动
    我测试开启自定义CUDA算子加速以后,速度就跟网页版的chatgpt差不多了,但是因为我的显卡是40hx,使用的是魔改的显卡驱动,所以它用非常快的速度喷出了一大串乱码。
    很明显,这个功能确实可以加速,但是,我的显卡用不了,现在不开这个功能,它每次都是一个字一个字的蹦的,英文是一个词一个词的蹦。
  • 五级用户 panndora 2023-5-30
    0 17
    delka 模型下中文的就够用吧
    我用的是 49%英文,49%中文,1%日文 1%其他的那个版本的。
  • 六级用户 一条大辉狼 2023-5-30
    0 18
    panndora 体积这么大的原因是我在models目录里面有四个模型,其实一般来说只要一个模型就够了。
    看这个尺寸,那应该还有点靠谱?
  • 五级用户 panndora 2023-5-30
    0 19
    一条大辉狼 看这个尺寸,那应该还有点靠谱?
    这个模型据说越大越好,但我没好显卡,所以用的是8G显存在的7b版本,听说14b以上的效果接近chatgpt3.5的效果了。7b的模型都是14G大小。我这目录里面是两个14G的,两个7G的。实际上你选好模型以后,转换为本地模型大小就没那么大了。
  • 六级用户 一条大辉狼 2023-5-30
    0 20
    模型越大训练的越多啊,一点点小的除非调用的其它接口,不然肯定做不到本地模拟的哇
    • 老男人游戏网配套论坛
      27
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。