安卓手机和笔记本本地运行AI大模型的能力预测

四级用户 kjaboshopainmw 8月前 504

如题,以下说的全是量化过的情况下

低端手机,比如高通695/750这一类的双大核心设备,跑1.8b参数模型反应速度还行,4b模型速度勉强能接受(但是已经很慢了),再大一丁点就卡爆了,完全不能忍受

高端手机估计4b体验还行,勉强能跑7b模型,再高就卡爆了

我笔记本八代I5 CPU+16G运存最多能跑14b模型,再高就卡爆了,估计7b体验比较好

1060m显卡+6G显存最多跑7b模型,显存限制不能再多了

更高端硬件我没摸过不知道

假设高端手机+利用手机内置的NPU人工智能处理器+厂商充分优化的话,本地跑14b大模型估计勉强可以,手机厂商应该不只是在吹,理论上还是有可能的。当然,能不能实现就要看优化了


上一篇:【求助】老男人里有懂软妹币收藏的么?
下一篇:问一下,有没有什么可以学机关术的网站
最新回复 (2)
  • 五级用户 ma_er233 8月前
    0 2
    整个4090的游戏本肯定现在就能跑,手机再等个20年吧
    还有,那叫内存,不叫运存
  • 四级用户 kjaboshopainmw 8月前
    0 3
    ma_er233 整个4090的游戏本肯定现在就能跑,手机再等个20年吧 还有,那叫内存,不叫运存
    我知道,但是现在内存这个词已经被滥用了,就先说运存和闪存
    • 老男人游戏网配套论坛
      4
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。