如题,以下说的全是量化过的情况下
低端手机,比如高通695/750这一类的双大核心设备,跑1.8b参数模型反应速度还行,4b模型速度勉强能接受(但是已经很慢了),再大一丁点就卡爆了,完全不能忍受
高端手机估计4b体验还行,勉强能跑7b模型,再高就卡爆了
我笔记本八代I5 CPU+16G运存最多能跑14b模型,再高就卡爆了,估计7b体验比较好
1060m显卡+6G显存最多跑7b模型,显存限制不能再多了
更高端硬件我没摸过不知道
假设高端手机+利用手机内置的NPU人工智能处理器+厂商充分优化的话,本地跑14b大模型估计勉强可以,手机厂商应该不只是在吹,理论上还是有可能的。当然,能不能实现就要看优化了
上一篇:
【求助】老男人里有懂软妹币收藏的么?下一篇:
问一下,有没有什么可以学机关术的网站