打算配一台主机用于跑大模型玩,大佬们有推荐的配置吗
虽然是搞互联网的,但是对硬件这块确实没啥研究,所以想请大佬们帮忙推荐下配置,目前在京东上看了朴赛装的机器,券后 27849 ,不知道是否有坑,求指教
主要是本地推理,最大跑13B模型,目前考虑的cpu 14900kf、内存128g、显卡4090
如果你不太确定想怎么玩大模型,其实可以花点小钱租台顶配机器跑跑感觉有点意思的项目,玩一段时间后你自然就知道怎么选择了。
本地只能跑跑推理和 7B lora 训练。更大规模的训练可以选择租 A100我的配置是:GPU:4090D 虽然是 dog 版,但是目前 4090D 的性价比是比 4090 高的。板 U 内存:B550I + 5800X + 2 *32G 以前攒的,跑大模型对 CPU 要求不高,内存要注意有一些步骤,比如 lora 合并、量化会使用内存,如果内存太小可能就跑不起来,64G 是需要的。电源散热机箱:根据自己需求配把。主要成本还是显卡。
主要是在于你想要怎么大模型,我预估是做 inference ,不太可能 fine-tuning 。这样的话主要是根据你需要跑的模型大小是否能放进显存。最好是提前调研下需要在什么精度下跑什么模型。
顺带一提:我比较极限,把以上配置塞进了 SSUPD 里,一个 15L 体积的机箱。
你这个配置可以 AI 出图 吗,2K 的图一个小时出 30 张行嘛?
超微 7048GR + 4×2080ti(22GB) FYI
没必要自己买。vultr 租一个就行。按需使用,小时付费。
我去年部署的 13900KF + 128G + 4090 ,大概一共两万内搞定全白配色之前试过租云服务器,最大的硬伤就是每次开机用起来太麻烦了,可能是因为用的小平台,大平台如 aliyun 之类的又太贵。
想法类似
啥时间买的,啥配置。我差不多的配置花了三万。
4090 显存不够吧,13B 的大模型如果 INT4 还好,如果 INT8 基本就需要 13-16G 显存了,fp 精度直接 30G+了扛不住
塔式 T640 加 GPU 显卡 套件, 价格便宜量又足.
大模型主要瓶颈在内存访问速度,直接上 mac 然后 llama.cpp, 大于 13B 的也能玩因为 13B 简单玩几次就腻烦了,参数越高性能越好
现在最新驱动有 fallback 回共享显存的选项,跑应该是能跑吧,只不过速度会减慢不少。
老哥跑的啥模型,多大参数
如果是玩,mac 更经济一些mixtral 8x7b 也能跑
你不是在开玩笑,这配置说经济是吧。
有没有实际跑过?我之前测过 m1 上跑那速度实在无法忍,还只是 6b 的模型
借楼问问,现在有没有什么大模型,可以用于看外语片的时候,能够根据音频出中文字幕的。
你这价钱可以 colab pro 32 年的服务
自己玩的话没啥问题,速度还行47b 的规模
windows 自带实时字母,勉强能用
字母->字幕
pro 是 100 个计算单元,用不了多久吧
之前在 m1 pro 上跑过 7b 的模型,感觉速度一般
47b 8bit ?感觉挺好
家里人买菜要经常刷刷刷价格和剩余库存,想帮他做一个小工具自动提醒,拦截了一下请求发现都是 https 无法查看具体内容,求教如何获得叮咚买菜的 api 逆向叮咚的安卓 app…
例如 OPPO vivo 之类的,如果手机掉了被别人捡到,锁屏密码被破解的可能性高吗 如果手机已经解锁了 BL ,或者已经 root 是否会更容易被破解? emmmm ,我的…
我们知道“ldd”这个命令主要是被程序员或是管理员用来查看可执行文件所依赖的动态链接库的。是的,这就是这个命令的用处。可是,这个命令比你想像的要危险得多,也许很多黑客通过ldd…