下载 huggingface 大模型有什么好方法吗
也用了 hf-mirror.com/
但这个基本下几 G 就限流了
直接 huggingface 下载也是比较慢的, 反正下 7,8G 以上文件基本
没完成就没速度了
大家有啥好方法吗, 现在模型太大了, 都是几十 G
限流的话断点续传就好了
modelscope.cn +断点续传
hf-mirror cli 断点续传
你都能上 v 站了, 翻墙还不利索?
代理+直接 wget
挂代理 + github.com/bodaay/HuggingFaceModelDownloader
可以用 cloudflare workers 跑一个反向代理,github 有现成的脚本
前提是你的网络和 cloudflare 的链接质量得靠谱,有些宽带不行
If you are running on a machine with high bandwidth, you can increase your download speed with hf_transfer, a Rust-based library developed to speed up file transfers with the Hub.
pip install "huggingface_hub[hf_transfer]"
HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download ...
有时候下载断流,我刷新一下 hf 的页面,速度就突然有了
上个优质科学网络 tg:wavevwe
这种大文件下一会儿就限流的, 除非不停换节点
代理呢。。。。
国外 vpn 都随便 1t 流量,敞开下啊
梯子问题,换一家。
#11 我用的 jms 从来不限流
国内有阿里的魔塔
modelscope.cn/
基本的 model 都有,支持全速下载
好像可以复制下载链接用迅雷下载
好像就 huggingface 的主域名被墙,反正用 lm studio 下模型直接跑超 ISP 给的带宽,梯子肯定没这速度
直接去 modelscope 下载。 一般都有人分流。
我浏览器下载比较慢,链接粘到 aria2 下载千兆满速,不知道为啥
可以开类似联通 9929 这样的,国外下载很快
想做北漂还是新上海人? 两城市区别不大, 还是从工作本身角度看吧. 这个还是看个人吧 我作为浙江人 肯定是选上海的 气候和饮食比较习惯 生活成本感觉差距不大 2,30…
打开浏览器就能用(只支持 chrome 系的浏览器),可以编辑本地文件,可以预览 markdown 。 源代码: github.com/xieyuheng/x-editor…
写游戏写一半不知道按到了哪个快捷键开启了这个 Windows 自带功能,正准备把它给关掉,结果第一个界面就一样看到了一处 typo 这已经是以稳定为卖点的 Windows 1…