请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?
请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?
只讨论满血版 671B, 阉割版不在讨论范围内.
需要稳定的, 官网 API 已经连续 9 天 Major/Partial Outage 了.
硅基流动就别说了, 慢的受不了.🤦
together 的快,但是贵,输入输出都是 7 刀/m
fireworks.ai/ 现在用的是这家,速度还可以。groq 上有个 deepseek r1 蒸馏的 llama3 70b ,速度暴快。
谢谢, together 速度确实比硅基快多了. (钱包已捐 hh)
感谢, 这就去试试.
groq 上那个确实超快(纯粹的追求速度😂), 可惜蒸馏的 70B 效果比完整版还是差了一些.
字节火山有满血版的,送 500,000 tokens ,兼容 OpenAI SDK ,响应快,但是有时候会抽风变成非推理模型
直接用官方付费的吧 不贵 百万才 14
打不开 API 平台, 一直处于不可用的状态
我的 api 还能调通
我用的 azure 部署的 r1 ,速度挺快的,就是在美区
官方 api 在用着, 但是抽风时段太长了, 经常干活的时候用不了😂(被迫寻找替代
黄老板的免费的 5000 速度还行
我在用这个 ppinfra.com ,在国内几个平台中算比较稳定的了。
groq 上那个 70B 不好用吗? DS 原版的 R1 是什么尺寸的模型呀?
完整版 671B ,差了将近十倍参数。
请问是平台 api 便宜还是自己在云平台部署划算? 比如楼上的推荐的平台:
大语言模型名称 上下文 Input Output
deepseek/deepseek-r1 64000 ¥ 4 /百万 tokens ¥ 16 /百万 tokens
哦,那目前国内其他平台提供的也是完整版的 R1 吗? 好像没看到他们提及到该参数.
api 便宜又方便
这要看平台的描述以及信用了. 目前用的是 Azure 的 API, 国内好像可以直接访问, token 生成速度很快.
together 的 api 有点奇怪, 一些问题的回答明显和 deepseek 官方以及 azure api 的不同, 甚至答错. 也许是用了过于激进的缓存技术? 已弃用.
请教下 op ,我理解 deepseek 不是应该是只有 deepseek app 官网才可以使用么,就算用了 deepseek api ,那也是套一个壳,本质底层还是 deepseek 的服务器。
像楼上所说的 together firework 是 deepseek 是什么关系?难道是部署了 deepseek 的一些开源模型,然后使用 together 的 api 请求的是 together 的底层服务器,但是 together 的服务器部署的是 deepseek 开源的模型么?
你使用的是 deepseek 模型比如 R1 ,模型部署后通过 api 接口调用,官网只是给用户提供了一个 web 界面。
由于模型开源,其他商家如果部署后,同样可以提供 api 服务,选择相应模型即可。
有没有速度比较快的 deepseek v3 的 API 😂
试了一下效果不错,感谢
感谢,由于 R1/V3 模型开源,所以 together 、fireworks 这种才能提供 deepseek 的模型,如果不开源也就是提供不了了,是这么意思吧
那么我如果有一个很强的机器,我也是可以部署复现 R1 这种模型的对吧
从Rob Pike 的 Google+上的一个推看到了一篇叫《Understanding Object Oriented Programming》的文章,我先把这篇文章简述一下…
正在开发一款软件。 设计时,软件运行需要类似网银 U 盾的硬件设备插入计算机,才可以运行软件。 请问淘宝有没有类似这种可以 U 盾可以二次开发和售卖? PS:淘宝输入加密狗,发…
没用过 Cursor,也不是传统的前后端开发工程师,平时调调 chatgpt 也只是写写 SQL 和测试用例,不太明白最近的 AI 热是怎么回事(哪怕是 chatgpt 有时候…