请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?

只讨论满血版 671B, 阉割版不在讨论范围内.
需要稳定的, 官网 API 已经连续 9 天 Major/Partial Outage 了.
硅基流动就别说了, 慢的受不了.🤦

together 的快,但是贵,输入输出都是 7 刀/m

fireworks.ai/ 现在用的是这家,速度还可以。groq 上有个 deepseek r1 蒸馏的 llama3 70b ,速度暴快。

谢谢, together 速度确实比硅基快多了. (钱包已捐 hh)

感谢, 这就去试试.
groq 上那个确实超快(纯粹的追求速度😂), 可惜蒸馏的 70B 效果比完整版还是差了一些.

字节火山有满血版的,送 500,000 tokens ,兼容 OpenAI SDK ,响应快,但是有时候会抽风变成非推理模型

直接用官方付费的吧 不贵 百万才 14

打不开 API 平台, 一直处于不可用的状态

我的 api 还能调通

我用的 azure 部署的 r1 ,速度挺快的,就是在美区

官方 api 在用着, 但是抽风时段太长了, 经常干活的时候用不了😂(被迫寻找替代

黄老板的免费的 5000 速度还行

我在用这个 ppinfra.com ,在国内几个平台中算比较稳定的了。

groq 上那个 70B 不好用吗? DS 原版的 R1 是什么尺寸的模型呀?

完整版 671B ,差了将近十倍参数。

请问是平台 api 便宜还是自己在云平台部署划算? 比如楼上的推荐的平台:
大语言模型名称 上下文 Input Output
deepseek/deepseek-r1 64000 ¥ 4 /百万 tokens ¥ 16 /百万 tokens

哦,那目前国内其他平台提供的也是完整版的 R1 吗? 好像没看到他们提及到该参数.

api 便宜又方便

这要看平台的描述以及信用了. 目前用的是 Azure 的 API, 国内好像可以直接访问, token 生成速度很快.
together 的 api 有点奇怪, 一些问题的回答明显和 deepseek 官方以及 azure api 的不同, 甚至答错. 也许是用了过于激进的缓存技术? 已弃用.

请教下 op ,我理解 deepseek 不是应该是只有 deepseek app 官网才可以使用么,就算用了 deepseek api ,那也是套一个壳,本质底层还是 deepseek 的服务器。

像楼上所说的 together firework 是 deepseek 是什么关系?难道是部署了 deepseek 的一些开源模型,然后使用 together 的 api 请求的是 together 的底层服务器,但是 together 的服务器部署的是 deepseek 开源的模型么?

你使用的是 deepseek 模型比如 R1 ,模型部署后通过 api 接口调用,官网只是给用户提供了一个 web 界面。
由于模型开源,其他商家如果部署后,同样可以提供 api 服务,选择相应模型即可。

有没有速度比较快的 deepseek v3 的 API 😂

试了一下效果不错,感谢

感谢,由于 R1/V3 模型开源,所以 together 、fireworks 这种才能提供 deepseek 的模型,如果不开源也就是提供不了了,是这么意思吧

那么我如果有一个很强的机器,我也是可以部署复现 R1 这种模型的对吧