cursor 和 windsurf 都已经是 coder 好帮手了。但到现在( 2025 年初)为止,用 vscode 插件 cline(roo-cline)+continue 加上 deepseekv3-coder 或者用 gemini-2.0-flash-exp 或者用硅基流动,能否达到 pro 版本 cursor 水平呢?
重点考虑两点,生成的代码质量和模型的消耗。
我看过一些朋友分享,cline 消耗太多的 token ,即使是便宜的 deepseek 也遭不住。另外对于补全功能,cline 似乎也支持的不好。
有没有朋友体验过这几款做一下对比?
另外,我使用的 gemini, 即使用它的 1.5-flash 也经常会遇到 429 。
至于宣布免费的 copilot 好像很少有人在 cursor 面前对比它,即使我有学生包我也没用过。所以就不拿来对比吧。

Cursor 经常对比的就是 Github Copilot 啊, 这两个都是 gpt 和 Claude 自由选择, Cursor 体验好的点在于它改进了 vscode 的底层补全能力, 你列举的这些都是在 vscode 的基础上, 要看未来 vscode 会不会改进补全 API, 不然永远达不到 Cursor 的体验

deepseek 刚出我就用了,前段时间吹 cursor ,最近又开始一窝蜂的吹 deepseek 了,也就那么回事

deepseek 我也是在 24 年十月末就用了,但它和 cursor 不是同一个东西。。一个是编辑器,另一个是大模型平台。

只看对话的形式的话,其实自己整一个类似的成本不高的,我业务做了一个玩玩,把自己一些和别人不太一样的交互和功能想法往里做: www.bilibili.com/video/BV1CDrGYQEUM

我现在 deepseek 是放到 bob 里单纯做翻译了,然后侧边栏有 chatgpt 和 deepseek ,简单的问题就问问 deepsekk ,毕竟比较快

侧边栏用的是什么工具?

同问

翻译的话 直接跑 ollama 比较好。deepseek 目前放在 openwebui 上用。

cline 和 continue 有什么区别?我理解这两都是代码助手,有一定功能重叠,为什么需要“全都要”?

cline 可以分配任务,让它从 0 写一个小项目,只需要同意它创建文件给一下权限即可。continue 主要用分析代码,选择一段代码 cmd+L 让它重构或者分析。

所以,continue 是类似 copilot 的补全+ai chat 功能。cline 是类似 cursor 自动创建项目文件的 ai agent 功能?

cursor 略胜一筹。

#11 yes

slidepad

非常奇怪的一点。也不知道 cursor 到底是什么魔法。。市面上所有的补全也好,自动修改也好。就是 cursor 的快如闪电。

cline 设计更倾向于自动化吧 continue 更多是一个辅助工具 不过 cline 的 token 消耗速度。。。还是 continue 吧。。

continue 用本地 ollama 来个 1.5b 也够快了 不过这个速度就和本地显卡相关了。。

快没用啊。。不对啊。。就是要稳定性的 95%以上是对的。本地没一个能打的

我现在用 qwen2.5 coder 3b 感觉还行 emmm 这东西很玄学或者说和他训练语料很相关 我之前跟着一个教程学 rn 应该是用了那个仓库代码训练 补全和他教程里出来的东西一模一样 样式设置 padding 啥的都一样。。。有种过拟合的美感

cursor 中配置使用 deepseek v3 ,用下来也还好。

怎么配置啊。我没看到配置 deepseek 模型地址的地方,我只把模型名称加进去了好像不太行

模型中添加 "deepseek-chat"

openai api key 中填 deepseek 申请的 key ,
下面一行小字,override openai base url ,填: api.deepseek.com/

现在申请,送 500w token , 以后 10 块钱 500w token 。 比 chatgpt 便宜很多。

#22 我申请了,有账号的,后面好像要涨价了 8 块 100w token

#20 我用 vscode+cline+deepseek v3 经常要等 api request 很久,你们遇到过吗?

好像是相对有一点慢。总是要等一下

确实很慢,跑个任务要半天,有时候还会卡住,而且上下文长度也很容易超。和 cursor 差的不是一星半点。

谁给这个帖子移动到 LLVM 下了?和编译器没有关系,请帮我移动到正确的 node 下。

达不到啊,代码还是 Claude ,gemini 能用,写的也还行就是有时候词不达意的。cline 的 token 消耗也太快了。

你用 cline token 消耗的快吗

输出超还是上下文长度超?
输出超要配置 max_token, 默认 4k ,最大可配置为 8k 。好像 chatgpt o1 是 16k
最大上下文,ds 是 64k ,chatgpto1 我记得是 128k

收到。

cc
这个帖子现在会被移动回本来的 /go/programmer 节点。

#31 OK