V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  teaguexiao  ›  全部回复第 2 页 / 共 2 页
回复总数  23
1  2  
我用 Claude Code 大概两个多月了,Pro 订阅没被封。经验是:IP 质量很关键,建议用干净的住宅 IP 或者质量好的机场,不要用数据中心 IP 。另外 Claude Code 用量别太猛,特别是刚充值的前几天,稳定用一周再加量。账号本身倒无所谓,主要是行为模式别太像自动化批量操作。
5 天前
回复了 blueslmj 创建的主题 程序员 大佬们都用什么 AI IDE?
说下我的组合:VSCode + Claude Code CLI + GitHub Copilot Pro

日常工作流是 Claude Code 做主力 agent 处理复杂任务,Copilot 做轻量补全和快速提问。VSCode 纯当编辑器用,看 diff 和文件结构。

之前也用过 Cursor ,体验确实不错,但 Claude Code CLI 出来之后发现 agent 模式下 CLI 反而比 IDE 内嵌的更灵活,上下文管理也更清晰。而且 CLI 可以搭配 tmux 多开,一个窗口跑 agent 一个窗口看代码,互不干扰。

成本方面 Copilot Pro $10/月 + Claude Max 如果预算够的话是最省心的。预算有限可以用 Copilot 的 oauth 给开源 CLI agent 用,性价比很高。

同意 16 楼说的,现在工具链已经不是瓶颈了,模型能力和自己的业务理解才是关键。
@FlashEcho 我最近也测了一圈,简单说下结论:

纯中文场景:豆包流式 2.0 > 千问 ASR > 本地 SenseVoice Small 。豆包的中文识别确实是目前公认最强的,几乎不用改。

中英混输场景:差距就大了。豆包和千问的英文识别都一般,尤其是技术术语和人名。本地 SenseVoice 在中英混输上更弱一些。这个场景目前 Typeless 效果最好,但它是客户端产品,按月订阅,价格也贵。

延迟方面:本地模型响应最快(几乎无延迟),但吃内存(~800M )。在线模型延迟可以接受,日常使用体感不明显。

我现在的方案和楼主类似,闪电说 + 豆包在线模型为主,偶尔切本地。如果你主要用中文,豆包流式 2.0 基本就够了。中英混输需求多的话,目前确实没有特别完美的免费方案。
1  2  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5502 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 07:29 · PVG 15:29 · LAX 00:29 · JFK 03:29
♥ Do have faith in what you're doing.