看了一圈都是售罄,国外的只能紧着用,完全不敢接到应用里。免费的 api 也都是定量,而且质量有点低
1
longxinglink 1 天前
OP 需求是啥,codex free 免费管饱,antigravity 生图玩 PPT 很好用,nvidia API 免费且支持并发,ollama APi 开源模型跟进更快
|
2
yulon 1 天前
Kimi 2.5 能满足的话可以用 Fireworks 的 Fire Pass
|
3
abc0123xyz 1 天前
鱼 搜 硅基流动 代金券
然后买 deepseek api 吧 接应用别搞 coding plan ,万一后期杀的严了,付费买原价买不起。 至少 deepseek 是真的便宜 |
4
GiantHard 1 天前
MiniMax 的 token plan 还在卖
|
5
jqknono 1 天前
|
6
Atma 1 天前 via Android
个人项目就买点中转的,别买太长
|
9
rust 1 天前
不推荐 MiniMax, 就是一坨.
|
10
ebushicao 1 天前
MiniMax 量大便宜,但过于降智,很多时候 skill 都不会调用,一问截止数据就知道路由到更差的模型上了。原本的 MiniMax-M2.7 还是可以的,比 glm-4.7 强和 glm-5 差不多。但是架不住白天调用给 M2 甚至 M1 的模型。
|
11
MontyWei 1 天前 可以看看 ollama cloud ,可以调用国内外的开源模型,注册之后有免费额度。你可以先试试开源的模型是否合适,之后再考虑购买套餐。
|
12
ayasealter570 1 天前
工作日都不太行。整点藤子的积分和 opencodeGo 吧
|
14
skallz 1 天前
之前买的百度家的,逛了一圈就百度家的能买得到,其他家全是耍猴,秒售罄。。。
|
15
wsbqdyhm 1 天前 via iPhone
关注一下,目前用 minimax ,随便玩玩龙虾还可以
|
16
cookii 1 天前
minimax 改复杂问题还差点,写业务代码是够了,主要是速度还比较快。
|
17
konakona 1 天前
目前用阿里云 Coding Plan Pro 投喂小龙虾……还算稳定,用的 qwen3.5 plus ,别的几个套餐内的模型简直了……= =#
|
18
cskeleton 1 天前
minimax 量大管饱,但是智商不行,模型规模就那样,我拿来接龙虾。
|
19
Rehtt 1 天前 via Android
mac 自建
|
20
rick13 1 天前
我周末刚买了 minimax49 一个月的套餐,用了两天感觉还行,也有可能是因为我用量不大的原因
|
22
jixule 1 天前
硅基流动代金券,方舟还能买到
|
23
LiXueLong 1 天前
@longxinglink 大佬,请问 codex free 免费管饱怎么操作
|
25
xiangqiankan 1 天前
@jixule 方舟千万别碰,量化版本就算了,额度还低,反应慢
|
30
wsseo 1 天前
国外 API 自己用可以,但是不要接到应用里,第一是网络不稳定,第二是找不到售后。
|
33
tedzhou1221 23 小时 45 分钟前
minimax 极速版。简单问题,重复性的问题。让它来。
|
34
superkite OP @longxinglink 把 agent 接到应用里,目前接的阿里云百炼的免费模型
|
36
superkite OP @abc0123xyz deepseek 现在质量怎么样
|
40
superkite OP 我主要是自己开发的 app 和网站需要接入 agent ,现在接的阿里云免费 qwen-flash 模型,目前用户量比较小还能扛住,后面如果推广做起来了怕会顶不住,所以需要那种量大管饱的 apikey 和不算太笨的模型
|
41
ayasealter570 22 小时 20 分钟前
kimicode199 的,minimax 工作日都会截断了
|
42
longxinglink 21 小时 54 分钟前
|
44
lynn1su 20 小时 46 分钟前
@ebushicao #43 不可能比 kimi2.5 强的,我已经本地部署了,智力感觉就超过了悦阶星辰的 step-3.5-flash ,和 glm-4.7 差不多,不可能有 kimi-2.5 这个水平的
|
46
fanfpy 20 小时 32 分钟前
无问芯穹 三十天 12000 调用
|
47
NoobNoob030 20 小时 0 分钟前
我自己 vibe 用中转站 gpt5.4 很便宜
|
48
captain55 19 小时 33 分钟前
@longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗?
|
49
qyc666 19 小时 9 分钟前
codex free 虽然量大,可是真的不管饱
nvidia 的 api 好用是好用,可是速度慢,别提往应用里接了 |
50
66beta 18 小时 28 分钟前
deepseek 或 kimi 自己充钱吧,我用下来觉得还行的,没有比当下 4 月份的 claude 笨,反正觉得更聪明点,主要是量大管饱,1 块钱能做一个大任务
|
51
sheaned 13 小时 51 分钟前
百度能买,就是并发低
|
52
chenjunqiang 1 小时 56 分钟前
@longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗?
|
53
longxinglink 26 分钟前
@chenjunqiang
https://openai.com/codex/ 几乎没有注册门槛,只需要一个临时域名邮箱,同时多个国家首月 Plus/Business 免费,只需要绑定一个支付方式即可, 如果你不愿意绑定,free 计划也可以在 codex 中使用 gpt-5.4 , 包括 xhigh 级别思考方式,额度是 Plus 的一半,2.2 美元每五个小时,你想要用什么模型? @captain55 |
54
longxinglink 19 分钟前
@superkite https://build.nvidia.com/settings/api-keys 我推荐使用这个,API 里大概 280 个开源模型,包括 google/gemma-4-31b-it ,z-ai/glm5 这类,域名邮箱不需要手机号验证,免费计划支持 40 并发,几乎无限量,个人完全用不掉
base url https://integrate.api.nvidia.com/v1 key 用自己账户里的,不需要绑定支付方式,只需要域名邮箱接收验证码。 |
55
longxinglink 14 分钟前
@longxinglink 更正,是 187 个开源模型,我把 ollama (也是免费)的 36 个模型和其他 tab 模型也算进去了,ollama 可以在
https://ollama.com/ 注册,也是不需要验证手机号,不需要支付方式,直接获取免费 API ,比 nvidia 限制多,且一个 API 在同时间只能请求同一个模型 base url https://ollama.com/v1 API 填自己的,包含 glm-5.1 ,gemma4:31b ,minimax-m2.7 等 36 个开源模型 |