1
HFX3389 16 小时 22 分钟前 via iPhone
拿来跑龙虾呗,跑龙虾应该足够聪明
|
2
DiffView 16 小时 4 分钟前
没想到就对了,不骗你入坑,怎么有那么高的股价?
|
3
ClericPy 15 小时 45 分钟前
我好奇 highspeed 套餐真那么快吗?
|
4
shakaraka PRO 是什么让你这么正为的?我都有点好奇
|
5
shakaraka PRO 本来就不行的呀。怎么可能次于,次于 5.4 的是 opus4.6
|
6
dingawm 15 小时 15 分钟前
试了下 glm 4.7 和 minimax 2.5 ,感觉 glm 的要强点
|
7
laikicka 15 小时 13 分钟前
中产模型, 跑分没输过 体验没赢过
|
8
snowsky 13 小时 34 分钟前
它刚出来的时候,用过一次,回答的最后一句,“以上答案由 Claude Sonnet 生成“。。。
|
9
sddyzm 13 小时 20 分钟前 via iPhone ai 排行唯一真神 lmarena
|
10
bingoso 11 小时 20 分钟前 via iPhone
我也来避个雷,豆包的那个 code 模型,也是一大坨。
|
11
weixiangzhe 10 小时 14 分钟前 via Android
minmax 写的规则 他一般只执行一半
|
12
ehehela 7 小时 39 分钟前
现在国产最好用的是哪一个
|
13
TK6 7 小时 34 分钟前
目前就编码来看 GLM-5 是最好用的
|
14
v2gba 7 小时 22 分钟前
我也买了 119
感觉跑小龙虾 不让他写代码还能凑合 但是也根本没必要 119 感觉都用不完 |
15
traffic 7 小时 14 分钟前
以前用 minimax 2.5 ,给了 5000 字的背景信息,问了个问题,结果输出的是乱码。
感觉在用 3B 模型 |
17
iorilu 7 小时 12 分钟前
跑分就和考试一样
分数高不一定能力强 |
19
isnullstring 7 小时 9 分钟前
特色模型,跟当初手机跑分一样
|
20
subpo 7 小时 8 分钟前
minimax 的宣传确实有问题,他本质上是一个“中”模型,和 GLM kimi 甚至小米 v2 pro 都是不能比的
如果把他当作任务的执行者,是非常好用的,便宜的成本让人有 token 自由的快感,只用他担当主力是不行的 其实相比 GLM ,我个人更喜欢 minimax ,GLM 很慢,和最顶尖的 codex/opus 比不够聪明,也不够便宜 |
23
subpo 7 小时 6 分钟前
@subpo
有人在本地买魔改 5090 跑 qwen3.5 27b ,我觉得 minimax 的定位类似于这个,执行模型或者辅助模型 minimax 升级 token plan 后删除了 “周限额” 字段,max plan 官方 9 折后 1071 元包年,5 小时 300 prompt ,也就是每分钟可以跑一个任务,这个用量随便跑 autoresearch / ralph loop 了,真正的 token 自由,这个价格可能都不足自己本地跑模型的电费了,还要啥自行车 |
24
NoNewWorld 7 小时 6 分钟前
拿来跑龙虾还行。说实话,除了 claude , 其他只有 GPT 能勉强用用, 不过也挺拉的。
|
25
Panameragt 7 小时 6 分钟前
你不会是拿来它来编程吧?
|
26
xitler OP @Panameragt 是啊
|
28
micookie 7 小时 3 分钟前
|
29
uqf0663 7 小时 3 分钟前
楼上一堆说拿来跑龙虾的,为什么我拿 M2.7 跑龙虾都觉得好蠢,经常把自己搞死了。
|
30
AlisterTT 6 小时 59 分钟前
我好奇有没有人试过国际站的,是不是不会有高峰限流问题
|
31
SuQiankun 6 小时 52 分钟前
我的对比了一下 glm5 和 minimax2.5, 在 claude code 按照同一个规划文件来执行, minimax2.5 被 glm5 锤爆.....
|
32
yanyao233 6 小时 50 分钟前
确实很离谱,M2.5 真的真的很蠢,把 K2.5 衬托的简直像个天才...
|
33
Panameragt 6 小时 39 分钟前
@xitler #26 老老实实用 Anthropic 全家桶
|
34
fadaixiaohai 6 小时 34 分钟前
M2.7 都不太好用,感觉经常会错意。体验起来不如 GLM5 ,甚至不如 deepseek 3.2
|
35
someonelikeyouah 6 小时 32 分钟前
@snowsky #8 笑不活了
|
36
zhiluop 6 小时 29 分钟前
M2.7 拿来聊天就行,真要编程不如用 GLM 和 Kimi
|
37
cheng6563 6 小时 28 分钟前
我用起来,感觉还是 qwen 好用些,只要没撞上中英文间乱插空格的 bug
|
38
MIUIOS 6 小时 26 分钟前
考虑半价出吗哥
|
40
zjcolvin 6 小时 20 分钟前
正在考虑中为 opencode 付费,有老哥评价一下的吗
|
42
rockddd 5 小时 38 分钟前
直接用隔壁站大佬的那个免费中转站跑龙虾呀,目前还挺好用的
|
43
imsoso 5 小时 33 分钟前
自从我知道国产模型会对 benchmark 特调以后。。。
|
44
xmy2232867 5 小时 28 分钟前
@shakaraka #5 GPT5.4 比 opus 还强了?
|
45
cs10086 5 小时 21 分钟前
实在想不通为啥用 minimax ,codex 挺好付费的,claude 买个中转站也凑合。
|
46
5800X3D 5 小时 11 分钟前
不知道你是什么使用场景. 我平时写写 crud 后端没怎么用过, 前端基本上都是 miniMax M2.5 一把梭,体验还是非常好的.
我是在 trae cn 里用的 miniMax M2.5, 优点就是免费, 错误率比较低. 缺点就是生成的比较慢;上下文太短了,基本上一次提示词下来就会占到 20%左右, 几个指令下来就要开新任务了.. 我也用过 cursor 的 auto 模式.里面应该都是国外的模型吧, 优点是代码生成速度快比 miniMax 要快的多. 缺点就是有小概率会出现引入了一些不存在的包,需要返工... |
48
jchencode 4 小时 58 分钟前
国产模型,很多都是为了跑分,跑榜单,刷排名。细节体验,差的一批。跑龙虾我都不用,我不需要一个弱智龙虾。
|
49
edisonwong 4 小时 34 分钟前
很多模型都是为 swe ,榜单特殊优化的! 远离国产,glm-5 还行
|
50
snowsky 4 小时 20 分钟前
@codersdp1 @someonelikeyouah 后来 Anthropic 说有些 model 是蒸馏出来的,我也就不奇怪了 LOL
|
52
ssting 3 小时 40 分钟前
全是跑分怪.
一用拉跨 |
53
unco020511 3 小时 25 分钟前
目前深度使用下来,AI coding 能真正产生很大生产力的系列模型只有三个: Opus 4.6/gemini 3.1pro/gpt5.3+,其他一众国产模型的都是打榜跑分怪,根本没法真正产生极大的生产力.
|
54
Waschl 3 小时 23 分钟前
我就拿来跑 openclaw, 干活还是 Opus
|
55
clemente 3 小时 21 分钟前
模型只有
claude/gemini/grok/gpt |
56
www12222 3 小时 17 分钟前
便宜+快,拿来跑跑简单的任务不是挺好的
|
57
cabing 3 小时 13 分钟前
glm5 还行。
|
58
shakaraka PRO @xmy2232867 #44 是的。除非 opus 出下一代。而且 GPT 5.4 Pro 更强,有幸用了几回。pro 没有在 codex 提供的
|
59
stepan 3 小时 1 分钟前
跑跑龙虾还可以 2.5 的时候试了一下,反正能用
|
60
guichen 2 小时 48 分钟前
官网套餐全都先付费没试用的,说明他们自己都对产品没信心,只能靠营销来吸引购买
|
61
tairan2006 2 小时 34 分钟前
别人$20 一个月,你$20 一年,还斥啥巨资。。
|
62
xitler OP @tairan2006 119 一个月啊。。。比 claude pro 贵点了
|
63
Gilfoyle26 2 小时 20 分钟前
|
64
KisekiRemi 2 小时 19 分钟前
只能跑跑简单需求,真的要干活还得上 codex 和 claude
|
65
ohoh 2 小时 18 分钟前
你们到底有几个真实且深度用过就在说差的?
|
66
devloperchen 2 小时 13 分钟前
老实说,我是深度使用过好几个月的。主要是用来开发 Android app ,而且是一个十年多的老项目了。没有你们说的那么难堪,只有你把功能描述完成,告诉它改哪个文件,用 claude code plan 模式基本上都是没有问题的。但是,和国外的模型肯定是有很大差距的。
|
68
bbbblue 1 小时 48 分钟前
"看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 "
????那个 benchmark 是这么写的 是不是里面就只有 5 个模型 御三家 m2.5 和 m2.7 然后说仅次于 gpt 5.4 的 😂 |
69
zhouxu 1 小时 40 分钟前
图便宜买了 400 的年卡,发现生成的代码有时候没法看
|
70
Leeeeex PRO 之前抽奖抽到了个 kimi 会员,试了一下 kimi cli
重复任务和排查任务很快,速度和最终展示效果都挺不错的 但是创新型任务就不太行了,还得用 claude 你可以留着这个做一些简单的工作 |
71
coolcoffee 1 小时 27 分钟前
大模型跑分就像安卓厂商跑分一样,一个特调了之后同行也要被迫特调的。
|
72
slowgen 1 小时 19 分钟前
官方算力不够所以可能降智了,说不定 together.ai 和 fireworks.ai 这种自己部署的会好一点,毕竟海外不缺算力。
我是自建的,用了 4 张 H20 跑 MiniMax M2.5 的 FP8 量化,挺好用的,无限 token 给了我很大想象力。再低成本一点可以 2 张 RTX Pro 6000 跑 NVFP4 ,或者等 M5 Ultra 出来,不要买 M5 之前的版本因为 prefill 慢。 |
73
yinyu 1 小时 5 分钟前 指令的遵守都一坨屎,无力吐槽了。
|
74
looplj 13 分钟前
写代码,国内模型我只用 glm5
|
75
xiaolanger 10 分钟前
2.7 比 kimi 好用
|