V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
xitler
V2EX  ›  程序员

[纯吐槽]没想到 minimax 会这么难用

  •  
  •   xitler · 16 小时 33 分钟前 · 5059 次点击
    看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 。价格又很有诱惑力,差点没把持住买年卡。斥巨资 119 买了 max 套餐之后才发现实际上垃圾的要命,这是我用过最差劲的模型。别说国外模型了,比 kimi 都差一大截。
    真就跑分没输过,实战没赢过。
    75 条回复    2026-03-25 16:09:53 +08:00
    HFX3389
        1
    HFX3389  
       16 小时 22 分钟前 via iPhone
    拿来跑龙虾呗,跑龙虾应该足够聪明
    DiffView
        2
    DiffView  
       16 小时 4 分钟前
    没想到就对了,不骗你入坑,怎么有那么高的股价?
    ClericPy
        3
    ClericPy  
       15 小时 45 分钟前
    我好奇 highspeed 套餐真那么快吗?
    shakaraka
        4
    shakaraka  
    PRO
       15 小时 44 分钟前 via iPhone
    是什么让你这么正为的?我都有点好奇
    shakaraka
        5
    shakaraka  
    PRO
       15 小时 43 分钟前 via iPhone
    本来就不行的呀。怎么可能次于,次于 5.4 的是 opus4.6
    dingawm
        6
    dingawm  
       15 小时 15 分钟前
    试了下 glm 4.7 和 minimax 2.5 ,感觉 glm 的要强点
    laikicka
        7
    laikicka  
       15 小时 13 分钟前
    中产模型, 跑分没输过 体验没赢过
    snowsky
        8
    snowsky  
       13 小时 34 分钟前
    它刚出来的时候,用过一次,回答的最后一句,“以上答案由 Claude Sonnet 生成“。。。
    sddyzm
        9
    sddyzm  
       13 小时 20 分钟前 via iPhone   ❤️ 1
    ai 排行唯一真神 lmarena
    bingoso
        10
    bingoso  
       11 小时 20 分钟前 via iPhone
    我也来避个雷,豆包的那个 code 模型,也是一大坨。
    weixiangzhe
        11
    weixiangzhe  
       10 小时 14 分钟前 via Android
    minmax 写的规则 他一般只执行一半
    ehehela
        12
    ehehela  
       7 小时 39 分钟前
    现在国产最好用的是哪一个
    TK6
        13
    TK6  
       7 小时 34 分钟前
    目前就编码来看 GLM-5 是最好用的
    v2gba
        14
    v2gba  
       7 小时 22 分钟前
    我也买了 119

    感觉跑小龙虾 不让他写代码还能凑合 但是也根本没必要 119 感觉都用不完
    traffic
        15
    traffic  
       7 小时 14 分钟前
    以前用 minimax 2.5 ,给了 5000 字的背景信息,问了个问题,结果输出的是乱码。
    感觉在用 3B 模型
    traffic
        16
    traffic  
       7 小时 13 分钟前
    @traffic #15 说了是 MiniMax M2
    iorilu
        17
    iorilu  
       7 小时 12 分钟前
    跑分就和考试一样

    分数高不一定能力强
    xitler
        18
    xitler  
    OP
       7 小时 11 分钟前
    @shakaraka 只能说谁用谁知道,基本无法正常完成编程工作。从 opus 和 gpt 切过来落差巨大
    isnullstring
        19
    isnullstring  
       7 小时 9 分钟前
    特色模型,跟当初手机跑分一样
    subpo
        20
    subpo  
       7 小时 8 分钟前
    minimax 的宣传确实有问题,他本质上是一个“中”模型,和 GLM kimi 甚至小米 v2 pro 都是不能比的

    如果把他当作任务的执行者,是非常好用的,便宜的成本让人有 token 自由的快感,只用他担当主力是不行的

    其实相比 GLM ,我个人更喜欢 minimax ,GLM 很慢,和最顶尖的 codex/opus 比不够聪明,也不够便宜
    xitler
        21
    xitler  
    OP
       7 小时 7 分钟前
    @subpo 原来如此,不过确实是超级便宜,一周能有 4.5w 次请求的额度。拿来跑跑龙虾也算是"废物"利用了
    xitler
        22
    xitler  
    OP
       7 小时 6 分钟前
    @ClericPy 不太清楚,我买的是 50TPS 的,挺快的。
    subpo
        23
    subpo  
       7 小时 6 分钟前
    @subpo
    有人在本地买魔改 5090 跑 qwen3.5 27b ,我觉得 minimax 的定位类似于这个,执行模型或者辅助模型

    minimax 升级 token plan 后删除了 “周限额” 字段,max plan 官方 9 折后 1071 元包年,5 小时 300 prompt ,也就是每分钟可以跑一个任务,这个用量随便跑 autoresearch / ralph loop 了,真正的 token 自由,这个价格可能都不足自己本地跑模型的电费了,还要啥自行车
    NoNewWorld
        24
    NoNewWorld  
       7 小时 6 分钟前
    拿来跑龙虾还行。说实话,除了 claude , 其他只有 GPT 能勉强用用, 不过也挺拉的。
    Panameragt
        25
    Panameragt  
       7 小时 6 分钟前
    你不会是拿来它来编程吧?
    xitler
        26
    xitler  
    OP
       7 小时 5 分钟前
    @Panameragt 是啊
    qweink
        27
    qweink  
       7 小时 4 分钟前
    @HFX3389 实测跑龙虾也不行,多问几个问题就 api rate 限流,确实垃圾,年付了感觉上当。
    micookie
        28
    micookie  
       7 小时 3 分钟前
    https://arena.ai/leaderboard/code 的排名还挺高的。
    达到了 GLM5 的水平,远超 KIMI2.5 ,
    有刷榜的嫌疑吗?
    uqf0663
        29
    uqf0663  
       7 小时 3 分钟前
    楼上一堆说拿来跑龙虾的,为什么我拿 M2.7 跑龙虾都觉得好蠢,经常把自己搞死了。
    AlisterTT
        30
    AlisterTT  
       6 小时 59 分钟前
    我好奇有没有人试过国际站的,是不是不会有高峰限流问题
    SuQiankun
        31
    SuQiankun  
       6 小时 52 分钟前
    我的对比了一下 glm5 和 minimax2.5, 在 claude code 按照同一个规划文件来执行, minimax2.5 被 glm5 锤爆.....
    yanyao233
        32
    yanyao233  
       6 小时 50 分钟前
    确实很离谱,M2.5 真的真的很蠢,把 K2.5 衬托的简直像个天才...
    Panameragt
        33
    Panameragt  
       6 小时 39 分钟前
    @xitler #26 老老实实用 Anthropic 全家桶
    fadaixiaohai
        34
    fadaixiaohai  
       6 小时 34 分钟前
    M2.7 都不太好用,感觉经常会错意。体验起来不如 GLM5 ,甚至不如 deepseek 3.2
    someonelikeyouah
        35
    someonelikeyouah  
       6 小时 32 分钟前
    @snowsky #8 笑不活了
    zhiluop
        36
    zhiluop  
       6 小时 29 分钟前
    M2.7 拿来聊天就行,真要编程不如用 GLM 和 Kimi
    cheng6563
        37
    cheng6563  
       6 小时 28 分钟前
    我用起来,感觉还是 qwen 好用些,只要没撞上中英文间乱插空格的 bug
    MIUIOS
        38
    MIUIOS  
       6 小时 26 分钟前
    考虑半价出吗哥
    xitler
        39
    xitler  
    OP
       6 小时 22 分钟前
    @MIUIOS 你要吗,这周才买的没怎么用,可以 90 出给你
    zjcolvin
        40
    zjcolvin  
       6 小时 20 分钟前
    正在考虑中为 opencode 付费,有老哥评价一下的吗
    svtter
        41
    svtter  
       5 小时 41 分钟前
    @zjcolvin 直接卖 opencode go ,然后多用 glm-5
    rockddd
        42
    rockddd  
       5 小时 38 分钟前
    直接用隔壁站大佬的那个免费中转站跑龙虾呀,目前还挺好用的
    imsoso
        43
    imsoso  
       5 小时 33 分钟前
    自从我知道国产模型会对 benchmark 特调以后。。。
    xmy2232867
        44
    xmy2232867  
       5 小时 28 分钟前
    @shakaraka #5 GPT5.4 比 opus 还强了?
    cs10086
        45
    cs10086  
       5 小时 21 分钟前
    实在想不通为啥用 minimax ,codex 挺好付费的,claude 买个中转站也凑合。
    5800X3D
        46
    5800X3D  
       5 小时 11 分钟前
    不知道你是什么使用场景. 我平时写写 crud 后端没怎么用过, 前端基本上都是 miniMax M2.5 一把梭,体验还是非常好的.

    我是在 trae cn 里用的 miniMax M2.5, 优点就是免费, 错误率比较低. 缺点就是生成的比较慢;上下文太短了,基本上一次提示词下来就会占到 20%左右, 几个指令下来就要开新任务了..

    我也用过 cursor 的 auto 模式.里面应该都是国外的模型吧, 优点是代码生成速度快比 miniMax 要快的多. 缺点就是有小概率会出现引入了一些不存在的包,需要返工...
    codersdp1
        47
    codersdp1  
       5 小时 5 分钟前
    @snowsky 难怪刚开始免费的时候,我感觉它很强
    jchencode
        48
    jchencode  
       4 小时 58 分钟前
    国产模型,很多都是为了跑分,跑榜单,刷排名。细节体验,差的一批。跑龙虾我都不用,我不需要一个弱智龙虾。
    edisonwong
        49
    edisonwong  
       4 小时 34 分钟前
    很多模型都是为 swe ,榜单特殊优化的! 远离国产,glm-5 还行
    snowsky
        50
    snowsky  
       4 小时 20 分钟前
    @codersdp1 @someonelikeyouah 后来 Anthropic 说有些 model 是蒸馏出来的,我也就不奇怪了 LOL
    onedge
        51
    onedge  
       4 小时 18 分钟前
    @ehehela kimi2.5, GLM5 都还行 minimax 最弱智一档
    ssting
        52
    ssting  
       3 小时 40 分钟前
    全是跑分怪.
    一用拉跨
    unco020511
        53
    unco020511  
       3 小时 25 分钟前
    目前深度使用下来,AI coding 能真正产生很大生产力的系列模型只有三个: Opus 4.6/gemini 3.1pro/gpt5.3+,其他一众国产模型的都是打榜跑分怪,根本没法真正产生极大的生产力.
    Waschl
        54
    Waschl  
       3 小时 23 分钟前
    我就拿来跑 openclaw, 干活还是 Opus
    clemente
        55
    clemente  
       3 小时 21 分钟前
    模型只有

    claude/gemini/grok/gpt
    www12222
        56
    www12222  
       3 小时 17 分钟前
    便宜+快,拿来跑跑简单的任务不是挺好的
    cabing
        57
    cabing  
       3 小时 13 分钟前
    glm5 还行。
    shakaraka
        58
    shakaraka  
    PRO
       3 小时 2 分钟前
    @xmy2232867 #44 是的。除非 opus 出下一代。而且 GPT 5.4 Pro 更强,有幸用了几回。pro 没有在 codex 提供的
    stepan
        59
    stepan  
       3 小时 1 分钟前
    跑跑龙虾还可以 2.5 的时候试了一下,反正能用
    guichen
        60
    guichen  
       2 小时 48 分钟前
    官网套餐全都先付费没试用的,说明他们自己都对产品没信心,只能靠营销来吸引购买
    tairan2006
        61
    tairan2006  
       2 小时 34 分钟前
    别人$20 一个月,你$20 一年,还斥啥巨资。。
    xitler
        62
    xitler  
    OP
       2 小时 33 分钟前
    @tairan2006 119 一个月啊。。。比 claude pro 贵点了
    Gilfoyle26
        63
    Gilfoyle26  
       2 小时 20 分钟前
    评测没输过,实际没赢过
    KisekiRemi
        64
    KisekiRemi  
       2 小时 19 分钟前
    只能跑跑简单需求,真的要干活还得上 codex 和 claude
    ohoh
        65
    ohoh  
       2 小时 18 分钟前
    你们到底有几个真实且深度用过就在说差的?
    devloperchen
        66
    devloperchen  
       2 小时 13 分钟前
    老实说,我是深度使用过好几个月的。主要是用来开发 Android app ,而且是一个十年多的老项目了。没有你们说的那么难堪,只有你把功能描述完成,告诉它改哪个文件,用 claude code plan 模式基本上都是没有问题的。但是,和国外的模型肯定是有很大差距的。
    muxiaofei
        67
    muxiaofei  
       1 小时 50 分钟前
    @ohoh 买了年的,真的差,快是挺快,但是采用率很低
    bbbblue
        68
    bbbblue  
       1 小时 48 分钟前
    "看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 "

    ????那个 benchmark 是这么写的 是不是里面就只有 5 个模型 御三家 m2.5 和 m2.7 然后说仅次于 gpt 5.4 的 😂
    zhouxu
        69
    zhouxu  
       1 小时 40 分钟前
    图便宜买了 400 的年卡,发现生成的代码有时候没法看
    Leeeeex
        70
    Leeeeex  
    PRO
       1 小时 29 分钟前
    之前抽奖抽到了个 kimi 会员,试了一下 kimi cli
    重复任务和排查任务很快,速度和最终展示效果都挺不错的
    但是创新型任务就不太行了,还得用 claude
    你可以留着这个做一些简单的工作
    coolcoffee
        71
    coolcoffee  
       1 小时 27 分钟前
    大模型跑分就像安卓厂商跑分一样,一个特调了之后同行也要被迫特调的。
    slowgen
        72
    slowgen  
       1 小时 19 分钟前
    官方算力不够所以可能降智了,说不定 together.aifireworks.ai 这种自己部署的会好一点,毕竟海外不缺算力。
    我是自建的,用了 4 张 H20 跑 MiniMax M2.5 的 FP8 量化,挺好用的,无限 token 给了我很大想象力。再低成本一点可以 2 张 RTX Pro 6000 跑 NVFP4 ,或者等 M5 Ultra 出来,不要买 M5 之前的版本因为 prefill 慢。
    yinyu
        73
    yinyu  
       1 小时 5 分钟前   ❤️ 1
    指令的遵守都一坨屎,无力吐槽了。
    looplj
        74
    looplj  
       13 分钟前
    写代码,国内模型我只用 glm5
    xiaolanger
        75
    xiaolanger  
       10 分钟前
    2.7 比 kimi 好用
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5444 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 08:20 · PVG 16:20 · LAX 01:20 · JFK 04:20
    ♥ Do have faith in what you're doing.