70B 以下 32B 左右的
1
ntdll 2 天前 这种小模型的话,还不如用一下美团的垃圾模型( LongCat ),虽然垃圾,但是还是比这种小模型强多了。 整两三个手机号,一天的量足够了。
|
2
jark006 2 天前 参数量太小,知识量和智力都不行,coding 能力不如 Openrouter 那些无限白嫖的模型。
真生产力还得是 claude/gpt ,或国产的 GLM5.1/Qwen3.6plus ,其他模型就真的不建议用。 如果只想白嫖,目前 trea 国版或 opencode 还能白嫖一些不错的模型。 |
3
yulon 2 天前
30B 左右也就勉强做个文章概括
|
4
lujiaosama 2 天前
你不会想用的。质量不说,吞吐速度都受不了。
|
6
diudiuu 17 小时 39 分钟前
可能会把你气死.
最简单做个对比 gpt5-mini 写代码已经很拉了,你觉得本地 32b 会有比正常训练的 gpt5-mini 好? |