1
Meteora626 2 月 28 日
只和训练数据有关,和谁训练无关
|
2
1Satoshi 2 月 28 日
都是蒸馏出来的 ,一个爹妈生的😁
|
3
seven777 OP |
4
sommio 2 月 28 日 via Android
至少对不同 System Prompt 的行为会自成一派,
Claude/Kimi/GLM 三个行为类似, Gemini 和 GPT 行为不同。 OmO 有对这三组模型定制的 prompt https://github.com/code-yeongyu/oh-my-opencode/blob/dev/docs/guide/agent-model-matching.md#how-claude-and-gpt-think-differently https://github.com/code-yeongyu/oh-my-opencode/tree/dev/src/agents/prometheus |
5
seven777 OP @sommio #4 非常感谢, 我发现的现象是,同一个话题或者需求, 同一家族的不同规模的 model 最终会趋于一致的结论; 而不同家族的 model 会很分裂,始终不能达成共识.
尤其是 OpenAI, 永远中庸且长臭, 永远不能和他达成共识. 何解? |
6
usVexMownCzar 2 月 28 日 via iPhone
天地会,小刀会,红门,青帮…分的可细了,与大模型交流的时候小心点
|
7
seven777 OP @usVexMownCzar #6 我举个例子, 一个功能评估, OpenAI 会考虑很多的边界情况,永远没有权衡和取舍或让步, 而 Claude 家族的会有取舍, Grok 家族的会有取舍和权衡.......
- Grok 家族的,更像一个潇洒的帅哥, 先聚焦目标干起来, 管他死活... - Claude 家族的,更像是个博士后, 深入研究后告诉你,走 A 方案吧, B 的风险更大...... - OpenAI 家族的, SB 老登类型, 永远都比比来来, 这也不行,那也有问题, 永远不能和他共识. |
8
artiga033 20 天前 via Android
像这样实验都没有完全控制变量吧,不直接调 api 的话,各家的 system prompt 乃至你自己账号的历史记录啥的都会影响,而且其实只要不是本地自己跑推理的模型,调别人 api 你永远也不知道黑盒里面到底是什么。
就算考虑这些变量都一样,其实观察到的行为也是合理的,毕竟训练数据对模型输出的影响很大,而且训练集才是真宝贝哪怕开源模型都很少有公开训练集的。 本质上这个其实就和你问模型“你是谁”一样,它们都统一回复你“我是 transformer 训练的神经网络”那反而比较可怕... |