为什么BAT没做出DeepSeek?
作者:卡卷网发布时间:2025-04-05 22:39浏览数量:45次评论数量:0次
阿里在这件事里绝对是最冤的那个。
当时Qwen2.5霸榜了openllm好久,夸张到Best XXX Model从0.5B的到70B的清一色全都是Qwen2.5。
现在随便翻进一个rank(openllm,只有开源模型):
看起来百花齐放是吧?然而事实上是点进去看看前十名都TM是Qwen2.5 72B上finetune的。
你再随便翻进另一个rank(arena hard)
这个有点老了,第一个开源模型也是Qwen72b finetune出来的。
你再随便翻进一个rank(live bench),这个很新,上面甚至有R1/V3。R1/V3之后的开源模型就是Qwen72b给finetune出来的。
之后阿里的创新能力就严重不足了,悲。事实上Deepseek发了一个R1一个V3,之后又有好几个版本finetune的qwen,为什么他发布的是 distill的qwen不是其他模型(像llama)?肯定是有}理由的啊。
END
免责声明:本文由卡卷网编辑并发布,但不代表本站的观点和立场,只提供分享给大家。
- 上一篇:能分享下coze使用心得吗?
- 下一篇:数据分析到底是怎么分析?
相关推荐
最新文章
随机文章
广告位

你 发表评论:
欢迎