Qwen-3在实际场景中的表现如何?
作者:卡卷网发布时间:2025-05-14 20:47浏览数量:5次评论数量:0次
首先说结论:实际体验挺不错的
配置(23年上半年攒的,今年换了4根内存):
13600kf+b760+4x48g ddr5(插满4槽 最后稳定在5400mt)+3090 24g
win11+ollama+open-webui(我比较懒,所以都是ollama一键拉模型)
先后跑了:
qwen2.5-qwq-q4
qwen3-32b-q4
qwen3-32b-q8
qwen3-30b-a3-q8
gemma3-27b-q4
gemma3-27b-it-qat
phi4-14B-q8
同时api了deepseek的reasoner和chat
主要应用场景:偶尔应付个文章(总结之类的),查询计算机知识盲点(懒得翻书和搜索),偶尔写个小代码
最后留下的是:qwen3-30b-a3-q8,gemma3-27b-it-qat
实际应用体验(含吐槽):
1.gemma3-27b前摇巨长(难绷),知识水平还是可以的,对中文意图理解就那样,优势是多模态(虽然有点鸡肋就是了),gemma3-27b-it-qat比gemma3-27b-q4感觉要好,输出信息要密集一点。
2.qwen3-30b-a3-q8 速度可以接受,效果不错,效果基本持平qwen3-32b-q8,速度翻倍(本来以为进内存交换以后速度会崩到底,没想到还行,为了速度就舍弃了qwen3-32b-q8),效果上来说q8应该是秒杀q4的。
3.deepseek 的 api真的不如网页(也许是我错觉),输出知识的时候有时候不如qwen3-32b-q8、qwen3-30b-a3-q8
4.phi4-14b-q8训练质量挺高,虽然智商稍稍差了一丢丢,但是有点精致的感觉,pk上还是不差的,主要是想到有qwen3-30b-a3-q8,就没留下了,没有试fp16
过几天试试用ktransformers部署一下qwen3:235b-a22b-q4,应该勉强能用用
吐个槽:qwen赶紧更新vl吧,10w+图片等着打标
最后教大家如何把带think的模型直接玩爆炸:十六进制数5AB3H转换为二进制是多少。
免责声明:本文由卡卷网编辑并发布,但不代表本站的观点和立场,只提供分享给大家。
- 上一篇:为什么油车不在乎车机互联,电车就必须很先进?
- 下一篇:有没有特别特别甜的小说推荐?
相关推荐

你 发表评论:
欢迎