卡卷网
当前位置:卡卷网 / 每日看点 / 正文

Qwen-3在实际场景中的表现如何?

作者:卡卷网发布时间:2025-05-14 20:47浏览数量:5次评论数量:0次

首先说结论:实际体验挺不错的

配置(23年上半年攒的,今年换了4根内存):

13600kf+b760+4x48g ddr5(插满4槽 最后稳定在5400mt)+3090 24g

win11+ollama+open-webui(我比较懒,所以都是ollama一键拉模型)

先后跑了:

qwen2.5-qwq-q4

qwen3-32b-q4

qwen3-32b-q8

qwen3-30b-a3-q8

gemma3-27b-q4

gemma3-27b-it-qat

phi4-14B-q8

同时api了deepseek的reasoner和chat

主要应用场景:偶尔应付个文章(总结之类的),查询计算机知识盲点(懒得翻书和搜索),偶尔写个小代码

最后留下的是:qwen3-30b-a3-q8,gemma3-27b-it-qat

实际应用体验(含吐槽):

1.gemma3-27b前摇巨长(难绷),知识水平还是可以的,对中文意图理解就那样,优势是多模态(虽然有点鸡肋就是了),gemma3-27b-it-qat比gemma3-27b-q4感觉要好,输出信息要密集一点。

2.qwen3-30b-a3-q8 速度可以接受,效果不错,效果基本持平qwen3-32b-q8,速度翻倍(本来以为进内存交换以后速度会崩到底,没想到还行,为了速度就舍弃了qwen3-32b-q8),效果上来说q8应该是秒杀q4的。

3.deepseek 的 api真的不如网页(也许是我错觉),输出知识的时候有时候不如qwen3-32b-q8、qwen3-30b-a3-q8

4.phi4-14b-q8训练质量挺高,虽然智商稍稍差了一丢丢,但是有点精致的感觉,pk上还是不差的,主要是想到有qwen3-30b-a3-q8,就没留下了,没有试fp16

过几天试试用ktransformers部署一下qwen3:235b-a22b-q4,应该勉强能用用

吐个槽:qwen赶紧更新vl吧,10w+图片等着打标

最后教大家如何把带think的模型直接玩爆炸:十六进制数5AB3H转换为二进制是多少。

END

免责声明:本文由卡卷网编辑并发布,但不代表本站的观点和立场,只提供分享给大家。

卡卷网

卡卷网 主页 联系他吧

请记住:卡卷网 Www.Kajuan.Net

欢迎 发表评论:

请填写验证码