当前位置:首页 > 每日看点 > 正文内容

单张4090能运行的最强开源大模型是哪个?

卡卷网7个月前 (01-17)每日看点129

24GB 显存, 目前能运行最强模型是 Qwen2.5-32B-Instruct-GPTQ-Int4, vllm 输入长度大概 8400, 速度 37 tokens/s (显卡 3090)

如果想更长输入,可以加 --cpu-offload-gb 2 参数卸载 2GB 到 RAM 中, 我是 i5-13490f + DDR4 4200HZ 速度降到 6 tokens/s

两个方案,

  1. windows 使用 wsl2 ,pip install vllm 一行代码启动 openai 风格 api

python -m vllm.entrypoints.openai.api_server --model /data/models/Qwen2.5-32B-Instruct-GPTQ-Int4 --dtype float16 --api-key '' --tensor-parallel-size 1 --trust-remote-code --gpu-memory-utilization 1 --port 8000 --max_model_len 8400 --enforce-eager

2. ollama 同时支持 windows 和 linux,使用 gguf 量化模型:

Qwen2.5-32b-instruct-q3_k_m, 初始化大约占用 15GB, 剩下显存足够输入 20000 文本长度

有老外评测了模型在计算机科学领域回答效果:

单张4090能运行的最强开源大模型是哪个?  第1张

比 Gemma2-27b-it-q8 强 25.6%, 量化后损失极小。


参数大是王道,

Qwen2.5-32b-instruct-q3_k_m 是 int3 量化,

效果远比 Qwen2.5-14b-instruct float16 强大

老外评论挺有意思的:

单张4090能运行的最强开源大模型是哪个?  第2张


单张4090能运行的最强开源大模型是哪个?  第3张

扫描二维码推送至手机访问。

版权声明:本文由卡卷网发布,如需转载请注明出处。

本文链接:https://www.kajuan.net/ttnews/2025/01/9698.html

分享给朋友:

相关文章

怎么用游戏搬砖挣钱呢?

怎么用游戏搬砖挣钱呢?

今天,我把我多年操作的经验分享出来,以供各位老板们学习借鉴,胆小的老板就离开吧,心里承受能力太弱了,会刷新你的认知的。有些新人在计算收益的时候,会以机器数来计算,其实是有误区的,比如,一台机器一个月搞400元,平均每天搞13元钱,搞上100...

为什么大家不再提 5G 了?

现在看来,只有美国那种5g的思路是对的。美国的运营商一开始就发现5g和4g并没有质的飞跃,无非就是提升频率/降低穿透力/提升带宽的故事。而美国运营商又是自负盈亏,因此一开始就仅在人口高密度地区或富裕地区布置5g。虽然说人家4g也菜,但是人家...

为什么我感受不到 1500 元的手机比四五千的差?

我长期使用两千元左右的安卓机,一天接近8小时的重度手机使用者。某天我突然想试试看传说中非常赛艇的苹果。狠了心,砸了钱。七千大样买了爱疯。就这?什么辣鸡玩意。而且因为我一直更新软件,用了两年爱疯就卡了。并没有传说中的用四五年不卡。用了这么一次...

为什么说不懂电脑的不要碰AMD?

作为一个资深垃圾佬,说缺点前,先说优点吧AMD CPU(后续简称AU)的优点:处理器对比Intel,三级缓存更大,最明显的感知就是,网游帧数更高(5900X,7900X之类高端型号都是双CCX共享大缓存,反而不如次一点的CPU帧数更高);相...

为什么工资五千的人会一下花八九千买手机呢?

这其实是一个何不食肉糜的问题,这个问题其实很现实,越是月薪5000越需要高档手机。 前段时间看了一个纪录片,讲外卖小哥都用什么手机,结果发现绝大多数外卖小哥用的手机都是旗舰机型,有的时候宁可买二手也要买旗舰。 因为1外卖小哥对ip6...

都是前端框架,为什么用 React 的人会有优越感?

都是前端框架,为什么用 React 的人会有优越感?

上家公司一直搞react,最近第一次写个vue3项目。老板朋友来了看了下页面说:这用vue写的吧。我:是...老板朋友:一看就知道是vue做的。这tm你看一眼页面就知道用的啥框架?这感觉就是,我一直用苹果,偶尔用了下华为打电话,有个人离老远...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。