当前位置:首页 > 每日看点

大学生学习深度学习,有必要桌面端4090显卡吗,?

卡卷网1年前 (2025-04-07)每日看点426

4090没必要,但是本地有一张大一点显存大的卡是有意义的,主要是可视化和硬件完全在自己的控制下。

我推荐是配一台洋垃圾服务器装Ubuntu,度过前期的学习,顺便培养一下你的动手能力。

配置如下

CPU:E5 2680V4 14核心28线程,70块钱一个,来两个共140元 内存:16G DDR4,110块钱一条;看你需求,一般8条共128G,880元。 主板:精粤or其他牌子的双路X99服务器,300~500元不等。 显卡:RTX 2080Ti 22G魔改版,店保一年,2600元(最好是涡轮卡,贵一些2700吧) 系统盘:1TB 梵想随便啥型号(全新pdd,350元)or PM9A1(三星980Pro的OEM版本,二手270元) 数据盘:看预算你自己搞吧。 电源:750W全新鑫谷,340元 散热器、机箱、线缆:拢共算个300吧


不算数据盘,全部加起来5000出头,这配置,基本上够用了。
既能再插一张2080ti 22G组NVLink,也能换3090用安培架构(如果有钱直接上2张3090组nvlink)。电源记得用大一些的。

组NVLink还有几个好处是,你可以学习如何写、调试多卡程序,感受卡间通讯对训练的影响。而且双卡44G显存(模型并行的方式运行),能推理更多更大的LLM。

你问我稳不稳?这服务器用了1年9个月没出问题,已经帮我跑了2篇A会的部分实验了,就算报废都赚了(还是得买涡轮卡)

这也是我个人的配置:

大学生学习深度学习,有必要桌面端4090显卡吗,?  第1张

大学生学习深度学习,有必要桌面端4090显卡吗,?  第2张

扫描二维码推送至手机访问。

版权声明:本文由卡卷网发布,如需转载请注明出处。

本文链接:https://www.kajuan.net/ttnews/2025/04/12345.html

分享给朋友:

相关文章

网页上的视频怎么下载呀?

网页上的视频怎么下载呀?

1、贝贝BiliBili - B站视频下载 https://xbeibeix.com/api/bilibili/ 贝贝BiliBili 是个 免费、免登录的bilibili视频下载工具,没有任何套路。把视频链接粘贴进去 → 输入验证码 →…

为什么大家不再提 5G 了?

现在看来,只有美国那种5g的思路是对的。 美国的运营商一开始就发现5g和4g并没有质的飞跃,无非就是提升频率/降低穿透力/提升带宽的故事。而美国运营商又是自负盈亏,因此一开始就仅在人口高密度地区或富裕地区布置5g。 虽然说人家4g也菜,但是…

都是前端框架,为什么用 React 的人会有优越感?

都是前端框架,为什么用 React 的人会有优越感?

上家公司一直搞react,最近第一次写个vue3项目。 老板朋友来了看了下页面说:这用vue写的吧。 我:是... 老板朋友:一看就知道是vue做的。 这tm你看一眼页面就知道用的啥框架? 这感觉就是,我一直用苹果,偶尔用了下华为打电话,有…

大家都是怎么把自己的粉丝增加到1000的呢?

大家都是怎么把自己的粉丝增加到1000的呢?

截至2024年10月30日,关注者总数1137人,用时80天,增速约14人/天。 2024年8月10日开始创作,连续一周,1个关注者都没有。创作第7天,得到第一个关注,7天时间,写了8篇回答。当天得到关注,激动的心情历历在目。 没有一个…

客观的讲,华为是不是真的遥遥领先?

客观的讲,华为是不是真的遥遥领先?

最近,华为上市了最新款的三折叠屏手机,于是很多大V们把这款手机吹上了天,吹成是技术上遥遥领先于全世界。谁要是敢质疑华而不实,就会被人扣上一顶汉奸卖国贼美狗的帽子。把一个商品捧成了宗教和菩萨,你只能说好,不能说不好。其实这个世界上,只要是人和…

国内AI大模型已近80个,哪个最有前途?

国内AI大模型已近80个,哪个最有前途?

题主说错了,不是80个,是168个! 虽然“最有前途”不好说,但是我可以帮题主排除一些错误方向: 开源大模型一定比闭源的有前途吗?参数量大的模型一定就比小模型有前途吗?榜单排名高的大模型一定更有前途吗?2024年3月更新,243个大模型中有…

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。