当前位置:首页 > 每日看点 > 正文内容

大学生学习深度学习,有必要桌面端4090显卡吗,?

卡卷网9个月前 (04-07)每日看点212

4090没必要,但是本地有一张大一点显存大的卡是有意义的,主要是可视化和硬件完全在自己的控制下。

我推荐是配一台洋垃圾服务器装Ubuntu,度过前期的学习,顺便培养一下你的动手能力。

配置如下

CPU:E5 2680V4 14核心28线程,70块钱一个,来两个共140元 内存:16G DDR4,110块钱一条;看你需求,一般8条共128G,880元。 主板:精粤or其他牌子的双路X99服务器,300~500元不等。 显卡:RTX 2080Ti 22G魔改版,店保一年,2600元(最好是涡轮卡,贵一些2700吧) 系统盘:1TB 梵想随便啥型号(全新pdd,350元)or PM9A1(三星980Pro的OEM版本,二手270元) 数据盘:看预算你自己搞吧。 电源:750W全新鑫谷,340元 散热器、机箱、线缆:拢共算个300吧


不算数据盘,全部加起来5000出头,这配置,基本上够用了。
既能再插一张2080ti 22G组NVLink,也能换3090用安培架构(如果有钱直接上2张3090组nvlink)。电源记得用大一些的。

组NVLink还有几个好处是,你可以学习如何写、调试多卡程序,感受卡间通讯对训练的影响。而且双卡44G显存(模型并行的方式运行),能推理更多更大的LLM。

你问我稳不稳?这服务器用了1年9个月没出问题,已经帮我跑了2篇A会的部分实验了,就算报废都赚了(还是得买涡轮卡)

这也是我个人的配置:

大学生学习深度学习,有必要桌面端4090显卡吗,?  第1张

大学生学习深度学习,有必要桌面端4090显卡吗,?  第2张

扫描二维码推送至手机访问。

版权声明:本文由卡卷网发布,如需转载请注明出处。

本文链接:https://www.kajuan.net/ttnews/2025/04/12345.html

分享给朋友:

相关文章

微博和B站屏蔽马保国

微博和B站屏蔽马保国

11月29日消息,近日微博和B站两大平台纷纷屏蔽了马保国相关信息,解散了一些相关的群组,也搜索不到相关信息了。马保国成为近期的新闻热点,并且被大量自媒体人讽刺和评价。由于关注度极高,这些视频和文章吸引了很多围...

淘宝终于支持微信支付:这一刻我等了太久

淘宝终于支持微信支付:这一刻我等了太久

今天微博圈就被淘宝的消息刷屏了。没错,正是关于淘宝即将全面支持微信支付的消息。这条消息一出,立刻登上了微博热搜,毕竟社交巨头和电商巨擘的联手,实在令人瞩目。不少大媒体也纷纷跟进报道,这阵势真是令人惊叹。网友们纷纷表示这是巨大的变革,终于可以...

华为纯血鸿蒙,从此天下三分了吗?

华为纯血鸿蒙,从此天下三分了吗?

万众期待的纯血版 HarmonyOS NEXT 终于是端上来了,主打一个自研,从里到外,从内核到架构,都是自研。用户的激情已经被点燃,可见大家对于纯血鸿蒙的期待,但是鸿蒙系统能不能真正与安卓、iOS三分天下呢?目前来说,还为时过早。iOS和...

怎样拥有一台最便宜的服务器?

怎样拥有一台最便宜的服务器?

内容提示:主打一个 DIY + 极限白嫖 =)某宝花10块买一个“随身WiFi”,刷入Ubuntu,用SSH远程连接,但是记得一定要把外壳撬掉然后粘个散热器(哪怕是白萝卜也彳亍),否则会过热详细去酷安社区搜“随身WiFi”=========...

为什么闲鱼越做越差?

理想的闲鱼:卖家视角:4000块钱买的手机,用了半年不想用了,挂一个3000块,和买家一顿交流,最后2500块成交,我得到了回血,买家得到了便宜;买家视角:想用一台4000块的手机,但是手里只有2500块,来到闲鱼和卖家一顿交流,最后250...

国内AI大模型已近80个,哪个最有前途?

国内AI大模型已近80个,哪个最有前途?

题主说错了,不是80个,是168个!虽然“最有前途”不好说,但是我可以帮题主排除一些错误方向:开源大模型一定比闭源的有前途吗?参数量大的模型一定就比小模型有前途吗?榜单排名高的大模型一定更有前途吗?2024年3月更新,243个大模型中有哪几...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。