当前位置:首页 > 每日看点 > 正文内容

大学生学习深度学习,有必要桌面端4090显卡吗,?

卡卷网11个月前 (04-07)每日看点343

4090没必要,但是本地有一张大一点显存大的卡是有意义的,主要是可视化和硬件完全在自己的控制下。

我推荐是配一台洋垃圾服务器装Ubuntu,度过前期的学习,顺便培养一下你的动手能力。

配置如下

CPU:E5 2680V4 14核心28线程,70块钱一个,来两个共140元 内存:16G DDR4,110块钱一条;看你需求,一般8条共128G,880元。 主板:精粤or其他牌子的双路X99服务器,300~500元不等。 显卡:RTX 2080Ti 22G魔改版,店保一年,2600元(最好是涡轮卡,贵一些2700吧) 系统盘:1TB 梵想随便啥型号(全新pdd,350元)or PM9A1(三星980Pro的OEM版本,二手270元) 数据盘:看预算你自己搞吧。 电源:750W全新鑫谷,340元 散热器、机箱、线缆:拢共算个300吧


不算数据盘,全部加起来5000出头,这配置,基本上够用了。
既能再插一张2080ti 22G组NVLink,也能换3090用安培架构(如果有钱直接上2张3090组nvlink)。电源记得用大一些的。

组NVLink还有几个好处是,你可以学习如何写、调试多卡程序,感受卡间通讯对训练的影响。而且双卡44G显存(模型并行的方式运行),能推理更多更大的LLM。

你问我稳不稳?这服务器用了1年9个月没出问题,已经帮我跑了2篇A会的部分实验了,就算报废都赚了(还是得买涡轮卡)

这也是我个人的配置:

大学生学习深度学习,有必要桌面端4090显卡吗,?  第1张

大学生学习深度学习,有必要桌面端4090显卡吗,?  第2张

扫描二维码推送至手机访问。

版权声明:本文由卡卷网发布,如需转载请注明出处。

本文链接:https://www.kajuan.net/ttnews/2025/04/12345.html

分享给朋友:

相关文章

我觉得华为Mate60Pro明明配置不高,为什么还是有那么多人买呢?

我也好奇啊,所以闲聊时,我问了我们公司的副总,我说Mate60pro配置这么拉胯你怎么还买啊?他一脸疑惑的看着我,配置?什么配置?我这手机信号挺好的啊?我们总经理用的是去年华为出的折叠手机,花了一万多,我也想问问他同样的问题,但奈何一直没有...

WordPress建站同时面向B端和C端,有什么好的解决方案?

这个很容易实现呀,只不过需要自己开发,整体用权限管理就可以实现了,B端和C端是不同用户权限,C端能看到的菜单入口和B端不一样就行了。技术层面实现没问题的,只不过就是看你们的技术能力和投入了 ,这样的需求应该没有现成的开源插件。只能找人定制开...

有哪些是你用上了mac才知道的事?

用上了高端的Mac(已退货)才知道:原来文件夹里面的文件,你看到是8个,其实可能有12个。其中3个图标重叠在一起了,另外一个被拖动到屏幕外面了。用上了高端的Mac(已退货)才知道:原来鼠标灵敏度有问题是因为系统内置了鼠标加速度,只能用控制台...

如何看待 Luv Letter 表示影视飓风专业性实在是让人失望?

一点儿新进展,另外以下有部分需要关注对于统一变量的问题。这个我在对比上面有写小字解释,我在一开始使用ffmpeg来控制变量。但是发现了不少问题,比如因为遗留bug,会强制将非整数帧的素材转码为VFR导致无法正确帧间对比,因此不考虑,同时尽量...

自己拥有一台服务器可以做哪些很酷的事情?

自己拥有一台服务器可以做哪些很酷的事情?

我就有一台,跑了两年了,ipv6 ddns 网络,加虚拟化平台.跑了个 winserver 和 ubuntu 服务器。稳的雅皮!拆掉后盖,散热更好。烟盒固定硬盘。键盘防止灰尘掉落。电池拆掉,屏幕拆掉,也是散热考虑。屏幕拿去做便携副屏了。换...

国内AI大模型已近80个,哪个最有前途?

国内AI大模型已近80个,哪个最有前途?

题主说错了,不是80个,是168个!虽然“最有前途”不好说,但是我可以帮题主排除一些错误方向:开源大模型一定比闭源的有前途吗?参数量大的模型一定就比小模型有前途吗?榜单排名高的大模型一定更有前途吗?2024年3月更新,243个大模型中有哪几...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。