fuochai 发表于 2023-6-19 23:21

求教 机器学习 入门学习不跑项目的话能用7900xtx吗

618看了好久 最后还是没买 40系只有90有性价比但是有自燃隐患
想弄个7900xtx了 不想给黄狗送钱
楼主会用linux 装Pytorch应该不成问题 如果只是学习基础知识 不做大的项目的话 应该够用了?
除此之外还打打游戏

Saikou 发表于 2023-6-19 23:26

机器学习不用cuda么,老老实实交钱吧

qratosone 发表于 2023-6-19 23:26

0WHan0 发表于 2023-6-19 23:28

本帖最后由 0WHan0 于 2023-6-19 23:34 编辑

pytorch的话a卡能跑,我stable diffusion跑得好好的(我的老a卡和当年算力接近的老n卡出图速度也差不多),rocm安装起来我觉得不麻烦,但是7000系rocm还没发布(据说是下个版本5.6支持rdna3),你现在买了不能立马用上。7900xtx优势在24g显存,另外不知道rdna3的dual fp最终能在rocm上发挥出多少实力,理论性能其实还不错

bgod666 发表于 2023-6-19 23:28

别恶心自己
别人一键部署,遇到问题全互联网都是解决方案
你先折腾rocm半天,遇到个问题搜都搜不到
想入门可以先colab玩玩看看

風舞雪 发表于 2023-6-19 23:29

会用windows也没用

❯ nvidia-smi
Mon Jun 19 08:28:43 2023
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.54.04            Driver Version: 536.23       CUDA Version: 12.2   |
|-----------------------------------------+----------------------+----------------------+
| GPUName               Persistence-M | Bus-Id      Disp.A | Volatile Uncorr. ECC |
| FanTemp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-UtilCompute M. |
|                                       |                      |               MIG M. |
|=========================================+======================+======================|
|   0NVIDIA GeForce RTX 3090      On| 00000000:09:00.0On |                  N/A |
| 44%   35C    P8            36W / 333W |   2407MiB / 24576MiB |      7%      Default |
|                                       |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes:                                                                            |
|GPU   GI   CI      PID   Type   Process name                            GPU Memory |
|      ID   ID                                                             Usage      |
|=======================================================================================|
|    0   N/AN/A      23      G   /Xwayland                                 N/A      |
+---------------------------------------------------------------------------------------+

darkangel0224 发表于 2023-6-19 23:31

本帖最后由 darkangel0224 于 2023-6-19 23:33 编辑

苏妈:我们大客户都很能的啦,轮子都会自己造,犯不着我们操心什么生态问题

塔奇克马 发表于 2023-6-19 23:32

不如弄块丽台 2080ti 老矿

—— 来自 HUAWEI HLK-AL00, Android 9上的 S1Next-鹅版 v2.5.4

med 发表于 2023-6-19 23:40

别恶心自己

学习深度学习蛮耗费算力的,并且你是训练,不是推理,推理的框架多的是,转一下就是了。

目前基本都是基于cuda的训练

ryanz 发表于 2023-6-19 23:42

建议看看这个 https://github.com/RadeonOpenCompute/ROCm/issues/1880 再来考虑 amd,特别注意 issue 的时间和最后回复的时间,老黄贱归贱但他不会让消费级显卡半年后才支持cuda还各种问题

0WHan0 发表于 2023-6-19 23:45

ryanz 发表于 2023-6-19 23:42
建议看看这个 https://github.com/RadeonOpenCompute/ROCm/issues/1880 再来考虑 amd,特别注意 issue 的时 ...

专业卡不发布,rocm就不更新支持列表,因为本来官方支持列表里就只有专业卡

fuochai 发表于 2023-6-19 23:50

对了 楼主只是业余学习 也需要用模型做训练吗 训练不是应用方面的吗?

MOLE0号机 发表于 2023-6-19 23:54

你猜英伟达的护城河一说是怎么来的

0WHan0 发表于 2023-6-20 00:03

本帖最后由 0WHan0 于 2023-6-20 00:08 编辑

另外lz你只用pytorch或者tensorlow的话,rocm是完全没有问题的。如果是直接用cuda库做开发的话,amd的hip据说接口基本都是cuda那套的改名,还提供了一套cuda代码转hip的工具,毕竟amd自己也说了rocm目前只是cuda的兼容,未来的大饼才有独立发展。当然具体能兼容多少,效率怎么样我也没用过说不清楚。
知乎上倒是有mi210和a100在pytorch下的性能对比
https://www.zhihu.com/answer/3017890791
反正pytorch下a卡训练推理基本都能做
https://picx.zhimg.com/80/v2-3109e944504d863cf73b9871eb6fb78e_1440w.jpg

abcbuzhiming 发表于 2023-6-20 00:04

猫不萌 发表于 2023-6-20 00:14

amd拿出来的显卡良心上也没比老黄好到哪里去了吧,你要是算上能机器学习,n卡性价比不是还挺高的

黄泉川此方 发表于 2023-6-20 00:17

本帖最后由 黄泉川此方 于 2023-6-20 00:23 编辑

DIY市场现状
ATX3.0会烧电源
CPU会被电流击穿
内存频率会上不去
主板会啸叫
散热水冷会漏液
固态会E0
电源会爆炸带走全家显示器难免漏液烧屏
机箱玻璃侧板迟早粉身碎骨!



fuochai 发表于 2023-6-20 00:30

黄泉川此方 发表于 2023-6-20 00:17
DIY市场现状
ATX3.0会烧电源
CPU会被电流击穿

可这些加起来都没显卡一半贵
4090接口不是纯品控问题 30系都没事的
主楼说不想送钱是说这么贵质量还没保障 但凡质量好点我也认了的

黄泉川此方 发表于 2023-6-20 00:43

要么东哥自营要么个人送保,真烧了发个贴让大家乐一下也不亏啊,等我烧了一定发

omnitoken 发表于 2023-6-20 00:49

只是学习建议买6900xt

而且楼主这样做有个悖论:rocm的用户基本都已经学会cuda了在做项目

—— 来自 Xiaomi Mi 10, Android 13上的 S1Next-鹅版 v2.5.4

albertfu 发表于 2023-6-20 00:59

只是简单画画AI图7900XTX不但可以,还很快

但要正经学习DL还是算了吧,老老实实给皮衣黄交税

塔奇克马 发表于 2023-6-20 01:00

fuochai 发表于 2023-6-20 00:30
可这些加起来都没显卡一半贵
4090接口不是纯品控问题 30系都没事的
主楼说不想送钱是说这么贵质量 ...

其实是设计问题,竟然如此高的电流下允许用户不插紧

huge_cat 发表于 2023-6-20 04:28

不能

QUI 发表于 2023-6-20 05:17

纯入门的话,不光rocm可以,mps都是可以的呀

学校里上ml入门课的学生也不是人人4090,有个显卡不错了

frosta 发表于 2023-6-20 06:01

纯入门chrome book都可以

连一行代码都没开始写就纠结4090还是7900,什么叫消费主义,这就是TM消费主义

— from samsung SM-S901U1, Android 13 of S1 Next Goose v2.5.2-play

lvcha 发表于 2023-6-20 07:15

lvcha 发表于 2023-6-20 07:19

fuochai 发表于 2023-6-20 08:59

frosta 发表于 2023-6-20 06:01
纯入门chrome book都可以

连一行代码都没开始写就纠结4090还是7900,什么叫消费主义,这就是TM消费主义

毕设没少写 没用框架 python搓的
而且我还想玩星空

tsubasa9 发表于 2023-6-20 09:04

玩游戏就玩游戏,给自己加什么虚假需求呢
更何况基础学习连cpu都够了,实在不行上云主机,买个p104都够用

fuochai 发表于 2023-6-20 09:38

tsubasa9 发表于 2023-6-20 09:04
玩游戏就玩游戏,给自己加什么虚假需求呢
更何况基础学习连cpu都够了,实在不行上云主机,买个p104都够用 ...
我要只玩游戏就不用纠结直接上amd了。。

lvcha 发表于 2023-6-20 10:01

广告位 发表于 2023-6-20 10:21

我2月份时用6700xt玩SD,开始碰到过各种幺蛾子问题。上github一搜全是已知问题,各种open issue等待未来修复
不过5月份用了别人打包的docker,各种兼容性问题都解决了,速度也不错能到8 it/s,差不多介于3060/3070之间

如果你玩的模型是社区支持火热的,A卡可以一试。如果是要自己研究前沿模型的,只能选问题少的N卡,更不用说N卡还有xformers加速和显存压缩技术

少年的深渊 发表于 2023-6-20 10:30

fuochai 发表于 2023-6-20 23:13

谢谢坛友 看来还是等4080再降点价了
本来排除这卡是因为听说性价比极低的 但是考虑和7900xtx差不多的游戏性能和cuda的支持 其实也并没有很糟糕?当然要是再便宜点就好了
而且4090的话我舍不得上更好的cpu和内存也是浪费了

香港记者巴拉森 发表于 2023-6-21 08:56

虽然pytorch tensorflow都会有,hip也可以转cuda代码,不过n卡有些功能没有对应的,转cuda代码也并不是真的能一键转换,还有些软件也不开源,n卡护城河还是太深了

xu5891166 发表于 2023-6-21 08:59

40系被老黄刀法弄得真的是大便,如果不是30到处矿,谁买

gx19860411 发表于 2023-6-21 09:11

fuochai 发表于 2023-6-20 09:38
我要只玩游戏就不用纠结直接上amd了。。

别纠结了,老老实实n卡吧

—— 来自 Xiaomi M2011K2C, Android 13上的 S1Next-鹅版 v2.5.4

ciciswan 发表于 2023-6-21 09:50

两个路人 发表于 2023-6-21 09:57

页: [1]
查看完整版本: 求教 机器学习 入门学习不跑项目的话能用7900xtx吗