natt 发表于 2026-3-4 11:32

完了。。苏妈放话了,CPU产能吃紧,该涨价了嗷

DIY啊。。。。。深陷泥潭。。。。。


工作室的CPU升级计划又要受阻了


雪影 发表于 2026-3-4 11:38

其实不奇怪,算力中心,本来也就需要CPU

sanludafu 发表于 2026-3-4 23:23

感觉有没有一种可能,当前的cpu还只是ai革命出现前的初级形态。
等ai革命完成的时候,cpu形态也会大变化,

御坂MKII 发表于 2026-3-5 01:22

因为 codex 这些都需**,家里已经多了个 9950 当本地开发机了

Realplayer 发表于 2026-3-5 01:28

这时候arm在干嘛?

Sza 发表于 2026-3-5 04:19

sanludafu 发表于 2026-3-4 23:23
感觉有没有一种可能,当前的cpu还只是ai革命出现前的初级形态。
等ai革命完成的时候,cpu形态也会大变化, ...

AI任务会有专用硬件负责。

考虑到普通消费级市场价格敏感,且CPU性能提升放缓,工艺成本增高,要是本地AI真的成熟,开发CPU的资金会挪用很大一部分到开发本地的NPU、TPU、LPU。

服务器端同样要看AI业务需求,厂商大部分采购经费应该还是用来分配给推理卡,然后是训练卡,再之后是CPU等其他设备?

以上是我拍脑袋想的。

handy 发表于 2026-3-5 10:01

Sza 发表于 2026-3-5 04:19
AI任务会有专用硬件负责。

考虑到普通消费级市场价格敏感,且CPU性能提升放缓,工艺成本增高,要是本地A ...

NPU应该负责AI,还有什么

木谷高明 发表于 2026-3-5 10:07

chiplet服务器和消费级一起用是省钱,但互相抢起来也方便

gaiden 发表于 2026-3-5 10:10

本帖最后由 gaiden 于 2026-3-5 10:16 编辑

Realplayer 发表于 2026-3-5 01:28
这时候arm在干嘛?
Arm 预计,在英伟达 Superchip 快速迭代和大企业自研芯片加速部署的背景下,今年向顶级超大规模计算公司发货的所有新服务器芯片中将有约半数基于 Arm 架构。

在躺着收授权费,NV自己一条路arm走到黑,饿是肯定饿不死
AMD这两年数据中心业务还带产品呢25年一年166亿刀,毛利也就50左右去掉研发更低。Arm一年躺着拿授权可以拿50亿刀了,毛利95%以上

我被骗了五块钱 发表于 2026-3-5 10:10

其实个人PC性能需求本来也不旺盛吧,只要厂商按照主流性能开发游戏,那其实现在手上的设备也没有升级的必要

py_250 发表于 2026-3-5 10:32

macbook新机快比win低端本便宜了,iPhone基础款现在也就是个安卓中端旗舰的价位

再涨价让苹果一统天下了

natt 发表于 2026-3-5 10:42

py_250 发表于 2026-3-5 10:32
macbook新机快比win低端本便宜了,iPhone基础款现在也就是个安卓中端旗舰的价位

再涨价让苹果一统天下了 ...

侬是想说集美统一天下吧

龙骑士尹志平 发表于 2026-3-5 11:11

苏妈现在最后悔的可能是am5放弃ddr4的支持,为了赚钱连5500x3d都出了

Sza 发表于 2026-3-5 15:59

handy 发表于 2026-3-5 10:01
NPU应该负责AI,还有什么

你说的“ 还有什么”指的是?

handy 发表于 2026-3-6 08:39

Sza 发表于 2026-3-5 15:59
你说的“ 还有什么”指的是?

TPU LPU是什么

Sza 发表于 2026-3-6 16:44

handy 发表于 2026-3-6 08:39
TPU LPU是什么
TPU是谷歌用来跑AI相关任务的芯片,现阶段是企业用的。我偷个懒复制一下百度百科:
张量处理单元(TPU)是谷歌公司专为加速机器学习和深度学习任务设计的专用集成电路芯片(ASIC)
LPU是“language processing units(语言处理单元)”,一些企业和科研机构推出的概念,主要用来跑LLM(大语言模型,英语:Large Language Model)。

NPU、TPU、LPU都是为了高效运行AI任务而产生的芯片类型

宮脇咲良 发表于 2026-3-8 02:27

农企走量的消费级不都是epyc残片 慌什么
页: [1]
查看完整版本: 完了。。苏妈放话了,CPU产能吃紧,该涨价了嗷