找回密码
 立即注册
搜索
查看: 4412|回复: 16

[硬件] 完了。。苏妈放话了,CPU产能吃紧,该涨价了嗷

[复制链接]
     
发表于 2026-3-4 11:32 | 显示全部楼层 |阅读模式
DIY啊。。。。。深陷泥潭。。。。。


工作室的CPU升级计划又要受阻了


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

     
发表于 2026-3-4 11:38 | 显示全部楼层
其实不奇怪,算力中心,本来也就需要CPU
回复

使用道具 举报

     
发表于 2026-3-4 23:23 来自手机 | 显示全部楼层
感觉有没有一种可能,当前的cpu还只是ai革命出现前的初级形态。
等ai革命完成的时候,cpu形态也会大变化,
回复

使用道具 举报

     
发表于 2026-3-5 01:22 | 显示全部楼层
因为 codex 这些都需**,家里已经多了个 9950 当本地开发机了
回复

使用道具 举报

     
发表于 2026-3-5 01:28 | 显示全部楼层
这时候arm在干嘛?
回复

使用道具 举报

     
发表于 2026-3-5 04:19 | 显示全部楼层
sanludafu 发表于 2026-3-4 23:23
感觉有没有一种可能,当前的cpu还只是ai革命出现前的初级形态。
等ai革命完成的时候,cpu形态也会大变化, ...

AI任务会有专用硬件负责。

考虑到普通消费级市场价格敏感,且CPU性能提升放缓,工艺成本增高,要是本地AI真的成熟,开发CPU的资金会挪用很大一部分到开发本地的NPU、TPU、LPU。

服务器端同样要看AI业务需求,厂商大部分采购经费应该还是用来分配给推理卡,然后是训练卡,再之后是CPU等其他设备?

以上是我拍脑袋想的。
回复

使用道具 举报

发表于 2026-3-5 10:01 | 显示全部楼层
Sza 发表于 2026-3-5 04:19
AI任务会有专用硬件负责。

考虑到普通消费级市场价格敏感,且CPU性能提升放缓,工艺成本增高,要是本地A ...

NPU应该负责AI,还有什么
回复

使用道具 举报

     
发表于 2026-3-5 10:07 | 显示全部楼层
chiplet服务器和消费级一起用是省钱,但互相抢起来也方便
回复

使用道具 举报

     
发表于 2026-3-5 10:10 | 显示全部楼层
本帖最后由 gaiden 于 2026-3-5 10:16 编辑
Realplayer 发表于 2026-3-5 01:28
这时候arm在干嘛?

Arm 预计,在英伟达 Superchip 快速迭代和大企业自研芯片加速部署的背景下,今年向顶级超大规模计算公司发货的所有新服务器芯片中将有约半数基于 Arm 架构。

在躺着收授权费,NV自己一条路arm走到黑,饿是肯定饿不死
AMD这两年数据中心业务还带产品呢25年一年166亿刀,毛利也就50左右去掉研发更低。Arm一年躺着拿授权可以拿50亿刀了,毛利95%以上

评分

参与人数 1战斗力 +1 收起 理由
Realplayer + 1 离谱

查看全部评分

回复

使用道具 举报

     
发表于 2026-3-5 10:10 | 显示全部楼层
其实个人PC性能需求本来也不旺盛吧,只要厂商按照主流性能开发游戏,那其实现在手上的设备也没有升级的必要
回复

使用道具 举报

     
发表于 2026-3-5 10:32 | 显示全部楼层
macbook新机快比win低端本便宜了,iPhone基础款现在也就是个安卓中端旗舰的价位

再涨价让苹果一统天下了
回复

使用道具 举报

     
 楼主| 发表于 2026-3-5 10:42 | 显示全部楼层
py_250 发表于 2026-3-5 10:32
macbook新机快比win低端本便宜了,iPhone基础款现在也就是个安卓中端旗舰的价位

再涨价让苹果一统天下了 ...

侬是想说集美统一天下吧
回复

使用道具 举报

     
发表于 2026-3-5 11:11 来自手机 | 显示全部楼层
苏妈现在最后悔的可能是am5放弃ddr4的支持,为了赚钱连5500x3d都出了
回复

使用道具 举报

     
发表于 2026-3-5 15:59 | 显示全部楼层
handy 发表于 2026-3-5 10:01
NPU应该负责AI,还有什么

你说的“ 还有什么”指的是?
回复

使用道具 举报

发表于 2026-3-6 08:39 | 显示全部楼层
Sza 发表于 2026-3-5 15:59
你说的“ 还有什么”指的是?

TPU LPU是什么
回复

使用道具 举报

     
发表于 2026-3-6 16:44 | 显示全部楼层

TPU是谷歌用来跑AI相关任务的芯片,现阶段是企业用的。我偷个懒复制一下百度百科:
张量处理单元(TPU)是谷歌公司专为加速机器学习和深度学习任务设计的专用集成电路芯片(ASIC)

LPU是“language processing units(语言处理单元)”,一些企业和科研机构推出的概念,主要用来跑LLM(大语言模型,英语:Large Language Model)。

NPU、TPU、LPU都是为了高效运行AI任务而产生的芯片类型
回复

使用道具 举报

     
发表于 2026-3-8 02:27 | 显示全部楼层
农企走量的消费级不都是epyc残片 慌什么
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2026-3-16 13:27 , Processed in 0.077521 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表