找回密码
 立即注册
搜索
查看: 508|回复: 2

[硬件] 决定显示输出能到8Bit还是10Bit的是什么?

[复制链接]
     
发表于 2025-5-16 16:55 | 显示全部楼层 |阅读模式
本帖最后由 abcxiawei 于 2025-5-16 16:57 编辑

最近在研究intel和AMD新一代的集显的性能和规格。找了不少评测视频。发现个有意思的现象:


同样是HDMI2.1,DP1.4(2.1)

AMD 780M,890M 可以输出4K144,10bit RGB。
但是intel Ultra 1xx,2xx的Arc集显,却只能输出4K144,8bit RGB。

这显然不是视频输出接口自身限制住的。难道是GPU限制了?
如果真是intel故意这么做的,在商业应用上发力更多的intel。为什么要限制自家的GPU只能输出8Bit?当然我知道现在10Bit的显示器很少就是了

回复

使用道具 举报

     
发表于 2025-5-16 17:12 | 显示全部楼层
intel驱动的bug,应该已经修了
https://github.com/IGCIT/Intel-G ... er-IGCIT/issues/179
回复

使用道具 举报

发表于 2025-5-16 17:15 来自手机 | 显示全部楼层
还有第三方主板为了省钱阉割接口规格
12代以后都支持HDMI 2.1+dp 1.4
但主板厂硬是只给你1.4+1.2
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-7-2 10:21 , Processed in 0.034060 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表