abcxiawei 发表于 2025-5-16 16:55

决定显示输出能到8Bit还是10Bit的是什么?

本帖最后由 abcxiawei 于 2025-5-16 16:57 编辑

最近在研究intel和AMD新一代的集显的性能和规格。找了不少评测视频。发现个有意思的现象:


同样是HDMI2.1,DP1.4(2.1)

AMD 780M,890M 可以输出4K144,10bit RGB。
但是intel Ultra 1xx,2xx的Arc集显,却只能输出4K144,8bit RGB。

这显然不是视频输出接口自身限制住的。难道是GPU限制了?
如果真是intel故意这么做的,在商业应用上发力更多的intel。为什么要限制自家的GPU只能输出8Bit?当然我知道现在10Bit的显示器很少就是了

shinzero 发表于 2025-5-16 17:12

intel驱动的bug,应该已经修了
https://github.com/IGCIT/Intel-G ... er-IGCIT/issues/179

怀旧战士 发表于 2025-5-16 17:15

还有第三方主板为了省钱阉割接口规格
12代以后都支持HDMI 2.1+dp 1.4
但主板厂硬是只给你1.4+1.2
页: [1]
查看完整版本: 决定显示输出能到8Bit还是10Bit的是什么?