核显瓶颈在ram?
问下同样的核显,比如hd2500,插1333和1600能差多少,实际使用能有曾经独显同核心同位宽但是差GD3和GD5那种差别吗 是在内存 准确讲应该是QPI 但1333和1600差不了多少吧 qpi?内存控制器吗话说有没有交叉测试核显在不同内存下的分数天梯呢 http://diybbs.zol.com.cn/22/398_217115.html
照这边的结论可以推断 hd2500在1333和1600下的差距是很小的 amd的apu有测试,1600和1800还有2133的性能差距在10%左右。但是由于apu在提升内存频率的同时核心和显示核心也都同时超频,所以这性能提升不好说是由内存带来的还是由超频带来的。只是1333内存的话会严重降低apu核显得性能。 好像APU核显吃带宽比较厉害,之前说提到DDR4都未必给力(当然比Outel的核显能打)
难道小AA还在用FSB?
看来Outel的差别小,APU差比较大咯。看3楼那图1333和1600几乎没差嘛 小aa早就不叫fsb了吧,它那个叫什么来着,HT总线。 那种提了频率但不提高CL,2000+ CL11 12然后就开始比速度的我不懂什么心态。 引用第5楼Realplayer于2013-06-30 11:09发表的 :
好像APU核显吃带宽比较厉害,之前说提到DDR4都未必给力(当然比Outel的核显能打)
难道小AA还在用FSB?
看来Outel的差别小,APU差比较大咯。看3楼那图1333和1600几乎没差嘛 images/back.gif
Intel的GPU和CPU共享L3
APU不清楚
引用第7楼yipansansha于2013-06-30 11:17发表的:
那种提了频率但不提高CL,2000+ CL11 12然后就开始比速度的我不懂什么心态。 images/back.gif
GPU不看延迟的
一般来讲GDDR比同频DDR的延迟要高不少 内存带宽吧,这个比较重要 引用第8楼鸡蛋灌饼于2013-06-30 11:37发表的:
GPU不看延迟的
一般来讲GDDR比同频DDR的延迟要高不少 images/back.gif
我是针对那个图说的,里面是为了保证1T,内存分别在不同频率和CL6 /9/11上吧
核显如果需要用内存的话,你意思CL没影响吗? 这里好像没GDDR什么事? 引用第11楼yipansansha于2013-06-30 12:16发表的 :
我是针对那个图说的,里面是为了保证1T,内存分别在不同频率和CL6 /9/11上吧
核显如果需要用内存的话,你意思CL没影响吗? 这里好像没GDDR什么事? images/back.gif
延迟不是没有影响,但没你想象的那么大,GPU架构就是为高延迟高带宽设计的。
具体原理可以参考黄老板对SIMT的介绍 引用第11楼yipansansha于2013-06-30 12:16发表的:
我是针对那个图说的,里面是为了保证1T,内存分别在不同频率和CL6 /9/11上吧
核显如果需要用内存的话,你意思CL没影响吗? 这里好像没GDDR什么事? images/back.gif
CL9和11你不借助mod版的super pi 用的出区别来? 其實是功耗
页:
[1]