redfallen 发表于 2013-4-30 22:44

qwased 发表于 2013-4-30 22:57

我还以为打开的是游戏区
估计利比亚又得走私ps4做导弹了

----发送自 ZTE ZTE V970,Android 4.1.1

槇島沙織 发表于 2013-4-30 23:02

有一瞬间我以为我进错区了…不过这下能模拟地球了不?

----发送自 Motorola MB526,Android 4.2.2

redfallen 发表于 2013-4-30 23:18

oz01 发表于 2013-4-30 23:22

  强化的部分,大部分来自于单个统一高速内存空间的使用。PS4有8GB GDDR5 RAM,CPU和GPU都能简单,完整地访问这个空间。PC的话,如果有8GB记忆体,CPU和GPU在现有框架上只能共享到1%的空间。这是PCIe速度造成的限制。PS4使用的统一架构带来了很实际的好处。这是开发者着手为这个系统编程就能感受到的好处。
统一内存寻址终于实现了,PC还不知道要多久才有
不知道卡马克对此有什么感想,mega纹理彻底被钉上棺材板了,也许卡马克以后会坚定的变成AMD黑
顺便提一下,cpu和gpu之间数据交互困难不光是pcie的问题,光拼数字是没用的

  2.其次,假设开发者想用GPU L2缓存同时进行图像和异步计算,SCE为缓存增加了一个标记用的位,这称之为volatile位。开发者可以有选择地标记计算使用的访问空间。当计算访问系统内存的时候,这些使用了的L2空间将不可用;当结果写回的时候,这些已经使用了的L2空间将可以写。这个创新解决了计算使用GPU L2时的请求操作对同时进行的图形操作造成冲击的问题。换句话说,就是减少了在GPU上同时进行图像处理和通用计算的开销。


作为3D码农,这段我无力吐槽了。。。根本就是更麻烦么了


比如opaque shadow map渲染就没有用到pixel shader,它完全是vertex shaders和光栅化硬件完成的。
很好,光是这一条,就足够彻底秒杀PC和一切手机了,这里opaque应该翻译成非渲染

至少,游戏的媒体文件是zlib压缩的。
我不知道原文是什么,这里的媒体文件应该是指视频音频以外的数据

  瓶颈是?
  Cerny 对于可能遇到的瓶颈也没有掩饰。他相信自己的团队已经有效的处理了这个问题。“图像方面,第一个可能遇上的瓶颈就是内存带宽。下一代游戏中,一个物体有十多个纹理将是标准。很快系统就会到达瓶颈,一小部分的渲染过程就会达到记忆体界限,除了转为使用lower bit-per-texel textures,没有其他很好的办法。对此我们的策略很简单,就是用GDDR5作为系统内存,提供大量的带宽。
  如果记忆体不是瓶颈,如果游戏中的物件有细致的网格,就很可能在顶点数量上遇到瓶颈。开发者可以让艺术家让三角形更粗大,但是这很难掌控。这种情况在屏幕大量显示的三角形都只有一个像素大的时候,很容易就出现了。
凡是3D渲染平台,全都有这瓶颈,单独说这个有什么意义,这么想被人挑毛病么

iceprince10 发表于 2013-4-30 23:31

ARUCARD 发表于 2013-4-30 23:45

只要intel的gpu能秒了nv和amd,这就不是问题了。

炎之女皇 发表于 2013-4-30 23:48

鸡蛋灌饼 发表于 2013-5-1 00:02

引用第4楼oz01于2013-04-30 23:22发表的  :

统一内存寻址终于实现了,PC还不知道要多久才有images/back.gif

早就有了,集显就是——不考虑内部逻辑是绕三个弯子的话。

就硬件来说,这个为游戏定制的方案对PC吸引力不大。
引用第6楼ARUCARD于2013-04-30 23:45发表的:
只要intel的gpu能秒了nv和amd,这就不是问题了。 images/back.gif

思路错误
更简单的方法是推光线追踪,逼现有的GPU翻修架构。

Realplayer 发表于 2013-5-1 00:16

>我说我们不想为开发者设置问题,这就意味着我们在跨平台领域也将有出色的表现
有利于劈腿?游戏厂牌才不管你主机独占哦,“该”劈腿果断劈

>其设计理念就是,玩家只需要下载部分数据就可以开始游戏。剩下的数据将在游戏的时候后台下载
MMO的赶脚啊

ramiel1 发表于 2013-5-1 00:23

Justice_jsj 发表于 2013-5-1 00:31

引用第10楼ramiel1于2013-05-01 00:23发表的:
芯片面积非常非常大,但是不知道AMD高层是怎么想的,傻逼地要求把CPU和GPU整合在一块,你觉得就游戏机那破散热器能压得住??妥妥的等三红 images/back.gif
要说散热设计的话去看看ps3早期型号的散热去,普通pc在它面前还真不怎么样。巨硬的话那倒是真的只有三红的份了

ramiel1 发表于 2013-5-1 00:32

ramiel1 发表于 2013-5-1 00:36

lessball 发表于 2013-5-1 00:52

巨硬:以开发者视角深入解析,哈哈哈哈哈哈哈

qwased 发表于 2013-5-1 01:00

引用第12楼ramiel1于2013-05-01 00:32发表的  :

算了吧,连亮机GPU都做不好的OUTEL在这种CPU/GPU多芯片订制上会有AMD经验丰富?系统性能又不是只看CPU的,你见过哪个游戏机靠CPU强胜出的?倒是某个自称能模拟地球的结果全平台每次都被抽脸……当年ATI的360显卡架构就已经抽的NV的PS3爹妈都不认了 images/back.gif

那不废话嘛,PS3那还是G7X的架构,谁让索尼赶着卖又没钱上G80呢

Cray 发表于 2013-5-1 01:04

ps3的显卡不是被黄老板给骗了么.


我那个破烂散热1100mhz的7770满载才60度..

Elisha 发表于 2013-5-1 01:12

ARUCARD 发表于 2013-5-1 08:43

统一内存寻址实现技术上根本没关系好么,厂商壁垒而已,ps4实现的前提也就是用小aa一家的整合解决方案,你让他换个intel的产品看看,难道你们都忘了当年nf芯片组黄老板的尝试了么,可惜他的芯片组业务死了,当然这也是小aa一手造成的。

redfallen 发表于 2013-5-1 11:09

redfallen 发表于 2013-5-1 11:14

Lacsiess 发表于 2013-5-1 11:30

引用第20楼redfallen于2013-05-01 11:14发表的:

成本考虑,应该说是达到历史水准

PS4用的是128bit7800GT,在PS3上市时 GTX8800已经买大街了,128bit 7800GT也就相当于 8600GT,性能不到旗舰的1/2左右。PS4 以7850+的规格现在来说应该说是达标了 images/back.gif




7850+8GB GD5对1080P应该是完全碾压,1440P做好优化也没问题...应该是够用了

oz01 发表于 2013-5-1 12:42

引用第20楼redfallen于2013-05-01 11:14发表的:

成本考虑,应该说是达到历史水准

PS4用的是128bit7800GT,在PS3上市时 GTX8800已经买大街了,128bit 7800GT也就相当于 8600GT,性能不到旗舰的1/2左右。PS4 以7850+的规格现在来说应该说是达标了 images/back.gif

还真就张口就来,没事非要凑型号配对很有趣么

bbtt2007 发表于 2013-5-1 13:56


作为3D码农,这段我无力吐槽了。。。根本就是更麻烦么了images/back.gif

提供一个提高缓存利用率的途径,为啥更麻烦?你也可以不用啊



很好,光是这一条,就足够彻底秒杀PC和一切手机了,这里opaque应该翻译成非渲染http://220.196.42.172/2b/images/back.gif

没看懂,为啥能彻底秒杀PC。话说你引用的文章里的那句话我就没咋看懂,求解释。。。



凡是3D渲染平台,全都有这瓶颈,单独说这个有什么意义,这么想被人挑毛病么http://220.196.42.172/2b/images/back.gif

原文应该是针对可能的next-gen的普遍使用情况说的。我好奇的是一个物体有十多个纹理将是标准这条。目前来看,使用physically based lighting的前提下,用到十多张贴图的物体还没怎么见到过。。。

oz01 发表于 2013-5-1 14:14

以原文提到的shadowmap为例
如果产生阴影的物体没有镂空的情况的话,实际上渲染shadowmap只需要获得最终的深度缓冲即可,完全不需要处理颜色
可问题是现在pc上,你想要在深度缓冲里写点东西,不可避免的一定要经过像素着色器,完全浪费

用到十多张贴图的物体,我就举一个例子:地形纹理刷,如果你非要搞8层,每层还非要各自带法线和高光贴图,这就是25个纹理了,我这么干过的

bbtt2007 发表于 2013-5-1 14:31

引用第24楼oz01于2013-05-01 14:14发表的:
以原文提到的shadowmap为例
如果产生阴影的物体没有镂空的情况的话,实际上渲染shadowmap只需要获得最终的深度缓冲即可,完全不需要处理颜色
可问题是现在pc上,你想要在深度缓冲里写点东西,不可避免的一定要经过像素着色器,完全浪费

用到十多张贴图的物体,我就举一个例子:地形纹理刷,如果你非要搞8层,每层还非要各自带法线和高光贴图,这就是25个纹理了,我这么干过的images/back.gif




嗯。。。看来我理解的没错。得到shadowmap确实不需要PS,如果能直接用depth texture的话。这里的opaque shadowmap是说不透明物体的shadowmap,你的那个非渲染的翻译让我有点困扰,我去翻了原文,并没明说PS4是不是能绕开PS,而是在谈到GPU计算的多样性时的一个举例。
地形多层material是一个应用,albedo, normal,specular,detail, 还有roughness啥的,但这个不是普遍应用。。。
等等,如果ubershader有多张normal混合,多层diffuse混合的话。。。好吧

忧郁的lc 发表于 2013-5-1 15:23

引用第24楼oz01于2013-05-01 14:14发表的:
以原文提到的shadowmap为例
如果产生阴影的物体没有镂空的情况的话,实际上渲染shadowmap只需要获得最终的深度缓冲即可,完全不需要处理颜色
可问题是现在pc上,你想要在深度缓冲里写点东西,不可避免的一定要经过像素着色器,完全浪费

用到十多张贴图的物体,我就举一个例子:地形纹理刷,如果你非要搞8层,每层还非要各自带法线和高光贴图,这就是25个纹理了,我这么干过的images/back.gif




但是大部分实用的shadow map算法,都不是直接拿深度缓冲,而是经过PS处理后的数据
所以这样绕过PS,直接用深度值是做什么用呢?

鸡蛋灌饼 发表于 2013-5-1 16:02

引用第24楼oz01于2013-05-01 14:14发表的:
以原文提到的shadowmap为例
如果产生阴影的物体没有镂空的情况的话,实际上渲染shadowmap只需要获得最终的深度缓冲即可,完全不需要处理颜色
可问题是现在pc上,你想要在深度缓冲里写点东西,不可避免的一定要经过像素着色器,完全浪费

用到十多张贴图的物体,我就举一个例子:地形纹理刷,如果你非要搞8层,每层还非要各自带法线和高光贴图,这就是25个纹理了,我这么干过的 images/back.gif

从硬件角度来看没什么“不可避免”一说
图形API瞎JB抽象的后果

巴尔库夫 发表于 2013-5-1 16:31

下代全用X86架构,那可以把主机看作是定制的准系统了

cen_54 发表于 2013-5-1 16:34

不太懂,我只知道次时代游戏在画面上的开发成本又大幅度增加了

eva02eva02 发表于 2013-5-1 17:05

SDK呢
用大门爸爸的?

ARUCARD 发表于 2013-5-1 17:46

sony不是一直opengl么。

鸡蛋灌饼 发表于 2013-5-1 19:06

引用第28楼巴尔库夫于2013-05-01 16:31发表的  :
下代全用X86架构,那可以把主机看作是定制的准系统了 images/back.gif

SteamBox也是这个思路
可笑游戏区一帮子人连它的定位都摸不准
引用第30楼eva02eva02于2013-05-01 17:05发表的:
SDK呢
用大门爸爸的? images/back.gif

Sony如果够精明的话就应该直接从Linux/BSD定制上来
UE直接就能上了

oz01 发表于 2013-5-1 21:39

引用第26楼忧郁的lc于2013-05-01 15:23发表的:




但是大部分实用的shadow map算法,都不是直接拿深度缓冲,而是经过PS处理后的数据
....... images/back.gif

hlsl和cg我不清楚
glsl里的shadow2DProj只能用sampler2DShadow作为纹理参数,sampler2DShadow就是DEPTH_COMPONENT
DEPTH_COMPONENT你在ps里还想处理什么?alphatest么


引用第27楼鸡蛋灌饼于2013-05-01 16:02发表的:

从硬件角度来看没什么“不可避免”一说
图形API瞎JB抽象的后果 images/back.gif


毕竟pc上绕不开图形api
作为3D码农是没办法解决这个问题的

囧囧囧 发表于 2013-5-1 21:55

没人婊cpu那part?

忧郁的lc 发表于 2013-5-1 22:03

引用第33楼oz01于2013-05-01 21:39发表的:

hlsl和cg我不清楚
glsl里的shadow2DProj只能用sampler2DShadow作为纹理参数,sampler2DShadow就是DEPTH_COMPONENT
DEPTH_COMPONENT你在ps里还想处理什么?alphatest么http://220.196.42.172/2b/images/post/smile/face/191.gif


glsl我是不懂,不过hlsl都是先写到一张texture中的


texture的每个像素当然可以用ps做优化处理
只用depth的精度完全不行吧,边缘的锯齿太严重了,
dx默认的sample里都是w和z分别插值,然后才取z / w做纹理值,来消除误差的
更不用说什么variance shadow map做的处理了。


直接用深度值来做纹理参数,这效果应该完全不行吧

sakamoto 发表于 2013-5-2 00:17

引用第34楼囧囧囧于2013-05-01 21:55发表的:
没人婊cpu那part? images/back.gif

GDDR5+山猫,单线能被atom日...

囧囧囧 发表于 2013-5-2 00:37

另外网络上有据说是PC vs PS4跑UE4 demo的片段,画面品质和流畅度被完草。

鸡蛋灌饼 发表于 2013-5-2 01:28

引用第37楼囧囧囧于2013-05-02 00:37发表的:
另外网络上有据说是PC vs PS4跑UE4 demo的片段,画面品质和流畅度被完草。 images/back.gif

谁艹谁啊……
PS4被艹太正常了,处理器不行,农企的OpenGL实现又出名的烂,UE4测OpenGL总没DX测得多。怎么说都赢不了

roadcross 发表于 2013-5-2 10:04

引用第35楼忧郁的lc于2013-05-01 22:03发表的  :


glsl我是不懂,不过hlsl都是先写到一张texture中的


....... images/back.gif

hlsl我不懂,但是NV的Cg的shadowmap demo也是直接用深度纹理,tex2Dproj可以直接访问深度纹理,这函数在hlsl里也可以这么做
锯齿问题显然和纹理精度无关,与纹理尺寸有关,与渲染阴影纹理时的投影矩阵范围有关
方差阴影贴图和普通的阴影贴图差别很大,不能一概而论,而且这东西的漏光问题不是一般的要命,而且浮点纹理的开销
至于效果,前面的oz01小朋友就在s1发过demo,还是开源的,你自己运行看看就知道了
页: [1] 2
查看完整版本: 转帖:以开发者视角深入解析,PS4的改变及其未来