WebGL 2系列之多采样渲染缓冲对象

简介: 本文适合对webgl、计算机图形学、前端可视化感兴趣的读者。

在很久很久以前,使用WebGL1的时候,只能在默认的绘制的缓冲区上面使用MSAA,而不能在帧缓冲区上面实现,更加形象的说就是:MSAA不能用于离屏渲染。


如果需要在帧缓冲区(离屏渲染)上面实现去锯齿效果,需要在贴图内容上使用自己实现的post -process的AA,比如:


而且在WebGL1中,不能通过上下文来改变MSAA的采样数量,这对于WebGL1下的去锯齿效果有很大影响。


多采样渲染缓冲对象


在WebGL2中,有了一个新的特性,叫做Multisampled Renderbuffer,恩,中文呢就叫做:多采样渲染缓冲对象吧;通过多采样渲染缓冲对象,可以在帧缓冲区的渲染缓冲对象上实现MSAA(multisampled antialiasing), 然后通过下面的流程实现最终实现渲染的去锯齿:


pre-z pass –> rendering pass to FBO –> postprocessing pass 
–> render to window


函数renderbufferStorageMultisample


和多采样渲染缓冲对象相关的一个重要的函数就是gl.renderbufferStorageMultisample,下面是函数的签名:


gl.renderbufferStorageMultisample(target, samples, internalFormat, width, height);


该函数的第一个target是渲染缓冲对象的“目标”,samples表示采样数,internalFormat表示数据格式,width、height表示渲染缓冲对象的宽高。


下面是使用该函数的简单代码片段:


var frameBuffer = gl.createFrameBuffer();
var colorRenderbuffer = gl.createRenderbuffer();
gl.bindRenderbuffer(gl.RENDERBUFFER, colorRenderbuffer);
gl.renderbufferStorageMultisample(gl.RENDERBUFFER, 4, gl.RGBA8, FRAMEBUFFER_SIZE.x, FRAMEBUFFER_SIZE.y);
gl.bindFramebuffer(gl.FRAMEBUFFER, frameBuffer);
gl.framebufferRenderbuffer(gl.FRAMEBUFFER, gl.COLOR_ATTACHMENT0, gl.RENDERBUFFER, colorRenderbuffer);
gl.bindFramebuffer(gl.FRAMEBUFFER, null);


这和webgl1 中创建帧缓冲区的代码类似,并没有太大差别,不同的是如下一行:


gl.renderbufferStorageMultisample(gl.RENDERBUFFER, 4, gl.RGBA8, FRAMEBUFFER_SIZE.x, FRAMEBUFFER_SIZE.y);

通过gl.renderbufferStorageMultisample方法指定了渲染缓冲对象的多重采样,采样数是4。


多采样纹理附件


多采样纹理附件又是什么东西呢,好吧,其实在WebGL2中,没有这个多采样纹理附件,在OPENGL才有,为什么提到这个多采样纹理附件,大部分时间,我们的离屏渲染都需要渲染到一个纹理对象上面,才能进一步使用。


在没有多采样纹理附件,只有多采样渲染缓冲对象的情况下,要实现MSAA,只能渲染到渲染缓冲对象上,但是渲染缓冲对象的内容不能直接传递给纹理对象。

那么应该怎么做呢?需要使用另外一个重要的函数:


gl.blitFramebuffer函数


通过gl.blitFramebuffer函数,可以把多采样渲染缓冲对象的内容传递给纹理对象。下面是该函数的签名:


gl.blitFramebuffer(srcX0, srcY0, srcX1, srcY1,
                        dstX0, dstY0, dstX1, dstY1,
                        mask, filter);


该函数的作用就是,把一个帧缓冲区(read framebuffer)上的指定区域像素转移给另外一个帧缓冲区(draw framebuffer)上的指定区域。


其中参数srcX0, srcY0, srcX1, srcY1指定read framebuffer上的区域;

dstX0, dstY0, dstX1, dstY1 指定draw framebuffer上的区域;mask指定那个buffer的内容会被copy,可选值:

  • gl.COLOR_BUFFER_BIT
  • gl.DEPTH_BUFFER_BIT
  • gl.STENCIL_BUFFER_BIT
    filter 表示当两个区域大小不同的时候,插值的方式,可以是以下值:
  • gl.NEAREST
  • gl.LINEAR


下面是代码片段:


var renderableFramebuffer = gl.createFramebuffer();
......
var colorFramebuffer = gl.createFramebuffer();
var texture = gl.createTexture();
gl.bindTexture(gl.TEXTURE_2D, texture);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.NEAREST);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.NEAREST);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, FRAMEBUFFER_SIZE.x, FRAMEBUFFER_SIZE.y, 0, gl.RGBA, gl.UNSIGNED_BYTE, null);
gl.bindTexture(gl.TEXTURE_2D, null);
gl.bindFramebuffer(gl.FRAMEBUFFER, colorFramebuffer);
gl.framebufferTexture2D(gl.FRAMEBUFFER, gl.COLOR_ATTACHMENT0, gl.TEXTURE_2D, texture, 0);
gl.bindFramebuffer(gl.FRAMEBUFFER, null);
// ...
// After drawing to the multisampled renderbuffers
gl.bindFramebuffer(gl.READ_FRAMEBUFFER, renderableFramebuffer);
gl.bindFramebuffer(gl.DRAW_FRAMEBUFFER, colorFramebuffer);
gl.clearBufferfv(gl.COLOR, 0, [0.0, 0.0, 0.0, 1.0]);
gl.blitFramebuffer(
    0, 0, FRAMEBUFFER_SIZE.x, FRAMEBUFFER_SIZE.y,
    0, 0, FRAMEBUFFER_SIZE.x, FRAMEBUFFER_SIZE.y,
    gl.COLOR_BUFFER_BIT, gl.NEAREST
);


代码中,首先把场景渲染到renderableFramebuffer中,然后把renderableFramebuffer绑定到目标gl.READ_FRAMEBUFFER,把colorFramebuffer绑定到目标gl.DRAW_FRAMEBUFFER,之后清空DRAW_FRAMEBUFFER上面的颜色关联对象,然后调用gl.blitFramebuffer方法把renderableFramebuffer的颜色关联对象上的数据复制到colorFramebuffer的颜色管理对象,colorFramebuffer的颜色关联对象是一个纹理对象,这样就把数据从渲染缓冲对象复制到纹理对象上面了。


READ_FRAMEBUFFER和DRAW_FRAMEBUFFER


在webgl1中,帧缓冲区的对象的目标只能是gl.FRAMEBUFFER,而在WebGL2中,增加两种目标:

  • gl.READ_FRAMEBUFFER
  • gl.DRAW_FRAMEBUFFER
    以上两种目标分别表示FBO可以分别进行读操作和写操作;这在FBO复制到FBO的时候很有用,就像前文中所叙述的,可以把READ_FRAMEBUFFER上的数据复制到DRAW_FRAMEBUFFER上。


参考


https://github.com/mrdoob/three.js/pull/8120

https://developer.mozilla.org/en-US/docs/Web/API/WebGL2RenderingContext/blitFramebuffer

https://developer.mozilla.org/en-US/docs/Web/API/WebGL2RenderingContext/blitFramebuffer

http://www.realtimerendering.com/blog/webgl-2-new-features/

https://www.khronos.org/registry/webgl/specs/latest/2.0/#2.2

相关文章
|
6月前
|
前端开发 JavaScript API
React 之从视觉暂留到 FPS、刷新率再到显卡、垂直同步再到16ms的故事
React 之从视觉暂留到 FPS、刷新率再到显卡、垂直同步再到16ms的故事
90 0
|
3月前
|
Web App开发 应用服务中间件 定位技术
three.js:三维模型加载量测试
three.js:三维模型加载量测试
148 4
|
图形学 异构计算 Windows
[性能]-如何在Unity种统计一帧内的开销
[性能]-如何在Unity种统计一帧内的开销
149 0
|
机器学习/深度学习 传感器 算法
【视频处理】通过调用图像来重建新影片及计算颜色通道的平均灰度值,并检测帧与前一帧之间的差异(Matlab代码实现)
【视频处理】通过调用图像来重建新影片及计算颜色通道的平均灰度值,并检测帧与前一帧之间的差异(Matlab代码实现)
|
JSON 前端开发 测试技术
Echarts高级进阶教程(1):异步加载大量数据导致dataZoom组件拖动缩放时间轴卡顿的sampling降采样策略解决方案
Echarts高级进阶教程(1):异步加载大量数据导致dataZoom组件拖动缩放时间轴卡顿的sampling降采样策略解决方案
785 1
|
存储
一图了解前向渲染与延迟渲染
一图了解前向渲染与延迟渲染
283 0
|
图形学
unity如何计算drawcall
unity如何计算drawcall
180 0
|
前端开发 JavaScript 异构计算
页面渲染合成(补充)
在上一篇文章老生常谈之从输入URL到页面呈现的过程中描述了页面渲染流程,其中涉及页面的布局(Layout)和绘制(Painting),实际在绘制之后还有一个步骤叫做合成(Compositing)。
|
Web App开发 负载均衡 数据可视化
浅谈点量云实时渲染和像素流的六点区别
点量云实时渲染和像素流有哪些不同?主要从以下方面展开:1、兼容性2、可云流化程序类型3、实时渲染支持显卡和多服务器负载均衡而像素流技术不支持4、云流化支持网页和客户端交互方式和支持终端类型更多5、点量云实时渲染系统共有可视化后台和运营数据展示报表6、支持会议模式和音视频功能
506 0
浅谈点量云实时渲染和像素流的六点区别
|
存储 缓存 数据处理
并发渲染优化:让文件树的渲染又快又稳
并发渲染优化:让文件树的渲染又快又稳
240 0
并发渲染优化:让文件树的渲染又快又稳