在片元着色器中拜访帧缓冲坐标
1. 技术阐明
- 应用最新 Edge/Chrome Canary 浏览器
- 应用 VSCode 插件
LiveServer
的 HTTP 服务器对本机提供 5500 端口的页面服务,即http://localhost:5500/index.html
- 应用 es-module 格调的 JavaScript 实现
2. 三角形例子
先上成果,前面再解析片元着色器:
HTML
html 局部就简略一些
<canvas id="c" width="600" height="600" style="border: 1px solid darkseagreen;"></canvas><script type="module" src="./main.js"></script>
不出意外的话,你能够看到一个带暗绿色边框的 canvas,长宽均为 600 像素。
JavaScript
JavaScript 代码也比较简单,省略大部分动静代码和有无判断代码:
const canvas = document.getElementById('c')const shaderText = `/* 着色器代码,前面会给 */`const init = async () => { const adapter = await navigation.gpu.requestAdapter() const device = await adapter.requestDevice() const context = canvas.getContext('webgpu') const presentationFormat = context.getPreferredFormat(adapter) context.configure({ device, format: presentationFormat, size: [ 600, 600 ], // canvas 的画图尺寸 }) const pipeline = device.createRenderPipeline({ vertex: { module: device.createShaderModule({ code: shaderText }), entryPoint: 'vertexMain' }, fragment: { module: device.createShaderModule({ code: shaderText }), entryPoint: 'fragmentMain', targets: [{ format: presentationFormat }], }, primitive: { topology: 'triangle-list' }, }) const render = () => { /* 每帧创立编码器并“录制”编码过程,最终提交给设施 */ const commandEncoder = device.createCommandEncoder() const textureView = context.getCurrentTexture().createView() const renderPassDescriptor = { colorAttachments: [ { view: textureView, clearValue: { r: 0.0, g: 0.0, b: 0.0, a: 1.0 }, loadOp: 'clear', storeOp: 'store', }, ], } const passEncoder = commandEncoder.beginRenderPass(renderPassDescriptor) passEncoder.setPipeline(pipeline) passEncoder.draw(3, 1, 0, 0) passEncoder.end() device.queue.submit([commandEncoder.finish()]) requestAnimationFrame(render) } requestAnimationFrame(render)} // async function initinit()
我保留了残缺的 rAF 帧动画构造。
为了不便阐明内置在片元着色器中的帧缓冲坐标变量,我将三角形顶点值写死在顶点着色器中,见下文。
3. 着色器解析
着色器代码:
const shaderText = /* wgsl */`@stage(vertex)fn vertexMain( @builtin(vertex_index) VertexIndex: u32) -> @builtin(position) vec4<f32> { var pos = array<vec2<f32>, 3>( vec2<f32>(0.0, 0.5), vec2<f32>(-0.5, -0.5), vec2<f32>(0.5, -0.5) ); return vec4<f32>(pos[VertexIndex], 0.0, 1.0);}@stage(fragment)fn fragmentMain( @builtin(position) FrameBufferCoord: vec4<f32>) -> @location(0) vec4<f32> { var color = vec4<f32>(1.0, 0.5, 0.0, .5); let x: f32 = (FrameBufferCoord.x - 300.0) / 300.0; let y: f32 = (-FrameBufferCoord.y + 300.0) / 300.0; let r: f32 = sqrt(x * x + y * y); if (x > -0.1 && x < 0.1) { return vec4<f32>(1.0, 0.0, 0.5, 1.0); } else if (y > -0.1 && y < 0.1) { return vec4<f32>(0.0, 0.5, 1.0, 1.0); } else if (r < 0.4) { return vec4<f32>(FrameBufferCoord.rgb / 600.0, 0.5); } else { discard; }}`
WGSL 褒贬不一,就不说它的语法如何了。
次要是看片元着色器的输出,@builtin(position) FrameBufferCoord: vec4<f32>
,它向每一个片元着色器传入了以后片元的帧缓冲坐标,类型是 vec4<f32>
帧缓冲坐标图示
帧缓冲在 WebGPU 标准中有阐明,它的坐标轴、原点和坐标值域是这样的:
我对帧缓冲坐标进行了缩放、平移,也就是计算了 x
、y
,将原点挪动到 canvas 地方,而后把坐标区间从 [0, 600]
映射到 [-1, 1]
。
而后就是最初的那个多步逻辑分支了,也很简略:
- 第一个 if 对应图中的 <span style="color: white; background-color: rgb(255, 0, 128)">粉色</span>
- 第二个 if 对应图中的 <span style="background-color: rgb(0, 128, 255); color: white">蓝色</span>
- 第三个 if 对应图中三角形区域内、蓝色、粉色像素外的 圆区域,半径是 0.4(映射后的半径),它应用帧缓冲坐标作为色彩值(除以帧缓冲的长宽 600 映射到了
[0, 1]
),加了 0.5 的透明度 - 最初其它的片元应用语句
discard
抛弃,即不渲染
OK,明天就学到这里。
源码
腾讯微云