精通安卓 NDK(四)
原文:
zh.annas-archive.org/md5/F3DC9D6FA4DADE68301DCD4BEC565947译者:飞龙
第八章:编写渲染引擎
在前面的章节中,我们学习了如何组织一个在移动和桌面 OpenGL 之上的薄抽象层。现在,我们可以进入实际的渲染领域,并使用这层来实现一个能够渲染从文件加载的几何图形的 3D 渲染框架,使用材质、光线和阴影。
场景图
场景图是一种常用的数据结构,用于构建空间图形场景的分层表示。第六章《OpenGL ES 3.1 与跨平台渲染》中介绍类的主要局限在于,它们缺乏对整个场景的信息。这些类的用户必须对变换、状态更改和依赖关系进行临时记账,使得实现和支持任何相对复杂的场景变得非常具有挑战性。此外,除非可以访问当前帧的整个场景信息,否则许多渲染优化都无法完成。
在我们当前的低级实现中,我们使用clVertexArray类描述所有可见实体,并通过clGLSLShaderProgram类访问着色器程序进行渲染,这需要手动绑定矩阵和着色器参数。让我们学习如何将这些属性组合到一个更高级的数据结构中。首先,我们将从场景图节点开始。
clSceneNode类包含了局部和全局变换以及一个子节点向量。这些字段是受保护的,我们通过设置器和获取器来访问它们:
class clSceneNode: public iIntrusiveCounter
{
protected:
mat4 m_LocalTransform;
mat4 m_GlobalTransform;
std::vector< clPtr<clSceneNode> > m_ChildNodes;
当我们需要层次结构时,我们必须区分节点的全局和局部变换。从用户的角度来看,局部变换很容易理解。这定义了一个节点相对于其父节点在分层空间结构中的位置和方向。全局变换用于渲染几何体。本质上,它将几何体从模型坐标系转换到世界坐标系。局部变换可以直观地手动修改,而全局变换应随后重新评估。clSceneNode的构造函数设置默认的变换值:
public:
clSceneNode():
m_LocalTransform( mat4::Identity() ),
m_GlobalTransform( mat4::Identity() ) {}
clSceneNode类提供了设置器和获取器,用于访问和修改变换矩阵。实现很简单。然而,它相当繁琐,因此这里只引用了局部变换矩阵的方法。查看源代码1_SceneGraphRenderer以获取完整信息:
void SetLocalTransform( const mat4& Mtx )
{ m_LocalTransform = Mtx; }
const mat4& GetLocalTransformConst() const
{ return m_LocalTransform; }
mat4& GetLocalTransform()
{ return m_LocalTransform; };
此外,我们需要一种方法将子节点添加到此场景节点。我们当前的实现非常简单:
virtual void Add( const clPtr<clSceneNode>& Node )
{
m_ChildNodes.push_back( Node );
}
然而,这种方法将来可以扩展,以允许某些优化。例如,我们可以一旦添加新节点,就将场景图的某些部分标记为“脏”。这将允许我们保留从场景图构建的帧间渲染队列。
有时,需要直接设置全局变换矩阵。例如,如果你想在 3D 应用程序中使用物理模拟库。完成后,应该重新计算局部变换。RecalculateLocalFromGlobal()方法为层次结构中的每个节点计算相对局部变换。对于根节点,局部和全局变换是重合的。对于子节点,每个全局变换矩阵必须与父节点的逆全局变换相乘:
void RecalculateLocalFromGlobal()
{
mat4 ParentInv = m_GlobalTransform.GetInversed();
for ( auto& i : m_ChildNodes )
{
我们将父节点的全局逆变换与当前节点的全局变换相乘:
i->SetLocalTransform( ParentInv * i->GetGlobalTransform() );
过程在层次结构中逐级重复:
i->RecalculateLocalFromGlobal();
}
}
clSceneNode声明中还有一个更有趣的东西。这就是纯虚拟方法AcceptTraverser()。为了渲染场景图,使用了名为访问者设计模式的技术(en.wikipedia.org/?title=Visitor_pattern):
virtual void AcceptTraverser(iSceneTraverser* Traverser) = 0;
iSceneTraverser接口用于定义场景图上的不同操作。由于不同类型的场景图节点的数量是有限且恒定的,我们可以通过实现iSceneTraverser接口简单地添加新操作:
class iSceneTraverser: public iIntrusiveCounter
{
public:
virtual void Traverse( clPtr<clSceneNode> Node );
virtual void Reset() = 0;
接口被声明为clSceneNode所有后代的友元,以允许直接访问这些类的字段:
friend class clSceneNode;
friend class clMaterialNode;
friend class clGeometryNode;
protected:
virtual void PreAcceptSceneNode( clSceneNode* Node ) {};
virtual void PostAcceptSceneNode( clSceneNode* Node ) {};
virtual void PreAcceptMaterialNode( clMaterialNode* Node ) {};
virtual void PostAcceptMaterialNode( clMaterialNode* Node ){};
virtual void PreAcceptGeometryNode( clGeometryNode* Node ) {};
virtual void PostAcceptGeometryNode( clGeometryNode* Node ){};
};
Traverse()的实现被所有遍历器共享。它重置遍历器并调用虚拟方法clSceneNode::AcceptTraverser():
void iSceneTraverser::Traverse( clPtr<clSceneNode> Node )
{
if ( !Node ) return;
Reset();
Node->AcceptTraverser( this );
}
在iSceneTraverser的声明中,你可以看到两种额外的场景节点类型。clSceneNode对象的树可以保持空间变换的层次结构。显然,这还不足以渲染任何东西。为此,我们至少需要几何数据和一个材质。
为了这个目的,我们再声明两个类:clMaterialNode和clGeometryNode。
本章的第一个示例中,材质将只包含环境光和漫反射颜色(en.wikipedia.org/wiki/Phong_shading):
struct sMaterial
{
public:
sMaterial()
: m_Ambient( 0.2f )
, m_Diffuse( 0.8f )
, m_MaterialClass()
{}
vec4 m_Ambient;
vec4 m_Diffuse;
m_MaterialClass字段包含一个材质标识符,可以用来区分特殊材质,例如,为粒子渲染启用 alpha 透明度:
std::string m_MaterialClass;
};
现在,可以声明一个材质场景节点。它是一个简单的数据容器:
class clMaterialNode: public clSceneNode
{
public:
clMaterialNode() {};
sMaterial& GetMaterial() { return m_Material; }
const sMaterial& GetMaterial() const { return m_Material; }
void SetMaterial( const sMaterial& Mtl ) { m_Material = Mtl; }
virtual void AcceptTraverser(iSceneTraverser* Traverser) override;
private:
sMaterial m_Material;
};
让我们看看AcceptTraverser()方法的实现。它非常简单且高效:
void clMaterialNode::AcceptTraverser( iSceneTraverser* Traverser )
{
Traverser->PreAcceptSceneNode( this );
Traverser->PreAcceptMaterialNode( this );
AcceptChildren( Traverser );
Traverser->PostAcceptMaterialNode( this );
Traverser->PostAcceptSceneNode( this );
}
几何节点更为复杂。这是因为clVertexAttribs中的 API 独立几何数据表示应该被输入到clGLVertexArray的实例中:
class clGeometryNode: public clSceneNode
{
public:
clGeometryNode() {};
clPtr<clVertexAttribs> GetVertexAttribs() const
{ return m_VertexAttribs; }
void SetVertexAttribs( const clPtr<clVertexAttribs>& VA )
{ m_VertexAttribs = VA; }
这里,我们以懒惰的方式将几何数据输入到 OpenGL 中:
clPtr<clGLVertexArray> GetVA() const
{
if ( !m_VA )
{
m_VA = make_intrusive<clGLVertexArray>();
m_VA->SetVertexAttribs( m_VertexAttribs );
}
return m_VA;
}
virtual void AcceptTraverser(iSceneTraverser* Traverser) override;
private:
clPtr<clVertexAttribs> m_VertexAttribs;
mutable clPtr<clGLVertexArray> m_VA;
};
AcceptTraverser()的实现与clMaterialNode内部的实现非常相似。只需查看捆绑的源代码即可。
如你所见,这一大堆场景节点类只不过是一个简单的数据容器。实际操作在遍历器类中发生。iSceneTraverser的第一个实现是clTransformUpdateTraverser类,它更新每个场景节点的全局变换——即相对于图根的变换:
class clTransformUpdateTraverser: public iSceneTraverser
{
private:
std::vector<mat4> m_ModelView;
私有字段m_ModelView包含一个作为std::vector实现的矩阵栈。这个栈的顶部元素是节点的当前全局变换。Reset()方法清除栈,并在栈上推入单位矩阵,这后来用作根场景节点的全局变换:
public:
clTransformUpdateTraverser(): m_ModelView() {}
virtual void Reset() override
{
m_ModelView.clear();
m_ModelView.push_back( mat4::Identity() );
}
PreAcceptSceneNode() 方法将当前全局变换的新值推送到m_ModelView栈上,然后将其作为传入节点的全局变换使用:
protected:
virtual void PreAcceptSceneNode( clSceneNode* Node ) override
{
m_ModelView.push_back( Node->GetLocalTransform() * m_ModelView.back() );
Node->SetGlobalTransform( m_ModelView.back() );
}
PostAcceptSceneNode() 方法从栈中弹出最顶层的、现在未使用的矩阵:
virtual void PostAcceptSceneNode( clSceneNode* Node ) override
{
m_ModelView.pop_back();
}
};
这个遍历器在每一帧开始时使用,在渲染任何几何体之前:
clTransformUpdateTraverser g_TransformUpdateTraverser;
clPtr<clSceneNode> g_Scene;
g_TransformUpdateTraverser.Traverse( g_Scene );
我们现在几乎准备好进行实际渲染了。为此,我们需要将场景图线性化为渲染操作的向量。让我们看看ROP.h文件。每个渲染操作都是独立的几何体、材质和一系列变换矩阵。所需的矩阵存储在sMatrices结构中:
struct sMatrices
{
投影、视图和模型矩阵从外部状态明确设置。
mat4 m_ProjectionMatrix;
mat4 m_ViewMatrix;
mat4 m_ModelMatrix;
使用UpdateMatrices()方法更新光照和着色所需的其它矩阵:
mat4 m_ModelViewMatrix;
mat4 m_ModelViewMatrixInverse;
mat4 m_ModelViewProjectionMatrix;
mat4 m_NormalMatrix;
void UpdateMatrices()
{
m_ModelViewMatrix = m_ModelMatrix * m_ViewMatrix;
m_ModelViewMatrixInverse = m_ModelViewMatrix.GetInversed();
m_ModelViewProjectionMatrix = m_ModelViewMatrix * m_ProjectionMatrix;
m_NormalMatrix = mat4( m_ModelViewMatrixInverse.ToMatrix3().GetTransposed() );
}
};
这个结构可以根据需要轻松地扩展额外的矩阵。此外,将这个结构的值打包到统一缓冲区对象中非常方便。
现在,我们的渲染操作可以如下所示:
class clRenderOp
{
public:
clRenderOp( const clPtr<clGeometryNode>& G, const clPtr<clMaterialNode>& M):
m_Geometry(G), m_Material(M) {}
void Render( sMatrices& Matrices ) const;
clPtr<clGeometryNode> m_Geometry;
clPtr<clMaterialNode> m_Material;
};
clRenderOp::Render()的最小化实现在ROP.cpp中可以找到。那里定义了两个着色器。首先是一个通用的顶点着色器,用于将法线变换到世界空间:
static const char g_vShaderStr[] = R"(
uniform mat4 in_ModelViewProjectionMatrix;
uniform mat4 in_NormalMatrix;
uniform mat4 in_ModelMatrix;
in vec4 in_Vertex;
in vec2 in_TexCoord;
in vec3 in_Normal;
out vec2 v_Coords;
out vec3 v_Normal;
out vec3 v_WorldNormal;
void main()
{
v_Coords = in_TexCoord.xy;
v_Normal = mat3(in_NormalMatrix) * in_Normal;
v_WorldNormal = ( in_ModelMatrix * vec4( in_Normal, 0.0 ) ).xyz;
gl_Position = in_ModelViewProjectionMatrix * in_Vertex;
}
)";
然后,一个片段着色器使用单个方向光源进行简单的逐像素光照,该光源指向与相机相同的方向:
static const char g_fShaderStr[] = R"(
in vec2 v_Coords;
in vec3 v_Normal;
in vec3 v_WorldNormal;
out vec4 out_FragColor;
uniform vec4 u_AmbientColor;
uniform vec4 u_DiffuseColor;
void main()
{
vec4 Ka = u_AmbientColor;
vec4 Kd = u_DiffuseColor;
相机是静态定位的,光照在世界空间中进行:
vec3 L = normalize( vec3( 0.0, 0.0, 1.0 ) );
float d = clamp( dot( L, normalize(v_WorldNormal) ), 0.0, 1.0 );
vec4 Color = Ka + Kd * d;
out_FragColor = Color;
}
)";
静态全局变量保存了使用前述代码中提到的着色器链接的着色器程序:
clPtr<clGLSLShaderProgram> g_ShaderProgram;
实际的渲染代码更新所有矩阵,设置着色器程序的参数并渲染几何体:
void clRenderOp::Render( sMatrices& Matrices ) const
{
if ( !g_ShaderProgram )
{
g_ShaderProgram = make_intrusive<clGLSLShaderProgram>( g_vShaderStr, g_fShaderStr );
}
Matrices.m_ModelMatrix = this->m_Geometry->GetGlobalTransformConst();
Matrices.UpdateMatrices();
一旦渲染操作和统一变量的数量增加,以下代码段将成为瓶颈。它可以通过预缓存统一位置来进行优化:
g_ShaderProgram->Bind();
g_ShaderProgram->SetUniformNameVec4Array( "u_AmbientColor", 1, this->m_Material->GetMaterial().m_Ambient );
g_ShaderProgram->SetUniformNameVec4Array( "u_DiffuseColor", 1, this->m_Material->GetMaterial().m_Diffuse );
g_ShaderProgram->SetUniformNameMat4Array( in_ProjectionMatrix", 1, Matrices.m_ProjectionMatrix );
g_ShaderProgram->SetUniformNameMat4Array( "in_ViewMatrix", 1, Matrices.m_ViewMatrix );
g_ShaderProgram->SetUniformNameMat4Array( "in_ModelMatrix", 1, Matrices.m_ModelMatrix );
g_ShaderProgram->SetUniformNameMat4Array( "in_NormalMatrix", 1, Matrices.m_NormalMatrix );
g_ShaderProgram->SetUniformNameMat4Array( "in_ModelViewMatrix", 1, Matrices.m_ModelViewMatrix );
g_ShaderProgram->SetUniformNameMat4Array( "in_ModelViewProjectionMatrix", 1, Matrices.m_ModelViewProjectionMatrix );
this->m_Geometry->GetVA()->Draw( false );
}
让我们将场景图转换为渲染操作的向量,这样我们就可以看到实际渲染的图像。这是由clROPsTraverser类完成的:
class clROPsTraverser: public iSceneTraverser
{
private:
std::vector<clRenderOp> m_RenderQueue;
std::vector<clMaterialNode*> m_Materials;
public:
clROPsTraverser()
: m_RenderQueue()
, m_Materials() {}
在构建新的渲染操作队列之前清除所有内容:
virtual void Reset() override
{
m_RenderQueue.clear();
m_Materials.clear();
}
返回对最近构造的队列的引用:
virtual const std::vector<clRenderOp>& GetRenderQueue() const
{
return m_RenderQueue;
}
现在,我们实现了iSceneTraverser接口。这里的大多数方法将是空的:
protected:
virtual void PreAcceptSceneNode( clSceneNode* Node ) override
{
}
virtual void PostAcceptSceneNode( clSceneNode* Node ) override
{
}
当下一个几何节点进入时,使用材质堆栈中最顶层的材质并创建一个新的渲染操作:
virtual void PreAcceptGeometryNode( clGeometryNode* Node ) override
{
if ( !m_Materials.size() ) return;
m_RenderQueue.emplace_back( Node, m_Materials.front() );
}
virtual void PostAcceptGeometryNode( clGeometryNode* Node ) override
{
}
每当有clMaterialNode进入时,都会更新材质堆栈:
virtual void PreAcceptMaterialNode( clMaterialNode* Node ) override
{
m_Materials.push_back( Node );
}
virtual void PostAcceptMaterialNode( clMaterialNode* Node ) override
{
m_Materials.pop_back();
}
};
最后,这个框架现在可以用来渲染实际的 3D 图形。示例场景在1_SceneGraphRenderer/main.cpp中创建。首先,创建我们场景的根节点:
g_Scene = make_intrusive<clSceneNode>();
创建一个红色材质并将其绑定到材质场景节点:
auto MaterialNode = make_intrusive<clMaterialNode>();
sMaterial Material;
Material.m_Ambient = vec4( 0.1f, 0.0f, 0.0f, 1.0f );
Material.m_Diffuse = vec4( 0.9f, 0.0f, 0.0f, 1.0f );
MaterialNode->SetMaterial( Material );
让我们创建一个以原点为中心的立方体:
auto VA = clGeomServ::CreateAxisAlignedBox( vec3(-1), vec3(+1) );
g_Box= make_intrusive<clGeometryNode>();
g_Box->SetVertexAttribs( VA );
MaterialNode->Add( g_Box );
并将其添加到场景中:
g_Scene->Add( MaterialNode );
渲染直接且非常通用:
void OnDrawFrame()
{
static float Angle = 0.0f;
绕其对角线旋转立方体:
g_Box->SetLocalTransform( mat4::GetRotateMatrixAxis( Angle, vec3( 1, 1, 1 ) ) );
Angle += 0.01f;
更新节点的全局变换并构建一个渲染队列:
g_TransformUpdateTraverser.Traverse( g_Scene );
g_ROPsTraverser.Traverse( g_Scene );
const auto& RenderQueue = g_ROPsTraverser.GetRenderQueue();
设置矩阵。摄像机目前只提供了一个虚拟实现,它返回一个单位视图矩阵:
sMatrices Matrices;
Matrices.m_ProjectionMatrix = Math::Perspective( 45.0f, g_Window->GetAspect(), 0.4f, 2000.0f );
Matrices.m_ViewMatrix = g_Camera.GetViewMatrix();
在渲染帧之前清除屏幕:
LGL3->glClear( GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT );
LGL3->glEnable( GL_DEPTH_TEST );
遍历渲染队列并渲染所有内容:
for ( const auto& ROP : RenderQueue )
{
ROP.Render( Matrices );
}
}
最终的图像将如下面的截图所示:
让我们扩展场景图渲染示例,加入灯光和阴影,并确保在 Android 上一切正常工作。
灯光和着色
为了渲染灯光和阴影,我们需要扩展前文展示的方法。接下来我们要讨论的代码示例是2_ShadowMaps。阴影映射将使用投影阴影映射(en.wikipedia.org/wiki/Shadow_mapping)。这样,场景从光线的视角渲染到一个离屏深度缓冲区。接下来,像往常一样渲染场景,并将每个片段投影到光的阴影映射上,并将与光相关的深度值与构建的阴影映射中的值进行比较。如果深度值大于阴影映射中相应的深度值,则片段处于阴影中。要进行离屏渲染,我们需要回顾第六章中引入的OpenGL ES 3.1 与跨平台渲染,并为其添加一个帧缓冲区抽象。
clGLFrameBuffer类在GLFrameBuffer.h中声明:
class clGLFrameBuffer: public iIntrusiveCounter
{
public:
clGLFrameBuffer():
FFrameBuffer(0),
FColorBuffer(),
FDepthBuffer(),
FColorBuffersParams(),
FHasDepthBuffer( false )
{}
virtual ~clGLFrameBuffer();
InitRenderTargetV()方法接受一个包含宽度、高度和每个通道位数整数值的向量:
virtual void InitRenderTargetV( const ivec4& WidthHeightBitsPerChannel, const bool HasDepthBuffer );
此方法提供了对私有数据成员的访问,这些成员包括宽度、高度和每个通道的位数,它们被传递到InitRenderTargetV()中:
virtual ivec4 GetParameters() const
{
return FColorBuffersParams;
}
帧缓冲区最重要的能力是能够将其内容作为纹理提供——一个颜色纹理和一个深度纹理:
virtual clPtr<clGLTexture> GetColorTexture() const
{
return FColorBuffer;
}
virtual clPtr<clGLTexture> GetDepthTexture() const
{
return FDepthBuffer;
}
Bind()方法将此帧缓冲区设置为当前的 OpenGL 帧缓冲区:
virtual void Bind( int TargetIndex ) const;
virtual void UnBind() const;
受保护的CheckFrameBuffer()方法用于根据 OpenGL 规范检查帧缓冲区的完整性:
protected:
void CheckFrameBuffer() const;
类的私有部分包含一个 OpenGL 缓冲区标识符,分别用于颜色和深度纹理的两个clGLTexture对象,以及包含帧缓冲区参数的两个字段:
private:
GLuint FFrameBuffer;
clPtr<clGLTexture> FColorBuffer;
clPtr<clGLTexture> FDepthBuffer;
ivec4 FColorBuffersParams;
bool FHasDepthBuffer;
};
对于 Android 和其他平台正确构建帧缓冲区需要一些工作和仔细选择参数。让我们看看InitRenderTargetV()成员函数的实现:
void clGLFrameBuffer::InitRenderTargetV( const ivec4& WidthHeightBitsPerChannel, const bool HasDepthBuffer )
{
首先,我们在私有数据成员中存储帧缓冲区的参数。这些值稍后用于视口宽高比计算:
FColorBuffersParams = WidthHeightBitsPerChannel;
FHasDepthBuffer = HasDepthBuffer;
接下来,我们将调用 OpenGL 函数创建帧缓冲区对象:
LGL3->glGenFramebuffers( 1, &FFrameBuffer );
创建帧缓冲区对象后,我们可以将其绑定为当前帧缓冲区以设置其属性:
Bind( 0 );
创建并附加一个颜色纹理到帧缓冲区:
FColorBuffer = make_intrusive<clGLTexture>();
int Width = FColorBuffersParams[0];
int Height = FColorBuffersParams[1];
这里 Android 和桌面实现之间的唯一区别在于缓冲数据格式的选择。OpenGL 4 Core Profile 要求显式指定内部格式和深度格式的位数,而 OpenGL ES 3 则分别希望通用的GL_RGBA和GL_DEPTH_COMPONENT。我们以平台特定的方式声明两个常量:
#if defined( OS_ANDROID )
const Lenum InternalFormat = GL_RGBA;
auto DepthFormat = GL_DEPTH_COMPONENT;
#else
const Lenum InternalFormat = GL_RGBA8;
auto DepthFormat = GL_DEPTH_COMPONENT24;
#endif
我们将调用clGLTexture的SetFormat()方法来设置颜色纹理的格式:
FColorBuffer->SetFormat( GL_TEXTURE_2D, InternalFormat, GL_RGBA, Width, Height );
AttachToCurrentFB()方法将创建的颜色纹理附加到当前绑定的帧缓冲区。GL_COLOR_ATTACHMENT0的值指定了一个 OpenGL 附着点:
FColorBuffer->AttachToCurrentFB( GL_COLOR_ATTACHMENT0 );
阴影图包含深度缓冲区的值,因此我们按需以下列方式创建深度纹理:
if ( HasDepthBuffer )
{
FDepthBuffer = make_intrusive<clGLTexture>();
深度缓冲区应与颜色缓冲区具有相同的尺寸:
int Width = FColorBuffersParams[0];
int Height = FColorBuffersParams[1];
深度缓冲区的设置与颜色缓冲区类似:
FDepthBuffer->SetFormat( GL_TEXTURE_2D, DepthFormat, GL_DEPTH_COMPONENT, Width, Height );
FDepthBuffer->AttachToCurrentFB( GL_DEPTH_ATTACHMENT );
}
为了确保正确操作,我们将检查错误代码并解绑缓冲区:
CheckFrameBuffer();
UnBind();
}
CheckFrameBuffer()成员函数使用 OpenGL 调用来检查当前帧缓冲区的状态:
void clGLFrameBuffer::CheckFrameBuffer() const
{
Bind( 0 );
GLenum FBStatus = LGL3->glCheckFramebufferStatus( GL_FRAMEBUFFER );
将错误代码转换为字符串并将其打印到系统日志中:
switch ( FBStatus )
{
case GL_FRAMEBUFFER_COMPLETE: // Everything's OK
break;
case GL_FRAMEBUFFER_INCOMPLETE_ATTACHMENT:
LOGI( "GL_FRAMEBUFFER_INCOMPLETE_ATTACHMENT" );
break;
case GL_FRAMEBUFFER_INCOMPLETE_MISSING_ATTACHMENT:
LOGI("GL_FRAMEBUFFER_INCOMPLETE_MISSING_ATTACHMENT" );
break;
OpenGL ES 缺少 OpenGL 的一些功能。这里,我们省略它们以使代码可移植:
#if !defined(OS_ANDROID)
case GL_FRAMEBUFFER_INCOMPLETE_DRAW_BUFFER:
LOGI( "GL_FRAMEBUFFER_INCOMPLETE_DRAW_BUFFER" );
break;
case GL_FRAMEBUFFER_INCOMPLETE_READ_BUFFER:
LOGI( "GL_FRAMEBUFFER_INCOMPLETE_READ_BUFFER" );
break;
#endif
case GL_FRAMEBUFFER_UNSUPPORTED:
LOGI( "GL_FRAMEBUFFER_UNSUPPORTED" );
break;
default:
LOGI( "Unknown framebuffer error: %x", FBStatus );
}
默认情况下,不打印任何内容:
UnBind();
}
让我们继续前进,以便我们可以使用这个类。
光照和光照节点
将光源表示为 3D 场景的一部分非常方便。当我们提到“3D 场景”时,我们指的是场景图。为了将光源附加到场景图,我们需要一个特殊的节点。以下是持有指向具有所有光照属性的iLight的clLightNode类:
class clLightNode: public clSceneNode
{
public:
clLightNode() {}
clPtr<iLight> GetLight() const
{
return m_Light;
}
void SetLight( const clPtr<iLight>& L )
{
m_Light = L;
}
virtual void AcceptTraverser( iSceneTraverser* Traverser )
override;
clPtr<iLight> m_Light;
};
AcceptTraverser()方法与clGeometryNode和clMaterialNode中的方法类似。但这次,我们将调用iSceneTraverser的PreAcceptLightNode()和PostAcceptLightNode()方法:
void clLightNode::AcceptTraverser( iSceneTraverser* Traverser )
{
Traverser->PreAcceptSceneNode( this );
Traverser->PreAcceptLightNode( this );
AcceptChildren( Traverser );
Traverser->PostAcceptLightNode( this );
Traverser->PostAcceptSceneNode( this );
}
这种新的场景节点类型迫使我们扩展iSceneTraverser的接口:
protected:
friend class clLightNode;
virtual void PreAcceptLightNode( clLightNode* Node ) {}
virtual void PostAcceptLightNode( clLightNode* Node ) {}
现在遍历器可以以特殊方式处理光照节点。我们将利用这一能力在每帧基础上维护场景中的活动光照列表。
iLight类封装了光参数。它计算了光源所需的投影和视图矩阵,将它们传递给着色器程序并持有一个阴影贴图。我们应该注意到,为可能未使用的光源保持一个初始化的阴影贴图肯定不是最优的。在我们这个最小化的示例中,最少可以做到将阴影贴图的创建推迟到真正需要的时候。在我们的示例中,我们只处理聚光灯。然而,这种方法可以很容易地扩展到方向光和点光源:
class iLight: public iIntrusiveCounter
{
public:
iLight():
m_Ambient(0.2f),
m_Diffuse(0.8f),
m_Position(0),
m_Direction(0.0f, 0.0f, 1.0f),
如果你想要实现多种类型的光源,建议将这个字段推送到表示聚光灯的类中。由于我们的示例只有单一类型的光源,在这里放置这个值是合理的折中:
m_SpotOuterAngle(45.0f)
{}
UpdateROPUniforms()方法更新了阴影贴图渲染所需的着色器程序中的所有 uniform。在完成iLight之后,将详细描述clMaterialSystem类:
void UpdateROPUniforms( const std::vector<clRenderOp>& ROPs, const clPtr<clMaterialSystem>& MatSys, const clPtr<clLightNode>& LightNode ) const;
为了从光的角度渲染场景,我们需要计算两个矩阵。第一个是标准的look-at矩阵,定义了光的视图矩阵;第二个是透视投影矩阵,定义了光的截锥体:
mat4 GetViewForShadowMap() const
{
return Math::LookAt( m_Position, m_Position + m_Direction, vec3( 0, 0, 1 ) );
}
mat4 GetProjectionForShadowMap() const
{
float NearCP = 0.1f;
float FarCP = 1000.0f;
return Math::Perspective( 2.0f * this->m_SpotOuterAngle, 1.0f, NearCP, FarCP );
}
GetShadowMap()函数返回一个延迟初始化的阴影贴图缓冲区,该缓冲区附加到此光源:
clPtr<clGLFrameBuffer> iLight::GetShadowMap() const
{
if ( !m_ShadowMap )
{
m_ShadowMap = make_intrusive<clGLFrameBuffer>();
m_ShadowMap->InitRenderTargetV(
{ ivec4(1024, 1024, 8, 0) },
true
);
}
return m_ShadowMap;
}
光源的性质包括在简单光照模型中使用的漫反射和环境颜色,用于视图矩阵计算的位置和方向,以及聚光灯锥角:
public:
vec4 m_Ambient;
vec4 m_Diffuse;
vec3 m_Position;
vec3 m_Direction;
float m_SpotOuterAngle;
最后,我们声明一个持有阴影贴图的帧缓冲区:
mutable clPtr<clGLFrameBuffer> m_ShadowMap;
};
让我们看看着色器程序的 uniform 是如何更新的。这发生在UpdateROPUniforms()中,该函数在每个渲染操作之前对每个阴影贴图进行渲染时被调用:
void iLight::UpdateROPUniforms( const std::vector<clRenderOp>& ROPs, const clPtr<clMaterialSystem>& MatSys, const clPtr<clLightNode>& LightNode ) const
{
mat4 LightMV = this->GetViewForShadowMap();
mat4 LightProj = GetProjectionForShadowMap();
mat4 Mtx = LightNode->GetGlobalTransformConst();
vec3 Pos = ( Mtx * vec4( this->m_Position, 1.0f ) ).XYZ();
vec3 Dir = ( Mtx * vec4( this->m_Direction, 0.0f ) ).XYZ();
auto AmbientSP = MatSys->GetShaderProgramForPass( ePass_Ambient );
AmbientSP->Bind();
AmbientSP->SetUniformNameVec3Array( "u_LightPos", 1, Pos );
AmbientSP->SetUniformNameVec3Array( "u_LightDir", 1, Dir );
auto LightSP = MatSys->GetShaderProgramForPass( ePass_Light );
LightSP->Bind();
LightSP->SetUniformNameVec3Array( "u_LightPos", 1, Pos );
LightSP->SetUniformNameVec3Array( "u_LightDir", 1, Dir );
LightSP->SetUniformNameVec4Array( "u_LightDiffuse", 1, this->m_Diffuse );
mat4 ScaleBias = GetProjScaleBiasMat();
mat4 ShadowMatrix = ( Mtx * LightMV * LightProj ) * ScaleBias;
LightSP->SetUniformNameMat4Array( "in_ShadowMatrix", 1, ShadowMatrix );
this->GetShadowMap()->GetDepthTexture()->Bind( 0 );
}
GetProjScaleBiasMat()辅助例程返回一个缩放矩阵,该矩阵将[-1..1]标准化设备坐标映射到[0..1]范围:
mat4 GetProjScaleBiasMat()
{
return mat4( 0.5f, 0.0f, 0.0f, 0.0f, 0.0f, 0.5f, 0.0f, 0.0f, 0.0f, 0.0f, 0.5f, 0.0f, 0.5f, 0.5f, 0.5f, 1.0 );
}
在这段代码中提到的clMaterialSystem类需要一些额外的解释。
材质系统
在我们之前的示例1_SceneGraphRenderer中,我们使用单个着色器程序来渲染场景中的所有对象。现在,我们的渲染器将变为多通道。我们需要创建阴影贴图,然后渲染带阴影的对象并计算光照。这是通过在三个不同的渲染通道中使用三个不同的着色器程序完成的。为了区分通道,我们定义了ePass枚举如下:
enum ePass
{
ePass_Ambient,
ePass_Light,
ePass_Shadow
};
为了基于通道和材质属性处理不同的着色器程序,我们实现了clMaterialSystem类:
class clMaterialSystem: public iIntrusiveCounter
{
public:
clMaterialSystem();
GetShaderProgramForPass()方法返回指定通道在std::map中存储的着色器程序:
clPtr<clGLSLShaderProgram> GetShaderProgramForPass(ePass P)
{
return m_ShaderPrograms[ P ];
}
private:
std::map<ePass, clPtr<clGLSLShaderProgram>> m_ShaderPrograms;
};
这个类的构造函数创建了渲染所需的每个着色器程序,并将其插入到映射中:
clMaterialSystem::clMaterialSystem()
{
m_ShaderPrograms[ ePass_Ambient ] = make_intrusive<clGLSLShaderProgram>( g_vShaderStr, g_fShaderAmbientStr );
m_ShaderPrograms[ ePass_Light ] = make_intrusive<clGLSLShaderProgram>( g_vShaderStr, g_fShaderLightStr );
m_ShaderPrograms[ ePass_Shadow ] = make_intrusive<clGLSLShaderProgram>( g_vShaderShadowStr, g_fShaderShadowStr );
}
注意
在此示例中,映射可以用一个简单的 C 风格数组替换。但是,稍后我们将使用不同材质类型和不同的着色器程序,所以使用映射会更合适。
与之前的示例一样,每个着色器的源代码存储在一个静态字符串变量中。这次,代码有点复杂。顶点着色器源代码在环境传递和每个光线传递之间共享:
static const char g_vShaderStr[] = R"(
uniform mat4 in_ModelViewProjectionMatrix;
uniform mat4 in_NormalMatrix;
uniform mat4 in_ModelMatrix;
uniform mat4 in_ShadowMatrix;
in vec4 in_Vertex;
in vec2 in_TexCoord;
in vec3 in_Normal;
out vec2 v_Coords;
out vec3 v_Normal;
out vec3 v_WorldNormal;
out vec4 v_ProjectedVertex;
out vec4 v_ShadowMapCoord;
同一个函数在 C++代码中被用来将值从[-1..1]范围转换到[0..1]范围:
mat4 GetProjScaleBiasMat()
{
return mat4(
0.5, 0.0, 0.0, 0.0,
0.0, 0.5, 0.0, 0.0,
0.0, 0.0, 0.5, 0.0,
0.5, 0.5, 0.5, 1.0 );
}
值传递给后续的片段着色器:
void main()
{
v_Coords = in_TexCoord.xy;
v_Normal = mat3(in_NormalMatrix) * in_Normal;
v_WorldNormal = ( in_ModelMatrix * vec4( in_Normal, 0.0 ) ).xyz;
v_ProjectedVertex = GetProjScaleBiasMat() * in_ModelViewProjectionMatrix * in_Vertex;
v_ShadowMapCoord = in_ShadowMatrix * in_ModelMatrix * in_Vertex;
gl_Position = in_ModelViewProjectionMatrix * in_Vertex;
}
)";
这是环境传递的片段着色器。只需将环境色输出到帧缓冲区,我们就完成了:
static const char g_fShaderAmbientStr[] = R"(
in vec2 v_Coords;
in vec3 v_Normal;
in vec3 v_WorldNormal;
out vec4 out_FragColor;
uniform vec4 u_AmbientColor;
uniform vec4 u_DiffuseColor;
void main()
{
out_FragColor = u_AmbientColor;
}
)";
每个光线传递的片段着色器根据光线的参数和阴影映射计算实际的光照和着色。这就是为什么它比我们之前的着色器要长得多:
static const char g_fShaderLightStr[] = R"(
in vec2 v_Coords;
in vec3 v_Normal;
in vec3 v_WorldNormal;
in vec4 v_ProjectedVertex;
in vec4 v_ShadowMapCoord;
out vec4 out_FragColor;
uniform vec4 u_AmbientColor;
uniform vec4 u_DiffuseColor;
uniform vec3 u_LightPos;
uniform vec3 u_LightDir;
uniform vec4 u_LightDiffuse;
uniform sampler2D Texture0;
阴影是使用称为百分比接近过滤的技术计算得出的。如果我们使用简单的阴影映射方法,得到的阴影将有很多锯齿。百分比接近过滤(PCF)的理念是在当前像素周围的阴影映射中进行采样,并将其深度与所有样本进行比较。通过平均比较的结果(而不是采样的结果),我们可以得到光与影之间更平滑的边缘。我们的示例使用了带有 26 个抽头的 5 X 5 PCF 滤波器:
float PCF5x5( const vec2 ShadowCoord, float Depth )
{
float Size = 1.0 / float( textureSize( Texture0, 0 ).x );
float Shadow =( Depth >= texture( Texture0, ShadowCoord ).r ) ? 1.0 : 0.0;
for ( int v=-2; v<=2; v++ ) for ( int u=-2; u<=2; u++ )
{
Shadow += ( Depth >= texture( Texture0, ShadowCoord + Size * vec2(u, v) ).r ) ? 1.0 : 0.0;
}
return Shadow / 26.0;
}
这是评估给定片段是否在阴影中的函数:
float ComputeSpotLightShadow()
{
进行透视除法,将阴影映射投影到物体上:
vec4 ShadowCoords4 = v_ShadowMapCoord / v_ShadowMapCoord.w;
if ( ShadowCoords4.w > 0.0 )
{
vec2 ShadowCoord = vec2( ShadowCoords4 );
float DepthBias = -0.0002;
float ShadowSample = 1.0 - PCF5x5( ShadowCoord, ShadowCoords4.z + DepthBias );
DepthBias系数用于防止阴影痘痘。以下是同一场景的两次渲染,一次是零DepthBias(左),一次是-0.0002(右):
通常,这需要手动调整,并应该是光线参数的一部分。查看以下链接,了解更多关于如何改善阴影的想法:
msdn.microsoft.com/en-us/library/windows/desktop/ee416324(v=vs.85).aspx。
现在,乘以系数并返回结果值:
float ShadowCoef = 0.3;
return ShadowSample * ShadowCoef;
}
return 1.0;
}
现在,我们可以根据实际的光线方向及其阴影映射计算一个简单的光照模型:
void main()
{
vec4 Kd = u_DiffuseColor * u_LightDiffuse;
vec3 L = normalize( u_LightDir );
vec3 N = normalize( v_WorldNormal );
float d = clamp( dot( -L, N ), 0.0, 1.0 );
vec4 Color = Kd * d * ComputeSpotLightShadow();
Color.w = 1.0;
out_FragColor = Color;
}
)";
要构建上一个着色器中使用的阴影映射,我们需要一个额外的渲染传递。对于每个光线,使用以下顶点和片段着色器:
static const char g_vShaderShadowStr[] = R"(
uniform mat4 in_ModelViewProjectionMatrix;
in vec4 in_Vertex;
void main()
{
gl_Position = in_ModelViewProjectionMatrix * in_Vertex;
}
)";
static const char g_fShaderShadowStr[] = R"(
out vec4 out_FragColor;
void main()
{
out_FragColor = vec4( 1, 1, 1, 1 );
}
)";
现在我们可以渲染一个更美观的图像,包含所有阴影和更精确的光照。让我们看看2_ShadowMaps/main.cpp文件。
演示应用程序和渲染技术
新代码最重要的部分在OnDrawFrame()方法中。它使用clForwardRenderingTechnique类来渲染场景。让我们看看Technique.cpp文件。
辅助函数RenderROPs()用于渲染渲染操作的向量:
void RenderROPs( sMatrices& Matrices, const std::vector<clRenderOp>& RenderQueue, ePass Pass )
{
for ( const auto& ROP : RenderQueue )
{
ROP.Render( Matrices, g_MatSys, Pass );
}
}
现在,所有传递都可以用这个函数来描述。看看clForwardRenderingTechnique::Render()函数。首先,让我们构建两个渲染队列,一个用于不透明物体,一个用于透明物体。透明物体是指其材质类别为字符串Particle的物体。我们将在下一章中使用透明物体:
m_TransformUpdateTraverser.Traverse( Root );
m_ROPsTraverser.Traverse( Root );
const auto& RenderQueue = m_ROPsTraverser.GetRenderQueue();
auto RenderQueue_Opaque = Select( RenderQueue, []( const clRenderOp& ROP )
{
return ROP.m_Material->GetMaterial().m_MaterialClass != "Particle";
} );
auto RenderQueue_Transparent = Select( RenderQueue, []( const clRenderOp& ROP )
{
return ROP.m_Material->GetMaterial().m_MaterialClass == "Particle";
}
);
为着色器准备矩阵并清除 OpenGL 缓冲区:
sMatrices Matrices;
Matrices.m_ProjectionMatrix = Proj;
Matrices.m_ViewMatrix = View;
Matrices.UpdateMatrices();
LGL3->glClearColor( 0.0f, 0.0f, 0.0f, 0.0f );
LGL3->glClear( GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT );
LGL3->glEnable( GL_DEPTH_TEST );
现在,使用它们的环境色渲染所有对象。这就是全部内容,环境传递不需要任何光照。作为副产品,我们将得到一个充满值的 Z 缓冲区,因此在后续传递中我们可以禁用深度写入:
LGL3->glDepthFunc( GL_LEQUAL );
LGL3->glDisablei( GL_BLEND, 0 );
RenderROPs( Matrices, RenderQueue_Opaque, ePass_Ambient, MatSys );
对于后续的每个光照传递过程,我们需要从场景中获取一个光照向量。从遍历器中获取它,并更新所有的阴影贴图:
auto Lights = g_ROPsTraverser.GetLights();
UpdateShadowMaps( Lights, RenderQueue );
UpdateShadowMaps()函数遍历光照节点向量,并将阴影投射器渲染到相应的阴影贴图中:
void UpdateShadowMaps( const std::vector<clLightNode*>& Lights, const std::vector<clRenderOp>& ROPs )
{
LGL3->glDisable( GL_BLEND );
for ( size_t i = 0; i != Lights.size(); i++ )
{
sMatrices ShadowMatrices;
clPtr<iLight> L = Lights[ i ]->GetLight();
clPtr<clGLFrameBuffer> ShadowBuffer = L->GetShadowMap();
绑定并清除阴影贴图帧缓冲区:
ShadowBuffer->Bind( 0 );
LGL3->glClearColor( 0, 0, 0, 1 );
LGL3->glClear( GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT );
光源知道其投影和视图矩阵。这段代码相当通用,可以扩展用于包括具有多个视锥体的光源在内的光类型:
LMatrix4 Proj = L->GetProjectionForShadowMap();
LMatrix4 MV = L->GetViewForShadowMap();
在着色器程序中更新 uniform 变量:
ShadowMatrices.m_ViewMatrix = MV;
ShadowMatrices.m_ProjectionMatrix = Proj;
ShadowMatrices.UpdateMatrices();
L->UpdateROPUniforms( ROPs, g_MatSys, Lights[i] );
渲染到阴影贴图并解绑帧缓冲区:
RenderROPs( ShadowMatrices, ROPs, ePass_Shadow );
ShadowBuffer->UnBind();
}
}
所有的阴影贴图现在都准备好在渲染代码中使用。让我们继续OnDrawFrame()函数。每个光照传递会累积所有光源的光照,如下所示:
LGL3->glDepthFunc( GL_EQUAL );
LGL3->glBlendFunc( GL_ONE, GL_ONE );
LGL3->glEnablei( GL_BLEND, 0 );
for ( const auto& L : Lights )
{
L->GetLight()->UpdateROPUniforms( RenderQueue, MatSys, L );
RenderROPs( Matrices, RenderQueue, ePass_Light, MatSys );
}
最后但同样重要的是,为透明对象渲染环境光照:
LGL3->glBlendFunc(GL_SRC_ALPHA, GL_ONE);
LGL3->glDepthFunc(GL_LESS);
LGL3->glEnablei(GL_BLEND, 0);
LGL3->glDepthMask( GL_FALSE );
RenderROPs( Matrices, RenderQueue_Transparent, ePass_Ambient, MatSys );
不要忘记重置 OpenGL 状态。扩展渲染器的一个好主意是将深度测试、深度掩码、混合模式等状态封装到管道状态对象中,并且只在状态改变时更新管道状态。如果您想将示例扩展到完整的渲染代码,这个改进是必须的:
LGL3->glDepthMask( GL_TRUE );
我们已经涵盖了所有低级渲染代码。让我们提高一个层次,看看如何构建一个场景。
场景构建
我们的测试场景在main()中构建,过程如下所示。首先实例化全局对象:
g_MatSys = make_intrusive<clMaterialSystem>();
g_Scene = make_intrusive<clSceneNode>();
g_Canvas = make_intrusive<clGLCanvas>( g_Window );
之后,设置材质和材质节点:
auto CubeMaterialNode = make_intrusive<clMaterialNode>();
{
sMaterial Material;
Material.m_Ambient = vec4( 0.2f, 0.0f, 0.0f, 1.0f );
Material.m_Diffuse = vec4( 0.8f, 0.0f, 0.0f, 1.0f );
CubeMaterialNode->SetMaterial( Material );
}
auto PlaneMaterialNode = make_intrusive<clMaterialNode>();
{
sMaterial Material;
Material.m_Ambient = vec4( 0.0f, 0.2f, 0.0f, 1.0f );
Material.m_Diffuse = vec4( 0.0f, 0.8f, 0.0f, 1.0f );
PlaneMaterialNode->SetMaterial( Material );
}
auto DeimosMaterialNode = make_intrusive<clMaterialNode>();
{
sMaterial Material;
Material.m_Ambient = vec4( 0.0f, 0.0f, 0.2f, 1.0f );
Material.m_Diffuse = vec4( 0.0f, 0.0f, 0.8f, 1.0f );
DeimosMaterialNode->SetMaterial( Material );
}
现在,我们可以使用一推箱子和一个从.obj文件加载的 Deimos([en.wikipedia.org/wiki/Deimos_(moon)](en.wikipedia.org/wiki/Deimos… 3D 模型来创建场景几何:
{
auto VA = clGeomServ::CreateAxisAlignedBox( vec3(-0.5), vec3(+0.5) );
g_Box= make_intrusive<clGeometryNode>();
g_Box->SetVertexAttribs( VA );
CubeMaterialNode->Add( g_Box );
这个函数可以在Loader_OBJ.cpp文件中找到,并解析 Wavefront OBJ 文件格式(en.wikipedia.org/wiki/Wavefront_.obj_file):
auto DeimosNode = LoadOBJSceneNode( g_FS->CreateReader( "deimos.obj" ) );
DeimosNode->SetLocalTransform( mat4::GetScaleMatrix(vec3(0.01f, 0.01f, 0.01f)) * mat4::GetTranslateMatrix(vec3(1.1f, 1.1f, 0.0f)) );
DeimosMaterialNode->Add( DeimosNode );
}
{
auto VA = clGeomServ::CreateAxisAlignedBox( vec3(-2.0f, -2.0f, -1.0f), vec3(2.0f, 2.0f, -0.95f) );
auto Geometry = make_intrusive<clGeometryNode>();
Geometry->SetVertexAttribs( VA );
PlaneMaterialNode->Add( Geometry );
}
最后但同样重要的是,我们将向场景中添加两个光源,这将产生两个不同的阴影:
{
auto Light = make_intrusive<iLight>( );
Light->m_Diffuse = vec4( 0.5f, 0.5f, 0.5f, 1.0f );
Light->m_Position = vec3( 5, 5, 5 );
Light->m_Direction = vec3( -1, -1, -1 ).GetNormalized();
Light->m_SpotOuterAngle = 21;
g_LightNode = make_intrusive<clLightNode>( );
g_LightNode->SetLight( Light );
g_Scene->Add( g_LightNode );
}
{
auto Light = make_intrusive<iLight>();
Light->m_Diffuse = vec4( 0.5f, 0.5f, 0.5f, 1.0f );
Light->m_Position = vec3( 5, -5, 5 );
Light->m_Direction = vec3( -1, 1, -1 ).GetNormalized();
Light->m_SpotOuterAngle = 20;
auto LightNode = make_intrusive<clLightNode>();
LightNode->SetLight( Light );
g_Scene->Add( LightNode );
}
将所有内容组合在一起,并进入应用程序主循环:
g_Scene->Add( CubeMaterialNode );
g_Scene->Add( PlaneMaterialNode );
g_Scene->Add( DeimosMaterialNode );
while( g_Window && g_Window->HandleInput() )
{
OnDrawFrame();
g_Window->Swap();
}
结果应用程序渲染了以下图像,包含旋转的立方体和两个光源的阴影:
演示应用程序也可以在 Android 上运行。去试试吧!
用户与 3D 场景的交互
我们希望您尝试运行了2_ShadowMaps示例。您可能已经注意到,3D 场景可以通过触摸屏上的手势或在桌面计算机上使用鼠标进行旋转。
这是使用clVirtualTrackball类完成的,它通过根据提供的触摸点计算视图矩阵来模拟虚拟轨迹球:
class clVirtualTrackball
{
public:
clVirtualTrackball():
FCurrentPoint( 0.0f ),
FPrevPoint( 0.0f ),
FStarted( false )
{
FRotation.IdentityMatrix();
FRotationDelta.IdentityMatrix();
};
获取与新的触摸点相对应的视图矩阵:
virtual LMatrix4 DragTo( LVector2 ScreenPoint, float Speed, bool KeyPressed )
{
if ( KeyPressed && !FStarted )
{
StartDragging( ScreenPoint );
FStarted = KeyPressed;
return mat4::Identity();
}
FStarted = KeyPressed;
如果我们没有触摸屏幕,返回一个单位矩阵:
if ( !KeyPressed ) return mat4::Identity();
将触摸点投影到虚拟轨迹球上,并找到当前投影点与上一个投影点之间的距离:
FCurrentPoint = ProjectOnSphere( ScreenPoint );
LVector3 Direction = FCurrentPoint - FPrevPoint;
LMatrix4 RotMatrix;
RotMatrix.IdentityMatrix();
float Shift = Direction.Length();
如果距离不为零,计算并返回一个旋转矩阵:
if ( Shift > Math::EPSILON )
{
LVector3 Axis = FPrevPoint.Cross( FCurrentPoint );
RotMatrix.RotateMatrixAxis( Shift * Speed, Axis );
}
FRotationDelta = RotMatrix;
return RotMatrix;
}
LMatrix4& GetRotationDelta()
{
return FRotationDelta;
};
获取当前矩阵:
virtual LMatrix4 GetRotationMatrix() const
{
return FRotation * FRotationDelta;
}
static clVirtualTrackball* Create()
{
return new clVirtualTrackball();
}
当用户首次触摸屏幕时,重置轨迹球的状态:
private:
virtual void StartDragging( LVector2 ScreenPoint )
{
FRotation = FRotation * FRotationDelta;
FCurrentPoint = ProjectOnSphere( ScreenPoint );
FPrevPoint = FCurrentPoint;
FRotationDelta.IdentityMatrix();
}
投影数学计算如下:
LVector3 ProjectOnSphere( LVector2 ScreenPoint )
{
LVector3 Proj;
将标准化点坐标转换为-1.0...1.0范围:
Proj.x = 2.0f * ScreenPoint.x - 1.0f;
Proj.y = -( 2.0f * ScreenPoint.y - 1.0f );
Proj.z = 0.0f;
float Length = Proj.Length();
Length = ( Length < 1.0f ) ? Length : 1.0f;
Proj.z = sqrtf( 1.001f - Length * Length );
Proj.Normalize();
return Proj;
}
LVector3 FCurrentPoint;
LVector3 FPrevPoint;
LMatrix4 FRotation;
LMatrix4 FRotationDelta;
bool FStarted;
};
该类在UpdateTrackball()函数中使用,该函数是从OnDrawFrame()中调用的:
void UpdateTrackball( float Speed )
{
g_Trackball.DragTo( g_MouseState.FPos, Speed, g_MouseState.FPressed );
}
void OnDrawFrame()
{
UpdateTrackball( 10.0f );
mat4 TrackballMtx = g_Trackball.GetRotationMatrix();
Matrices.m_ViewMatrix = TrackballMtx * g_Camera.GetViewMatrix();
}
这个类允许你在触摸屏上旋转 3D 场景,并可用于在设备上调试场景。
总结
在本章中,我们学习了如何在我们平台独立的 OpenGL 封装之上构建更高级的场景图抽象。我们可以创建带有材质和光源的场景对象,并使用光照和阴影渲染场景。在下一章中,我们将暂时离开渲染——好吧,不是完全离开——并学习如何用 C++实现游戏逻辑。
第九章:实现游戏逻辑
对本章最简短的描述只有两个字:状态机。在这里,我们将介绍一种常见的处理游戏代码与用户界面部分交互的方法。我们从 Boids 算法的实现开始,然后继续扩展我们在前几章中实现的用户界面。
鸟群
在许多游戏应用中,你通常会看到移动的对象相互碰撞、射击、相互追逐、可以被其他对象触摸或避开,或者产生类似的行为。对象的可见复杂行为通常可以分解为几个简单状态之间的相互操作。例如,在街机游戏中,敌人会随机四处漫游,直到它看到由玩家控制的角色。遭遇后,它会切换到追逐状态,在接近目标时可能会切换到射击或攻击状态。如果敌方单位感知到某些劣势,它可能会逃离玩家。追逐状态反过来不仅仅是将敌人指向玩家,同时也会避免与环境发生碰撞。每个对象在不同的状态下可能会有不同的动画或材质。让我们使用由 Craig Reynolds 发明的已确立的方法来实现追逐和漫游算法,这种方法被称为群体行为或鸟群(en.wikipedia.org/wiki/Boids)。这种方法用于创建半意识群体或某些生物智能群体的印象。在本章中,我们广泛使用状态模式(en.wikipedia.org/wiki/State_pattern)来定义复杂用户交互场景。
我们仅考虑一个二维游戏世界,并将每个对象(或群体成员)近似为一个带有速度的圆形。速度作为一个矢量,既有大小也有方向。每个对象遵循三条简单的规则来计算其期望速度(www.red3d.com/cwr/boids):
-
避障:为了避免拥挤局部群体成员而偏离。
-
凝聚:朝向局部群体成员的平均朝向。
-
对齐:朝向局部群体成员的平均位置移动。
我们实施的附加规则或行为包括到达和漫游算法,这些可以作为我们行为机制实现的基本调试工具。
第一条规则,避障,是指将速度从障碍物以及其他群体成员的方向偏离,如下图所示:
第二条规则,凝聚,是指向局部群体成员的平均朝向,如下图所示:
第三条规则,Alignment,尝试调整附近物体的计算平均速度。它以这种方式影响一群同伴,使它们很快移动方向成为共线和同向的,如下图所示:
ArriveTo规则将速度方向设置为空间中预定义的目标点或区域。通过允许目标在空间中移动,我们可以创建一些复杂的行为。
群集算法的实现
为了实现上述行为,我们将考虑以下类层次结构:
单个鸟类由clBoid类的实例表示,该实例保存了一个指向iBehaviour实例的指针。iBehavior接口包含一个单一的成员函数GetControl(),它计算作用在鸟类上的即时力。由于力的大小可能取决于鸟类的状态,我们将原始的非拥有指针传递给clBoid到GetControl()中:
class iBehaviour: public iIntrusiveCounter
{
public:
virtual vec2 GetControl( float dt, clBoid* Boid ) = 0;
};
让我们考虑一下clBoid类本身。它包含m_Pos和m_Vel字段,分别保存了鸟类的当前位置和速度。这些值是二维向量,但整个结构可以使用三组件向量扩展到 3D 逻辑:
class clBoid: public iActor
{
public:
vec2 m_Pos;
vec2 m_Vel;
m_Angle字段是鸟类的即时方向,它从m_Vel值计算而来。m_MaxVel字段包含鸟类的最大速度:
float m_Angle;
float m_MaxVel;
m_Behaviour字段保存了一个指向iBehaviour实例的指针,该实例计算所需行为的控制力:
clPtr<iBehaviour> m_Behaviour;
由于鸟类在群体中移动,并且依赖于邻近鸟类的位置和速度来调整其速度,我们保留一个非拥有的指向父clSwarm对象的指针,以避免智能指针之间的循环引用:
clSwarm* m_Swarm;
类的构造函数初始化默认值,并设置一个空的行为:
public:
clBoid():
m_Pos(), m_Vel(),
m_Angle(0.0f), m_MaxVel(1.0f),
m_Behaviour(), m_Swarm(nullptr)
{}
唯一的成员函数是Update(),它计算作用在物体上的力:
virtual void Update( float dt ) override
{
if ( m_Behaviour )
{
vec2 Force = m_Behaviour->GetControl( dt, this );
计算完力后,根据牛顿定律,a = F/m,以及欧拉积分方法(en.wikipedia.org/wiki/Euler_method)修改速度。鸟类的质量设置为常数1.0。可以自由引入可变参数,观察它如何改变群体的视觉行为:
const float Mass = 1.0f;
vec2 Accel = Force / Mass;
m_Vel += Accel * dt;
}
为了使视觉效果可信,我们将可能的最大速度限制在0…m_MaxVel区间内:
m_Vel = ClampVec2( m_Vel, m_MaxVel );
计算完速度后,更新鸟类的位置:
m_Pos += m_Vel * dt;
最后,鸟类的方向应该被评估为X轴与m_Vel向量之间的角度。这个值用于使用指向箭头在屏幕上渲染鸟类:
if ( m_Vel.SqrLength() > 0.0f )
{
m_Angle = atan2( m_Vel.y, m_Vel.x );
}
}
};
最简单的非静态行为是在突发随机脉冲影响下的随机移动。这称为漫游行为,在clWanderBehaviour类中实现。GetControl()方法计算一个在-1..+1 范围内具有两个随机分量的向量:
class clWanderBehaviour: public iBehaviour
{
public:
virtual vec2 GetControl( float dt, clBoid* Boid ) override
{
return vec2( RandomFloat() * 2.0f - 1.0f, RandomFloat() * 2.0f - 1.0f );
}
};
clGoToBehaviour类实现了鸟群另一种有用的行为。给定m_Target字段中的目标坐标,这种行为驱动可控鸟群到那个点。一旦鸟位于距离m_Target的m_TargetRadius范围内,移动就会停止:
class clGoToBehaviour: public iBehaviour
{
public:
m_Target和m_TargetRadius字段定义了目标点的位置和半径:
vec2 m_Target;
float m_TargetRadius;
m_VelGain和m_PosGain成员保存两个值,定义了当达到目标时鸟应该多快制动,以及鸟群与目标距离成比例加速的快慢:
float m_VelGain;
float m_PosGain;
构造函数设置默认值和非零增益:
clGoToBehaviour():
m_Target(),
m_TargetRadius(0.1f),
m_VelGain(0.05f),
m_PosGain(1.0f)
{}
GetControl()例程计算了鸟的位置与目标之间的差值。这个差值乘以m_PosGain,并用作控制力:
virtual vec2 GetControl( float dt, clBoid* Boid ) override
{
auto Delta = m_Target - Boid->m_Pos;
如果鸟群中的鸟位于m_TargetRadius距离内,我们将返回零作为控制力的值:
if ( Delta.Length() < m_TargetRadius )
{
return vec2();
}
注意
通过将前面的行替换为return -m_VelGain * Boid->m_Vel / dt;这行,可以实现一个视觉上有趣的制动效果。施加制动脉冲,通过减少一些分数来降低速度,从而实现速度的平滑指数衰减。在视觉上,鸟群在目标中心附近平滑地停止。
计算出的脉冲在成员函数的末尾返回:
return Delta * m_PosGain;
}
};
偏题:辅助例程
在这里,我们应该描述在控制计算中使用的几个函数。
在前面的代码中,我们使用了ClampVec2()例程,该例程计算向量V的长度,将这个长度与MaxValue进行比较,并返回相同的向量V或其长度为MaxValue的约束同轴版本:
inline vec2 ClampVec2(const vec2& V, float MaxValue)
{
float L = V.Length();
return (L > MaxValue) ? V.GetNormalized() * MaxValue : V;
}
另一组方法包括随机数生成例程。RandomFloat()方法使用 C++11 标准库在 0…1 区间内生成均匀分布的浮点值:
std::random_device rd;
std::mt19937 gen( rd() );
std::uniform_real_distribution<> dis( 0.0, 1.0 );
float RandomFloat()
{
return static_cast<float>( dis( gen ) );
}
RandomVec2Range()方法使用RandomFloat()函数两次,以返回在指定区间内具有随机分量的向量:
vec2 RandomVec2Range( const vec2& Min, const vec2& Max )
{
return Min + vec2( RandomFloat() * ( Max - Min ).x,
RandomFloat() * ( Max - Min ).y );
}
群体行为
到目前为止,我们只定义了clWanderBehaviour类。为了实现群集算法,我们需要一次性存储所有鸟的信息。这样的集合在这里称为群体。clSwarm类保存一个clBoid对象的向量,并实现了一些在鸟群控制计算中使用的例程:
class clSwarm: public iIntrusiveCounter
{
public:
std::vector< clPtr<clBoid> > m_Boids;
clSwarm() {}
为了调试和视觉演示目的,GenerateRandom()方法分配了具有随机位置和零速度的clBoid对象的数量:
void GenerateRandom( size_t N )
{
m_Boids.reserve( N );
for ( size_t i = 0; i != N; i++ )
{
m_Boids.emplace_back( make_intrusive<clBoid>() );
默认情况下,每只鸟都具有一种漫游行为:
m_Boids.back()->m_Behaviour = make_intrusive<clWanderBehaviour>();
m_Boids.back()->m_Swarm = this;
位置是随机的,并且每个坐标也在-1..+1 范围内保持:
m_Boids.back()->m_Pos = RandomVec2Range( vec2(-1, -1), vec2(1, 1) );
}
}
Update()方法遍历集合并更新每个鸟类:
void Update( float dt )
{
for ( auto& i : m_Boids )
{
i->Update( dt );
}
}
分离或避障算法使用与其他鸟类的距离总和作为控制力。clSwarm::CalculateSeparation()方法遍历鸟类集合并计算所需的和:
vec2 CalculateSeparation( clBoid* B, float SafeDistance )
{
vec2 Control;
for ( auto& i : m_Boids)
{
if ( i.GetInternalPtr() != B )
{
对于每个鸟类,除了作为参数传递的那个,我们计算位置差分:
auto Delta = i->m_Pos - B->m_Pos;
如果距离超过安全阈值,例如,如果鸟类与其他鸟类接近,我们向控制力中添加负的差分:
if ( Delta.Length() < SafeDistance )
{
Control += Delta;
}
}
}
return Control;
}
凝聚力算法中使用了类似的例程来计算邻近鸟类的平均位置:
vec2 CalculateAverageNeighboursPosition( clBoid* B )
{
int N = static_cast<int>( m_Boids.size() );
如果不止一个鸟类,我们才累加位置:
if ( N > 1 )
{
vec2 Avg(0, 0);
对鸟类列表进行遍历,我们可以得到位置的总和:
for ( auto& i : m_Boids )
{
if ( i.GetInternalPtr() != B )
{
Avg += i->m_Pos;
}
}
Avg *= 1.0f / (float)(N - 1);
return Avg;
}
在单个鸟类的情况下,我们使用它的位置。这样,凝聚力算法中的控制力将为零:
return B->m_Pos;
}
类似的过程也应用于速度:
vec2 CalculateAverageNeighboursVelocity( clBoid* B )
{
int N = (int)m_Boids.size();
if (N > 1)
{
vec2 Avg(0, 0);
for ( auto& i : m_Boids )
if ( i.GetInternalPtr() != B )
Avg += i->m_Vel;
Avg *= 1.0f / (float)(N - 1);
return Avg;
}
return B->m_Vel;
}
实用方法SetSingleBehaviour()将群体中每个鸟类的行为设置为指定值:
void SetSingleBehaviour( const clPtr<iBehaviour>& B )
{
for ( auto& i : m_Boids )
{
i->m_Behaviour = B;
}
}
};
现在我们有了clSwarm类,我们终于可以实施群聚行为了。clFlockingBehaviour使用邻近鸟类的信息,并使用经典的 Boids 算法计算控制力:
class clFlockingBehaviour : public iBehaviour
{
与往常一样,构造函数设置默认参数:
public:
clFlockingBehaviour():
m_AlignmentGain(0.1f),
m_AvoidanceGain(2.0f),
m_CohesionGain(0.1f),
m_SafeDistance(0.5f),
m_MaxValue(1.0f)
{}
m_SafeDistance字段定义了一个距离,在该距离上避障算法不作用:
float m_SafeDistance;
下一个字段包含每个群聚算法影响的权重:
float m_AvoidanceGain;
float m_AlignmentGain;
float m_CohesionGain;
virtual vec2 GetControl(float dt, clBoid* Boid) override
{
auto Swarm = Boid->m_Swarm;
第一步是分离和避障:
vec2 Sep = m_AvoidanceGain * Swarm->CalculateSeparation(Boid, m_SafeDistance);
第二步是对齐:
auto AvgPos = Swarm->CalculateAverageNeighboursPosition(Boid);
vec2 Alignment = m_AlignmentGain * (AvgPos - Boid->m_Pos);
第三步是凝聚力。转向邻居的平均位置:
auto AvgVel = Swarm->CalculateAverageNeighboursVelocity(Boid);
vec2 Cohesion = m_CohesionGain * (AvgVel - Boid->m_Vel);
最后,我们将这三个值相加,并保持力的大小在m_MaxValue以下:
return ClampVec2( Sep + Alignment + Cohesion, m_MaxValue );
}
};
我们行为系统的最后润色是一个实现行为混合的类。clMixedBehaviour类包含行为和行为相应权重因子的向量,这些权重因子表示在结果行为中使用了多少行为的控制力:
class clMixedBehaviour : public iBehaviour
{
public:
std::vector< clPtr<iBehaviour> > m_Behaviours;
std::vector<float> m_Weights;
AddBehaviour()成员函数向容器中添加一个新的权重因子和行为:
void AddBehaviour( float Weight, const clPtr<iBehaviour>& B )
{
m_Weights.push_back( Weight );
m_Behaviours.push_back( B );
}
如类名所示,GetControl()例程为包含的每个行为计算控制力,并将所有这些控制向量乘以适当的权重相加:
virtual vec2 GetControl(float dt, clBoid* Boid) override
{
vec2 Control;
for ( size_t i = 0; i < m_Behaviours.size(); i++)
{
Control += m_Weights[i] * m_Behaviours[i]->GetControl(dt, Boid);
}
return Control;
}
};
如我们所见,clFlockingBehaviour类可以分解为避障、凝聚力和分离部分。我们决定不使书籍结构复杂化,并将群聚行为实现为单个类。请随意实验和混合这些子行为。
渲染群体模拟。
为了使用开发好的群体模拟系统,我们需要渲染单个鸟类。由于我们已经有了 OpenGL 3D 场景图渲染系统,我们用三角形网格表示每个鸟类,并为它们创建场景节点。让我们这样做:
class clSwarmRenderer
{
private:
m_Root字段中的单个clSceneNode对象作为整个群体的根场景节点:
clPtr<clSceneNode> m_Root;
保留指向 clSwarm 对象的指针,以将鸟群位置和角度与场景节点变换同步:
clPtr<clSwarm> m_Swarm;
每个鸟群个体的场景节点存储在 m_Boids 向量中:
std::vector< clPtr<clSceneNode> > m_Boids;
类的构造函数为群体中的每个鸟群个体创建了一个场景节点:
public:
explicit clSwarmRenderer( const clPtr<clSwarm> Swarm )
: m_Root( make_intrusive<clSceneNode>() )
, m_Swarm( Swarm )
{
m_Boids.reserve( Swarm->m_Boids.size() );
const float Size = 0.05f;
for ( const auto& i : Swarm->m_Boids )
{
m_Boids.emplace_back( make_intrusive<clSceneNode>() );
从视觉上看,鸟群个体是一个三角形,因此我们调用 clGeomServ::CreateTriangle() 来创建一个包含单个三角形的顶点数组:
auto VA = clGeomServ::CreateTriangle( -0.5f * Size, Size, Size, 0.0f );
auto GeometryNode = make_intrusive<clGeometryNode>( );
GeometryNode->SetVertexAttribs( VA );
m_Boids.back()->Add( GeometryNode );
一旦几何节点初始化,我们将其添加到 m_Root:
m_Root->Add( m_Boids.back() );
}
Update();
}
在每一帧中,我们计算与鸟群根节点关联的每个 clSceneNode 的变换。变换包括鸟群位置的平移,然后绕垂直 Z 轴旋转:
void Update()
{
for ( size_t i = 0; i != m_Boids.size(); i++ )
{
float Angle = m_Swarm->m_Boids[i]->m_Angle;
mat4 T = mat4::GetTranslateMatrix( vec3( m_Swarm->m_Boids[i]->m_Pos ) );
mat4 R = mat4::GetRotateMatrixAxis( Angle,vec3( 0, 0, 1 ) );
m_Boids[i]->SetLocalTransform( R * T );
}
}
clPtr<clSceneNode> GetRootNode() const { return m_Root; }
};
所有其他场景管理代码与之前章节的类似:
鸟群演示
1_Boids 中的演示代码混合使用了 GoTo 和 Flocking 行为,使一群鸟群追逐用户指定的目标,同时创建类似群体移动的错觉。
在这里,我们不讨论应用程序的整个源代码,只强调最重要的部分。演示的初始化从创建填充有随机位置鸟群的 clSwarm 开始:
auto Swarm = make_intrusive<clSwarm>();
Swarm->GenerateRandom( 10 );
我们为所有鸟群个体设置相同的控制器。控制器本身是 g_Behaviour 对象中的 clFlockingBehaviour 和 clGoToBehavior 的混合体:
auto MixedControl = make_intrusive<clMixedBehaviour>();
MixedControl->AddBehaviour(0.5f, make_intrusive<clFlockingBehaviour>());
MixedControl->AddBehaviour(0.5f, g_Behaviour);
Swarm->SetSingleBehaviour(MixedControl);
g_Behaviour 实例保存目标的坐标,最初设置为 (1.0, 1.0):
g_Behaviour->m_TargetRadius = 0.1f;
g_Behaviour->m_Target = vec2( 1.0f );
g_Behaviour->m_PosGain = 0.1f;
在渲染循环的每一帧中,都使用局部的 clSwarmRenderer 对象:
clSwarmRenderer SwarmRenderer( Swarm );
该演示使用触摸输入来改变目标的坐标。当发生触摸时,我们将穿过触摸点的线与鸟群所在的平面相交。这个交点被用作新的目标点:
void OnTouch( int X, int Y, bool Touch )
{
g_MouseState.FPos = g_Window->GetNormalizedPoint( X, Y );
g_MouseState.FPressed = Touch;
if ( !Touch )
{
一旦我们知道触摸已经结束,我们使用透视和视图矩阵将 2D 鼠标坐标反投到世界空间中:
vec3 Pos = Math::UnProjectPoint( vec3( g_MouseState.FPos ), Math::Perspective( 45.0f, g_Window->GetAspect(), 0.4f, 2000.0f ), g_Camera.GetViewMatrix() );
使用摄像机视图矩阵,我们计算旋转和平移,并使用这些值将鼠标位置的射线与 Z=0 平面相交:
mat4 CamRotation;
vec3 CamPosition;
DecomposeCameraTransformation( g_Camera.GetViewMatrix(), CamPosition, CamRotation );
vec3 isect;
bool R = IntersectRayToPlane( CamPosition, Pos - CamPosition, vec3( 0, 0, 1 ), 0, isect );
一旦构建了一个 3D 交点,它就可以用作 GoTo 行为的 2D 目标:
g_Behaviour->m_Target = isect.ToVector2();
}
}
在每次迭代中,我们调用 Swarm::Update() 和 clSwarmRenderer::Update() 方法来更新单个鸟群个体的位置和速度,并将场景节点变换与新的数据同步。
现在,去运行 1_Boids 示例,亲自看看效果。
基于页面的用户界面
前几章的大部分内容已经为可移植的 C++ 应用程序奠定了基础。现在是时候向您展示如何将更多部分连接在一起了。第七章中,我们讨论了如何在 C++ 中创建一个简单的自定义用户界面以及如何响应用户输入。在这两种情况下,我们只实现了一个固定的行为,而没有解释如何在不编写意大利面条代码的情况下切换到另一个行为。本章的第一段介绍了 行为 的概念,我们现在将其应用于我们的用户界面。
我们将用户界面的单个全屏状态称为 页面。因此,应用程序的每个不同屏幕都由 clGUIPage 类表示,我们在此之后对其进行注释。
clUIPage 的三个主要方法是 Render()、Update() 和 OnTouch()。Render() 方法渲染包含所有子视图的完整页面。Update() 方法将视图与应用程序状态同步。OnTouch() 方法响应用户输入。clGUIPage 类是从 clUIView 派生的,因此理解这个类应该没有问题。
类包含两个字段。FFallbackPage 字段持有指向另一个页面的指针,该页面用作返回页面,例如,在 Android 上按下后退键时:
class clGUIPage: public clUIView
{
public:
按下后退键时返回的页面:
clPtr<clGUIPage> FFallbackPage;
这个页面上的 GUI 对象的非拥有指针来自:
clGUI* FGUI;
public:
clGUIPage(): FFallbackPage( nullptr ) {}
virtual ~clGUIPage() {}
virtual void Update( float DeltaTime ) {}
virtual bool OnTouch( int x, int y, bool Pressed );
virtual void Update( double Delta );
virtual void SetActive();
当 GUI 管理器切换页面时,会调用 OnActivation() 和 OnDeactivation() 方法:
virtual void OnActivation() {}
virtual void OnDeactivation() {}
public:
virtual bool OnKey( int Key, bool KeyState );
};
页面列表存储在 clGUI 类中。FActivePage 字段指示当前可见的页面。用户输入的事件会被重定向到激活页面:
class clGUI: public iObject
{
public:
clGUI(): FActivePage( NULL ), FPages() {}
virtual ~clGUI() {}
AddPage() 方法设置指向父 GUI 对象的指针,并将此页面添加到页面容器中:
void AddPage( const clPtr<clGUIPage>& P )
{
P->FGUI = this;
FPages.push_back( P );
}
SetActivePage() 方法除了实际设置页面为激活状态外,还会调用一些回调函数。如果新页面与当前激活的页面相同,则不会执行任何操作:
void SetActivePage( const clPtr<clGUIPage>& Page )
{
if ( Page == FActivePage ) { return; }
如果我们之前有一个激活的页面,我们会通知该页面切换到另一个页面:
if ( FActivePage )
{
FActivePage->OnDeactivation();
}
如果新页面不是空页面,那么它会被通知已被激活:
if ( Page )
{
Page->OnActivation();
}
FActivePage = Page;
}
正如我们之前提到的,每个事件都会被重定向到存储在 FActivePage 中的激活页面:
void Update( float DeltaTime )
{
if ( FActivePage )
{
FActivePage->Update( DeltaTime );
}
}
void Render()
{
if ( FActivePage )
{
FActivePage->Render();
}
}
void OnKey( vec2 MousePos, int Key, bool KeyState )
{
FMousePosition = MousePos;
if ( FActivePage )
{
FActivePage->OnKey( Key, KeyState );
}
}
void OnTouch( const LVector2& Pos, bool TouchState )
{
if ( FActivePage )
{
FActivePage->OnTouch( Pos, TouchState );
}
}
private:
vec2 FMousePosition;
clPtr<clGUIPage> FActivePage;
std::vector< clPtr<clGUIPage> > FPages;
};
OnKey() 方法的实现只用于 Windows 或 OSX。然而,如果我们把后退键视为 Esc 键的类似物,同样的逻辑也可以应用于 Android:
bool clGUIPage::OnKey( int Key, bool KeyState )
{
if ( !KeyState && Key == LK_ESCAPE )
{
如果我们有一个非空的备用页面,我们会将其设置为激活状态:
if ( FFallbackPage )
{
FGUI->SetActivePage( FFallbackPage );
return true;
}
}
return false;
}
SetActive() 的实现被放在类声明之外,因为它使用了当时未声明的 clGUI 类。这是为了从头文件中移除依赖:
void clGUIPage::SetActive()
{
FGUI->SetActivePage( this );
}
现在,我们的小型 GUI 页面机制已经完整,可以用来在实际应用程序中处理用户界面逻辑。
总结
在本章中,我们学习了如何实现对象的不同行为以及使用状态机和设计模式来实现群体逻辑。让我们继续最后一章,这样我们就可以将许多之前的示例整合到一个更大的应用程序中。