【Unity3D】Camera.WorldToViewportPoint 计算原理及实现

751 阅读2分钟

本文已参与[新人创作礼]活动,一起开启掘金创作之路。

具体原理我是参考的这篇文章: 详解MVP矩阵之ProjectionMatrix-腾讯游戏学堂 本地具体实现实现方法(不调用Camera的API)如下:

1、获取相机的VP矩阵:

模型顶点坐标转换成屏幕坐标是用MVP矩阵,但是因为我们这边本来就使用的世界坐标进行转换,所以只需要VP矩阵即可。获取VP矩阵的方法如下:

private Matrix4x4 Matix_VP_LastFrame;

private void LateUpdate()
{
    Matix_VP_LastFrame= mainCamera.projectionMatrix * mainCamera.worldToCameraMatrix;
}

之所以放在LateUpdate是因为这个方法消耗挺大的,缓存起来每帧只计算一次即可。

Camera中还有个属性是:Camera.previousViewProjectionMatrix ,看起来就是算好的值。但是我测试时取出来的值是算出来是不对的,所以就没有使用这个属性。

2、计算世界坐标的屏幕位置:

计算原理在上述的文章连接中提到了,这里就提供代码即可。

简单地说就是直接用VP矩阵乘世界坐标就可以了,不过这个乘出来的值并不直接是viewPos,还需要进一步转换:

/// <summary>
/// 传入世界坐标,获取屏幕坐标:
/// </summary>
private Vector3 WorldToViewportPoint(Vector3 wolrdPos)
{
    Vector4 pos = new Vector4(wolrdPos.x, wolrdPos.y, wolrdPos.z, 1);
    Vector4 clipPos = Matix_VP_LastFrame * pos;

    float x = 0.5f + 0.5f * clipPos.x / clipPos.w;
    float y = 0.5f + 0.5f * clipPos.y / clipPos.w;

    Vector3 screenPos = new Vector3(x, y, clipPos.w);
    return screenPos;
}

这里返回的结果中,x、y就是在屏幕中的比例,左下角为(0,0),右上角为(1,1);z轴代表深度(正数在相机前面,负数在相机后面)。

这个计算出来和Unity自己的API会有细微的误差(都在小数点后面好几位),但是不影响使用。

PS:

虽然实现了算法,但是建议大家尽可能使用Unity原生的API。因为这个算法的性能消耗是大于Camera.WorldToViewportPoint 的(具体瓶颈在矩阵乘法那里,从Profile上看到了大量的String.memcpy,占用了大量的CPU消耗)。