Magic Number - 《雷神之锤3》平方根倒数速算法

1,423 阅读9分钟

引言

你会如何通过代码写出下面这个公式?

f(x)=1xf(x) = \frac{1}{\sqrt{x}}

如果是我的话,一行代码搞定

float y = 1 / sqrt(x);

而《雷神之锤3》实现的方式就非常有趣:

float Q_rsqrt( float number )
{

  long i;
  float x2, y;
  const float threehalfs = 1.5F;

  x2 = number * 0.5F;
  y = number;
  i = * ( long * ) &y;                       // evil floating point bit level hacking
  i = 0x5f3759df - (i >> 1);                 // what the fuck?
  y = * ( float * ) &i;
  y = y * (threehalfs - ( x2 * y * y ) );    // 1st iteration
  y = y * (threehalfs - ( x2 * y * y ) );    // 2nd iteration, this can be removed

  return y;
}

如果你看到这个0x5f3759df数字,想必有点小懵逼,人生三问开始了:

  1. 它是谁?
  2. 它怎么来的?
  3. 它有什么用?

下面就会介绍这个magic number从何来,去何处。

为何需要这个算法?

当你需要在游戏中实现一些物理效果,比如光影效果、反射效果时,所关注的点其实是某个向量的方向,而不是这个向量的长度,如果能将所有向量给单位化,很多计算就会变得比较简单。

所以在计算中很重要的一点就是计算出单位向量,而在真正在运行代码中需要根据某个向量计算相应的单位向量,根据某个向量(x, y, z)计算法向量公式如下

x0=x1x2+y2+z2x_0 = x * \frac{1}{\sqrt{x^2 + y^2 + z^ 2}} y0=y1x2+y2+z2y_0 = y * \frac{1}{\sqrt{x^2 + y^2 + z^ 2}} z0=z1x2+y2+z2z_0 = z * \frac{1}{\sqrt{x^2 + y^2 + z^ 2}}

可以看出来计算一个数的平方根的倒数其实非常频繁,所以需要一个很快的算法去计算平方根倒数。众所周知,乘法和加法在计算机中被设计得非常快,所以x*x+y*y+z*z计算起来真的非常快,但是

sqrt(xx + yy + z*z)求平方根算法很慢,求一个数的倒数即除法也很慢,所以上面的一行代码实现平方根倒数所消耗的时间会特别慢。而Q_rsqrt(x*x + y*y + z*z)里面的代码没有看到任何除法,以及求平方根,里面全部都是乘法、位移等运算速度很快的操作,平方根倒数速算其实是计算的近似数,大约1%的误差,但是运算速度是之前的三倍,下面就会解释这几行代码。

下面这是计算3\sqrt{3}所得出的结果与计算时间:

初始化参数

long i;
float x2, y;
const float threehalfs = 1.5F;

x2 = number * 0.5F;
y = number;

首先函数的参数是一个32位浮点数,之后声明一个32位整型变量i,继续声明两个32位浮点数x2,y,声明一个32位浮点数常量threehalfs,即表示32\frac{3}{2},之后两行也非常简单,一个是将number的一半赋值给x2,将number赋值给y,你会发现很有趣的一点,就是这些变量不管是整型还是浮点型,其在内存中的长度都是32位,这其实是magic发生的基础。

接着看下面几行的注释(因为直接看代码也看不懂),分别是evil bit hackwhat the fucknewton iteration,这三个注释其实就说明了整个算法重要的三步,在真正解释这三个步骤之前,先来说说浮点数的在内存中表示。

二进制数的表示方法

在日常生活中,我们通常以十进制的方式表示现实生活中的各种数,这种数被称为真值,对于负数,我们会在数的前面加一个‘-’号表示这个数是小于0,‘+’号(通常不写)去表示一个正数。而在计算机中只能表示0、1两种状态,所以下正负号在计算机中会以0、1的形式表示,通常放在最高位,作为符号位。为了能够方便对这些机器数进行算术运算、提高运算速度,计算机设计了许多种表示方式,其中比较常见的是:原码、反码、补码以及移码。下面主要以8bit长度的数0000 0100,即十进制数4,去介绍这几种表示方式

  • 原码

原码表示方式是最容易理解的,首先第一位为符号位,后面七位表示的就是真值,如果表示负数,只需要将符号位置为1即可,后面七位依然为真值,所以4与-4的原码为

0000 0100 1000 0100

所以很容易就得出原码的表示范围为[-127, 127],会存在两个特殊的数为+0-0

  • 反码

正数的反码即是其原码,而负数的反码就是在保留符号位的基础上,其他位全部取反,所以4与-4的反码为

0000 0100 1111 1011

所以反码表示范围为[-127, 127],依然存在两个特殊的数为+0-0

  • 补码

正数的补码即是其原码,而负数的补码就是在保留符号位的基础上,其他位全部取反,最后加1,即在反码的基础上+1,所以4与-4有补码是

0000 0100 1111 1100

所以补码表示范围为[-128,127],之前的-0在补码中被表示成了-128,可以多表示一个数。

  • 移码

在数轴上,移码表示的范围,恰好对应着真值在数轴上的范围向正方向移动2n2^n个单元,对应着8个bit的范围从[0, 255]变为[-128, 127],可以看出偏移量为128,所以4与-4的移码为

0111 1100 1000 0100

移码的一大好处就是方便比较,可以直接进行按位比较。

浮点数

先考虑一个问题,如果你用32位二进制如何表示4.25?可能会是这样:

0000 0000 0000 0100 . 0100 0000 0000 0000

这放在普通十进制,这种想法其实非常常见,但是这种方式放在二进制世界中,总共1位符号位,15号整数位,16位小数位,总共表示数的范围只有[215,215][-2^{15}, 2^{15}],而对于长整型的范围却有[231,231][-2^{31}, 2^{31}],差的倍数有6w5,可见这种方式为了小数表示抛弃了一半的位数,得不偿失,所以有人提出了

IEEE754标准。

IEEE754

在描述这个标准前,先在这里说下科学计数法,在十进制中科学计数法表示如下 123001.231040.001231.23103\begin{aligned} & 12300 && 1.23 * 10^{4} \\ & 0.00123 && 1.23 * 10^{-3} \\ \end{aligned}

同样的,可以将科学计数法运用到二进制中

11,0001.1240.01011.0122\begin{aligned} & 11,000 && 1.1 * 2^{4} \\ & 0.0101 && 1.01 * 2^{-2} \\ \end{aligned}

所以IEEE754也是采用的是科学计数法的形式,会将32位数分为以下三部分

0 00000000 00000000000000000000000

  • Sign Bit

首先第一位是符号位,0表示正数,1表示负数,而在平方根的计算中,明显不会涉及到负数,所以第一位肯定是为0的。

  • Exponent

第二部分用8位bit表示指数部分,可以表示数的范围是[0, 255],但是这个只能表示正数,所以需要把负数也加进来,而IEEE754标准中阶码表示方式为移码,之所以要表示为移码的方式是在浮点数比较中,比较阶码的大小会变得非常简单,按位比较即可。不过和正常的移码有一点小区别是,0000 00001111 1111用来表示非规格化数与一些特殊数,所以偏移量从128变为127,表示范围也就变成了[-127, 126]

举个例子,众所周知啊,4这个数的8bit真值为0000 0100,加上127的偏移量变成131,即4的移码为1000 0011

  • Mantissa

小数部分就是剩余的23位,可以表示的范围就是[0,1223][0, 1 - 2^{-23}],而科学计数法的第一位默认是为1的,所以这个范围就会变成[1,2223][1, 2 - 2^{-23}],而1是默认存在的,这样就不会用这23位bit中一位专门来表示这个1,从而多出一位来表示更广范围的小数,真正计算的时候再加上1即可。

下面我们以9.625这个数改成IEEE 754标准的机器数:

首先变为相应的二进制数为1001.101,用规范的浮点数表达应为1.001101231.001101 * 2^{3},所以符号段为0,指数部分的移码为1000 0010,有效数字去掉1后为001101,所以最终结果为

0 10000010 00110100000000000000000

二进制数转换

在前面我们介绍了一个浮点数是如何在计算机中以机器数来表示的,现在我们要对这个浮点数进行一些骚操作,以方便之后对这个浮点数的处理。

同样的,我们以9.625这个数为例,首先我们令阶码的真值为E,则有

E=1000,0010(2)=130(10)E = 1000,0010_{(2)} = 130_{(10)}

令余数为M,则有

M=00110100000000000000000(2)=0.001101223(2)M = 00110100000000000000000_{(2)} = {0.001101 * 2^{23}}_{(2)}

现在我们先不认为这个是浮点数,这个数就是32位长整型,令这个数为L,它所表示的十进制数便是这样

L=223E+ML = 2^{23} * E + M

这个数L便是这32位所表示的无符号整型,这个数后面有大用,我们先暂且把它放在这儿,后续再来看。

然后我们通过一个公式来表示这个浮点数F的十进制数

F=(1+M223)2E127F = (1 + \frac{M}{2^{23}}) * 2^{E - 127}

尾数加1是因为在IEEE754标准中把首位的一去掉了,所以计算的时候需要把这个一给加上,然后阶码减去127是因为偏移为127,要在8位真值的基础上减去127才是其表示真正的值。

然后有趣的事情就发生了,我们现在将这个数F取下对数

log2F=log2(1+M223)+E127\log_2 F = \log_2 (1 + \frac{M}{2^{23}}) + E - 127

在这个公式,E-127自然非常好计算,但是前面的对数计算起来是比较麻烦的,所以我们可以找个近似的函数去代替对数。

现在看下y=log2(1+x)y=log_2(1 + x)y=xy=x的图像

根据图像,我们很容易得出下面这个结论

limx0+log2(1+x)=x\lim_{x \to 0^+} \log_2 (1 + x) = x limx1log2(1+x)=xlim_{x \to 1^-} \log_2 (1 + x) = x

然后很容易发现,在[0, 1]这个范围内,log2(x+1)\log_2(x+1)xx其实是非常相近的,那样我们可以取一个在[0,1]的校正系数$\mu$$,使得下面公式成立

log2(x+1)x+μ\log_2 (x + 1) \approx x + \mu

到此,我们知道了怎样去简化对数,所以我们可以将这个简化代入上面浮点数表示中,就可以得到

log2F=log2(1+M223)+E127(M223+μ)+E127=(M223+E223223)+μ127=1223(M+E223)+μ127\begin{aligned} \log_2 F &= \log_2 (1 + \frac{M}{2^{23}}) + E - 127 \\ & \approx (\frac{M}{2^{23}} + \mu) + E - 127 \\ & = (\frac{M}{2^{23}} + \frac{E * 2^{23}}{2^{23}}) + \mu - 127 \\ & = \frac{1}{2^{23}} (M + E * 2^{23}) + \mu - 127 \end{aligned}

看见这个M+E223M + E * 2 ^{23}应该比较熟悉吧,这个数就是浮点数F的二进制数L,然后代入约等式中得到

log2FL223+μ127\log_2 F \approx \frac{L}{2^{23}} + \mu - 127

在某种程度上,不考虑放缩与变换,我们可以认为浮点数的二进制表示L其实就是其本身F的对数形式,即

log2FL\log_2 F \approx L

三部曲

经过上面一系列复杂的数字处理操作,我们终于可以开始我们的算法三部曲了

evil bit hack

众所周知啊,每个变量都有自己的地址,程序运行的时候就会通过这个地址拿到这个变量的值,然后进行一系列的计算,比如i和y在内存中会这样表示

我们对长整型这些数据很好进行位移运算,比如我想将这个数乘以或者除以2n2^n,只需要左移或者右移N个位就可以,但是浮点数明显无法进行位运算,它本身二进制表示就不是为了位运算设计的。

然后,现在就会提出一个想法,我把float转成int,然后进行位运算不就行了,代码如下

long i = (long) y

假设y为3.33,进行长整型强转后,C语言会直接丢弃尾数,i也就变成了3,丢失这么多精度,谁干啊,如果我们想一位都不动地进行位运算,就是下面这份代码

i = * ( long * ) &y

这行代码做了什么事呢,&y首先将浮点数y的地址找出来,可以认为就是0x3d6f3d79这个地址,它的类型其实是float *,C语言便会以浮点数的形式将这个数取出来,而想让C语言认为这个是长整型类型,就必须进行地址的类型的强转,将float *强转成long *

这个强转过程其实没改变内存中任何东西,首先它并没有改变0x3d6f3d791这个地址,也没改变这个地址中所存储的数据,可以认为改变的是C语言的“认知”,原本是要以IEEE754标准去读取这个地址中数据,但是C语言现在认为这个是长整型的地址,按长整型方式读取就行。所以(long*)&y代表0x3d6f3d791这个地址中存储的是长整型数据,然后我通过*运算符从这个地址中拿出数据,赋值给i这个长整型变量。

这样我们其实避开了数字本身的意义,而是通过地址变换完整地拿出了这个二进制数据。

what the fuck

众所周知啊,位运算中的左移和右移一位分别会使原数乘以或者除以2,比如

x110=6x<<11100=12x>>111=3\begin{aligned} x & & 110 &= 6 \\ x << 1 & & 1100 &= 12 \\ x >> 1 & & 11 &= 3 \\ \end{aligned}

我们想办法把平方根倒数做一个简单的转化

1x=x12\frac{1}{\sqrt x} = x^{-\frac{1}{2}}

这个等式其实就是我们的最终目标,接下的计算就会逐渐往这个等式靠近,得到一个近似的结果。

在前面一步的叙述中,我们得出这样一个结论,浮点数的二进制表示其实就是其本身的对数形式,想要求的浮点数存储在y中,则有

y=9.625y = 9.625 \\ log2(y)i=01000001 00011010 00000000 00000000log_2 (y) \approx i = 01000001 \ 00011010 \ 00000000 \ 00000000

也就是说i中其实存储着y的对数,当然还需要进行一系列的转换与缩放。

前面提到过,直接运算一个数的平方根倒数,所以不如直接计算平方根倒数的对数,然后就会有如下等式

log2(1y)=log2(y12)=12log2(y)log2(y)ilog2(1y)(i>>1)\begin{aligned} \log_2 (\frac{1}{\sqrt y}) = \log_2 (y^{- \frac{1}{2}}) & = - \frac{1}{2} \log_2(y) \\ \log_2 (y) & \approx i \\ \log_2 (\frac{1}{\sqrt y}) & \approx -(i >> 1) \end{aligned}

除法同样计算速度是比较慢的,所以我们用右移代替除法,这也就解释了-(i >> 1)其实是为了计算log2(1y)\log_2 (\frac{1}{\sqrt y})的结果。

所以0x5f3759df这个数到底咋来的,为啥要这么计算,并且-(i >> 1)并不完全是log2(1y)\log_2 (\frac{1}{\sqrt y})的近似值啊,根据公式还得除以2232^{23},还得加上一定的误差。

先别急,我们先算下这个magic number是咋来的,令Γ\Gamma为y的平方根倒数,则有

Γ=1ylog2Γ=log2(1y)=12log2(y)\begin{aligned} \Gamma & = \frac{1}{\sqrt y} \\ \log_2 \Gamma & = \log_2 (\frac{1}{\sqrt y}) = -\frac{1}{2} \log_2 (y) \end{aligned}

然后我们代入上面那个浮点数对数的公式中,则有

log2Γ=1223(MΓ+EΓ223)+μ127log2y=1223(My+Ey223)+μ1271223(MΓ+EΓ223)+μ127=12(1223(My+Ey223)+μ127)\begin{aligned} \log_2 \Gamma & = \frac{1}{2^{23}} (M_{\Gamma} + E_{\Gamma} * 2^{23}) + \mu - 127 \\ \log_2 y & = \frac{1}{2^{23}} (M_y + E_y * 2^{23}) + \mu - 127 \\ \frac{1}{2^{23}} (M_{\Gamma} + E_{\Gamma} * 2^{23}) + \mu - 127 & = -\frac{1}{2}(\frac{1}{2^{23}} (M_y + E_y * 2^{23}) + \mu - 127) \end{aligned}

现在经过一定的变换能够得到下面这个式子

(MΓ+EΓ223)=32223(127μ)12(My+Ey223)=0x5f3759df(i>>1)\begin{aligned} (M_{\Gamma} + E_{\Gamma} * 2^{23}) & = \frac{3}{2}2^{23}(127 - \mu) -\frac{1}{2} (M_y + E_y * 2^{23}) \\ & = 0x5f3759df - (i >> 1) \end{aligned}

这里μ\mu是就是之前简化对数计算引进的误差,通过一定计算,得到最合适的μ\mu,来得到Γ\Gamma的近似值。这个计算过程偏向纯数学化的,具体过程请查阅《FAST INVERSE SQUARE ROOT》这篇论文。

原算法中取的μ\mu值为0.0450465,然后计算一下

32223(127μ)=32223(1270.0450465)=1597463007\frac{3}{2}2^{23}(127 - \mu) = \frac{3}{2}2^{23}(127 - 0.0450465) = 1597463007

这个数的十六进制就是0x5f3759df,也就是上面提到的那个magin number,然后我们根据这个数去计算得到的近似值,并与真正的1y\frac{1}{\sqrt y}进行比较,具体函数图像如下

从上面的图像可以看到,在[1,100]这个区间内,所得到的近似值曲线已经和原始值制拟合的比较好了,这样我们已经完成了前面几个比较重要的步骤。

y = * ( float * ) &i;

这样我们通过和evial bit hack的逆向步骤,即将一个长整型的内存地址,转变成一个浮点型的内存地址,然后根据IEEE754标准取出这个浮点数,即我们要求的\Gamma的近似值,其实到这里应该是算法差不多结束了,但是这个近似值还存在一定的误差,还需要经过一定的处理降低误差,更接近真实值。

Newton Iteration

本身我们已经得到了一个比较好的近似值,但是仍然存在一定的误差,而牛顿迭代法可以这个近似值更加接近真实的值,近一步减少误差。

牛顿迭代法本身是为了找到一个方程根的方法,比如现在有一个方程f(x)=0f(x)=0,需要找到这个方程的根,但是解方程嘛,是不会解方程的,所以可以找到一个近似值来代替这个真正的解。

如上图,假设f(x)=0f(x)=0的解为x=xcx=x_c,我们需要首先给一个xx的近似值x0x_0,通过这个x0x_0,不断求得一个与xcx_c更接近的值。

(x0,f(x0))(x_0, f(x_0))处做切线,切线的斜率就是f(x)f(x)x=x0x=x_0的导数f(x0)f'(x_0),然后来求这条切线与x轴的交点x1x_1,则有

x1=x0f(x0)f(x0)x_1 = x_0 - \frac{f(x_0)}{f'(x_0)}

这样我们就完成了一次迭代,从图像上可以看见x1x_1x0x_0更接近于真正的解,下一次迭代基于x1x_1进行同样的步骤,就能得到比x1x_1更好的近似值x2x_2,所以牛顿迭代公式非常简单

xn+1=xnf(xn)f(x0)x_{n + 1} = x_n - \frac{f(x_n)}{f'(x_0)}

当这个迭代次数接近无限时,xnx_n也就越接近真正的解。

而最后一行就是经过一次迭代后的简化公式,这个公式怎么来的呢。对于一个浮点数aa,要求它的平分根倒数,则有

y=1ay = \frac{1}{\sqrt a}

通过这个公式能构成一个函数

f(y)=1y2af(y) = \frac{1}{y^2} - a

求这个yy值,其实就是求f(y)=0f(y)=0的根,所以迭代公式就是

yn+1=ynf(yn)f(yn)=ynyn2a2yn3=yn(3212ayn2)\begin{aligned} y_{n+1} & = y_n - \frac{f(y_n)}{f'(y_n)} \\ & = y_n - \frac{y_n^{-2} - a}{-2 * y_n^{-3}} \\ & = y_n * (\frac{3}{2} - \frac{1}{2}* a * y_n^2) \end{aligned}

这个公式对应的算法中的代码

y = y * (threehalfs - ( x2 * y * y ) )

至此,你的代码就更接近真实的y=1xy=\frac{1}{\sqrt x},在更接近真实答案的同时,运行速率也大大提升。仅仅牺牲了一点点的准确性,却能提高整个的速度,这其实就是算法在优化中的一个比较重要的点。

Reference

0x5f3759df

FAST INVERSE SQUARE ROOTMagic Number - 《雷神之锤3》平方根倒数速算法