js 精度问题

221 阅读1分钟

js中 0.1 + 0.2 ≠0.3?怎么才能等于0.3?

1. 为什么js中0.1 + 0.2 ≠0.3?

  • 因为浮点数运算的精度问题。在计算机运行过程中,需要将数据转化成二进制,然后再进行计算。

  • js中的Number类型遵循IEEE754标准,在IEEE754标准的64位浮点数相加,因为浮点数自身小数位数的限制而截断的二进制在转化为十进制,就变成0.30000000000000004,所以在计算时会产生误差。 img

  • 可以从图中看到 IEEE-754 标准下双精度浮点数由三部分组成,分别如下:

    • sign(符号): 占 1 bit, 表示正负;
    • exponent(指数): 占 11 bit,表示范围;
    • mantissa(尾数): 占 52 bit,表示精度,多出的末尾如果是 1 需要进位;

2. 0.1 + 0.2的运算过程

  • 首先,十进制的0.1和0.2会被转换成二进制的,但是由于浮点数用二进制表示时是无穷的:
0.1 -> 0.0001 1001 1001 1001...(1100循环)
0.2 -> 0.0011 0011 0011 0011...(0011循环)

  • IEEE 754 标准的 64 位双精度浮点数的小数部分最多支持53位二进制位,所以两者相加之后得到二进制为
0.0100110011001100110011001100110011001100110011001100 
  • 因浮点数小数位的限制而截断的二进制数字,再转换为十进制,就成了0.30000000000000004。所以在进行算术计算时会产生误差。

3. 怎么才能等于0.3?

parseFloat((0.1 + 0.2).toFixed(10)) === 0.3 //  true