共计 3859 个字符,预计需要花费 10 分钟才能阅读完成。
话不多说,先上代码
function judgeFloat(n, m) {
const binaryN = n.toString(2);
const binaryM = m.toString(2);
console.log(`${n} 的二进制是 ${binaryN}`);
console.log(`${m} 的二进制是 ${binaryM}`);
const MN = m + n;
const accuracyMN = (m * 100 + n * 100) / 100;
const binaryMN = MN.toString(2);
const accuracyBinaryMN = accuracyMN.toString(2);
console.log(`${n}+${m} 的二进制是 ${binaryMN}`);
console.log(`${accuracyMN} 的二进制是 ${accuracyBinaryMN}`);
console.log(`${n}+${m} 的二进制再转成十进制是 ${to10(binaryMN)}`);
console.log(`${accuracyMN} 的二进制是再转成十进制是 ${to10(accuracyBinaryMN)}`);
console.log(`${n}+${m} 在 js 中计算是 ${(to10(binaryMN) === to10(accuracyBinaryMN)) ? ” : ‘ 不 ’} 准确的 `);
}
function to10(n) {
const pre = (n.split(‘.’)[0] – 0).toString(2);
const arr = n.split(‘.’)[1].split(”);
let i = 0;
let result = 0;
while (i < arr.length) {
result += arr[i] * Math.pow(2, -(i + 1));
i++;
}
return result;
}
judgeFloat(0.1, 0.2);
judgeFloat(0.6, 0.7);
由于 JavaScript 中没有将小数的二进制转换成十进制的方法,于是手动实现了一个。
先来一个简单的结论
计算机中所有的数据都是以二进制存储的,所以在计算时计算机要把数据先转换成二进制进行计算,然后在把计算结果转换成十进制。
由上面的代码不难看出,在计算 0.1+0.2 时,二进制计算发生了精度丢失,导致再转换成十进制后和预计的结果不符。
其实有些标题党了,一个函数并不能让你深入理解,还得继续看下面 …
对结果的分析—更多的问题
0.1 和 0.2 的二进制都是以 1100 无限循环的小数,下面逐个来看 JS 帮我们计算所得的结果:
0.1 的二进制:
0.0001100110011001100110011001100110011001100110011001101
0.2 的二进制:
0.001100110011001100110011001100110011001100110011001101
理论上讲,由上面的结果相加应该::
0.0100110011001100110011001100110011001100110011001100111
实际 JS 计算得到的 0.1+0.2 的二进制
0.0100110011001100110011001100110011001100110011001101
作为一个代码强迫症的我又产生的新的问题:
Why js 计算出的 0.1 的二进制 是这么多位而不是更多位???Why js 计算的(0.1+0.2)的二进制和我们自己计算的(0.1+0.2)的二进制结果不一样呢???
Why 0.1 的二进制 + 0.2 的二进制 != 0.3 的二进制???
js 对二进制小数的存储方式
小数的二进制大多数都是无限循环的,JavaScript 是怎么来存储他们的呢?
在 ECMAScript®语言规范中可以看到,ECMAScript 中的 Number 类型遵循 IEEE 754 标准。使用 64 位固定长度来表示。
事实上有很多语言的数字类型都遵循这个标准,例如 JAVA, 所以很多语言同样有着上面同样的问题。
所以下次遇到这种问题不要上来就喷 JavaScript…
有兴趣可以看看下这个网站 http://0.30000000000000004.com/,是的,你没看错,就是 http://0.30000000000000004.com/!!!
IEEE 754
IEEE754 标准包含一组实数的二进制表示法。它有三部分组成:
符号位
指数位
尾数位
三种精度的浮点数各个部分位数如下:
JavaScript 使用的是 64 位双精度浮点数编码,所以它的符号位占 1 位,指数位占 11 位,尾数位占 52 位。
下面我们在理解下什么是符号位、指数位、尾数位,以 0.1 为例:
它的二进制为:0.0001100110011001100…
为了节省存储空间,在计算机中它是以科学计数法表示的,也就是
1.100110011001100… X 2-4
如果这里不好理解可以想一下十进制的数:
1100 的科学计数法为 11 X 102
所以:
符号位就是标识正负的,1 表示负,0 表示正;
指数位存储科学计数法的指数;
尾数位存储科学计数法后的有效数字;
所以我们通常看到的二进制,其实是计算机实际存储的尾数位。
js 中的 toString(2)
由于尾数位只能存储 52 个数字,这就能解释 toString(2) 的执行结果了:
如果计算机没有存储空间的限制,那么 0.1 的二进制应该是:
0.00011001100110011001100110011001100110011001100110011001…
科学计数法尾数位
1.1001100110011001100110011001100110011001100110011001…
但是由于限制,有效数字第 53 位及以后的数字是不能存储的,它遵循,如果是 1 就向前一位进 1,如果是 0 就舍弃的原则。
0.1 的二进制科学计数法第 53 位是 1,所以就有了下面的结果:
0.0001100110011001100110011001100110011001100110011001101
0.2 有着同样的问题,其实正是由于这样的存储,在这里有了精度丢失,导致了 0.1+0.2!=0.3。
事实上有着同样精度问题的计算还有很多,我们无法把他们都记下来,所以当程序中有数字计算时,我们最好用工具库来帮助我们解决,下面是两个推荐使用的开源库:
number-precision
mathjs/
下面我们再来看上面的其他两个问题。
Why JavaScript 计算出的 0.1 的二进制 是这么多位而不是更多位???
上面的 toString 原理帮我们解答了这个问题,在有效数字第 53 位以后的数字将遵循 1 进 0 舍的原则,内存中只允许存储 52 位有效数字。
Why JavaScript 计算的(0.1+0.2)的二进制和我们自己计算的(0.1+0.2)的二进制结果不一样呢???
我们自己计算的 0.1+0.2::
0.0100110011001100110011001100110011001100110011001100111
实际上这个结果的有效数字已经超过了 52 位,我们要从末尾进行 1 进 0 舍得到下面的结果
0.0100110011001100110011001100110011001100110011001101
JavaScript 能表示的最大数字
由与 IEEE 754 双精度 64 位规范的限制:
指数位能表示的最大数字:1023(十进制)
尾数位能表达的最大数字即尾数位都位 1 的情况
所以 JavaScript 能表示的最大数字即位
1.111…X 21023 这个结果转换成十进制是 1.7976931348623157e+308, 这个结果即为 Number.MAX_VALUE。
最大安全数字
JavaScript 中 Number.MAX_SAFE_INTEGER 表示最大安全数字, 计算结果是 9007199254740991,即在这个数范围内不会出现精度丢失(小数除外), 这个数实际上是 1.111…X 252。
我们同样可以用一些开源库来处理大整数:
node-bignum
node-bigint
其实官方也考虑到了这个问题,bigInt 类型在 es10 中被提出,现在 Chrome 中已经可以使用。
bigInt 类型
BigInt 是第七种原始类型。
BigInt 是一个任意精度的整数。这意味着变量现在可以计算 9007199254740991 即最大安全整数以上的数字。
const b = 1n; // 追加 n 以创建 BigInt
在过去,不支持大于 9007199254740992 的整数值。如果超过,该值将锁定为 MAX_SAFE_INTEGER + 1:
const limit = Number.MAX_SAFE_INTEGER;
⇨ 9007199254740991
limit + 1;
⇨ 9007199254740992
limit + 2;
⇨ 9007199254740992 <— MAX_SAFE_INTEGER + 1 exceeded
const larger = 9007199254740991n;
⇨ 9007199254740991n
const integer = BigInt(9007199254740991); // initialize with number
⇨ 9007199254740991n
const same = BigInt(“9007199254740991”); // initialize with “string”
⇨ 9007199254740991n
typeof
typeof 10;
⇨ ‘number’
typeof 10n;
⇨ ‘bigint’