為什么JavaScript中0.1 + 0.2 != 0.3
涉及面試題:為什么 0.1 + 0.2 != 0.3?如何解決這個問題?
原因,因為 JS 采用 IEEE 754雙精度版本(64位),并且只要采用 IEEE 754的語言都有該問題
我們都知道計算機是通過二進制來存儲東西的,那么 0.1 在二進制中會表示為
// (0011) 表示循環0.1 = 2^-4 * 1.10011(0011)
我們可以發現,0.1 在二進制中是無限循環的一些數字,其實不只是 0.1,其實很多十進制小數用二進制表示都是無限循環的。這樣其實沒什么問題,但是 JS采用的浮點數標準卻會裁剪掉我們的數字。
IEEE 754 雙精度版本(64位)將 64 位分為了三段
第一位用來表示符號 接下去的 11 位用來表示指數 其他的位數用來表示有效位,也就是用二進制表示 0.1 中的 10011(0011)那么這些循環的數字被裁剪了,就會出現精度丟失的問題,也就造成了 0.1 不再是 0.1 了,而是變成了 0.100000000000000002
0.100000000000000002 === 0.1 // true
那么同樣的,0.2 在二進制也是無限循環的,被裁剪后也失去了精度變成了 0.200000000000000002
0.200000000000000002 === 0.2 // true
所以這兩者相加不等于 0.3 而是 0.300000000000000004
0.1 + 0.2 === 0.30000000000000004 // true
那么可能你又會有一個疑問,既然 0.1 不是 0.1,那為什么 console.log(0.1) 卻是正確的呢?
因為在輸入內容的時候,二進制被轉換為了十進制,十進制又被轉換為了字符串,在這個轉換的過程中發生了取近似值的過程,所以打印出來的其實是一個近似值,你也可以通過以下代碼來驗證
console.log(0.100000000000000002) // 0.1
解決
parseFloat((0.1 + 0.2).toFixed(10)) === 0.3 // true
到此這篇關于為什么JavaScript中0.1 + 0.2 != 0.3的文章就介紹到這了,更多相關JS中0.1 + 0.2 != 0.3內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!
相關文章:
