在一些编程语言(如Javascript)中,为什么浮点型数值运算时会产生误差?

如:
0.1 + 0.2 = 0.30000000000000004
0.15 + 0.15 = 0.25 + 0.05 = 0.3
0.7 + 0.1 = 0.79999999999


注:
原问题是关于 JavaScript 的,但是浮点误差并不是 JS 的特性,因此更新了问题。
默认排序 按时间排序

6 个回答

知乎用户 #FIXME
沈沉 Reading and Thinking
知乎用户 程序员
支浩宇 广州天河工作
张磊 archlinux javascript

加入知乎

与世界分享你的知识、经验和见解

验证码
已有帐号?
124 人关注该问题