问题源于System.out.println(2.0-1.1);的输出是0.8999999999999999。网上大家都认同的一个合理解释是“有些小数在机器中是不能精确表示的”。是的,对于一位小数(十进制),除了0.0和0.5,其余的在机器中都不能精确表示(二进制),小数位多了也同样有很多不能精确表示。
但是进行另外两次测试,System.out.println(1.1*10);System.out.println(1.11*10);输出结果是11.0和11.100000000000001。既然这两次机器中同样是使用不精确的数1.1和1.11来计算,为何结果有一个是精确的,另一个是不精确的?
还有,如果把上面得例子中的双精度double型全换成单精度float型,所有的结果都是精确的,正确的。但是float和double一样在机器中存储时是不精确的无限小数,为什么结果有差别?