浮点型数的精度和取值范围有什么区别?float精度是6-7位,但是取值范围到了3.4*10∧38,
其实可以这样理解,比如我们两个都只能记住100个数,我记的是1-100,间隔1,你记的是0-0.99,间隔0.01,那么我的范围是1-100,你是0-1,我大;但是我的精度只有1,你有0.01,你更精确。
c语言里浮点数是科学计数法存储数字,用一部分字节记录有效数字,代表精确的位数,一部分代表10的幂次,代表范围,两者勉强可以认为不可兼得。
C语言中float的精确度是多少?比如我输入12.105 输出却是12.104996 本来四舍五入应该是12.11变成了12.10
浮点数的表示同样是二进制的,所以10进制下的有限小数用二进制表示时常常变成无限循环小数,从而产生误差。
这与精度是多少没有什么关系的,即使用更高精度的double,long double一样也可能出现这样的结果。
float的精度在不同的编译环境下也可能是不同的,一般是7位有效。
楼上的测试明显有问题,VS2010下测过,正是楼主所强调的问题:
【误差造成四舍五入变了样!!】
以下是测试程序:
{
float a = 12.105f;
printf("%4.2f
",a);
system("pause");
return 0;
}
怎么办?有办法,你看excel对这个问题的解决就很完美。
但是怎么实现?比较麻烦,建议你直接上网搜搜。
如果嫌麻烦,请换一个方式解决你需要解决的问题吧。
这个问题比较有意思,手痒写了个程序出来:
float Power10(unsigned int i) //递归计算10的i次幂
{
if(i)
{
float tRes = Power10(i>>1);
return tRes * ( (i & 0x1)? tRes * 10.0f : tRes ); //i转化二进制逻辑尺使用
}
else
{
return 1.0f; //递归终结,10的0次幂为1
}
}
float ResX(float a, int x)
{
float tPower10 = Power10(x);
if(a < 0)
{
tPower10 = -tPower10; //如果是负数,添个负号
}
a = (a * tPower10) + 0.5f; //负数会先被正过来
return (int)a / tPower10; //最后再负回去
}
ResX(12.105f, 2)的结果就是12.11了,再printf就没问题了。
解决问题的核心就是我一开始说的二进制表示时的无限循环问题。
当尾数是0.5时就不存在这个问题,因为0.5正好可以被二进制小数无误差表示出来。
所以我先把12.1049999……乘上100,成为1210.5,正因为这个特性,此时误差消失。
然后再加上0.5取整,就得到1211,再除以100就得了结果。
但是写成return (int)((a * tPower10) + 0.5f) / tPower10;却不行,不是太清楚原因了。
这个方法也不太清楚有多可靠,至少我觉得在有些环境下应该会失效。
先试试看吧。
float的精度,详细一点告诉我谢谢!
你所说的精度应该是指精确到小数点后面多少位,而float正是精确到小数点后6位的,用%f输出小数时就是输出6位。
使用float或者double存储有很多位的数时,由于浮点数的特殊存储形式,最低的那几位总是会有偏差的,这是正常现象。
c语言中的float和double类型的区别是什么?单精度和双精度是什么?
c语言中 单精度型和双精度型 指两种 类型 的 浮点数。
单精度型 即 float 型, 有效数字约10进制7位
双精度型 即 double 型, 有效数字约10进制15位
所以能描述的数值精度不同。
c语言 数据 用 IEEE 754 国际标准。
float 型 用 4 字节存放,double 型 用 8 字节存放。
Single Precision 2进制: 数符1位,指数8 位,尾数 23 位
Double Precision 2进制: 数符1位,指数11 位,尾数 52 位
单精数值范围: ± ~10的-44.85次方 到 约 10的38.53次方
双精度数值范围 ± ~10的-323.3 次方 to 约 10的 308.3次方。
float a=1.234567;
double b=1.2345678901234;
-------------
10%3 整除取余数,得 1。
1 用 float 和 double 表示,精度没有区别。
a=(float)(10%3); b=(double)(10%3);
强制转换 要带 小括号。
float 精度
首先加上头文件#include <iomanip>
然后在输出时(假设定义了float a,b)
加上cout<<setprecision(2)<<a/b;
其中setprecision(2)为保留两位小数,不足两位时,有几为显示几位
一个C++菜鸟的问题 float double的精度是多少含小数点
1 范围
float和double的范围是由指数的位数来决定的。
float的指数位有8位,而double的指数位有11位,分布如下:
float:
1bit(符号位)
8bits(指数位)
23bits(尾数位)
double:
1bit(符号位)
11bits(指数位)
52bits(尾数位)
在数学中,特别是在计算机相关的数字(浮点数)问题的表述中,有一个基本表达法[1]:
value of floating-point = significand x base ^ exponent , with sign --- F.1
译为中文表达即为:
(浮点)数值 = 尾数 × 底数 ^ 指数,(附加正负号)---------------- F.2
于是,float的指数范围为-127~128,而double的指数范围为-1023~1024,并且指数位是按补码的形式来划分的。
其中负指数决定了浮点数所能表达的绝对值最小的数;而正指数决定了浮点数所能表达的绝对值最大的数,也即决定了浮点数的取值范围。
float的范围为-2^128 ~ +2^128,也即-3.40E+38 ~ +3.40E+38;double的范围为-2^1024 ~ +2^1024,也即-1.79E+308 ~ +1.79E+308。
2 精度
float和double的精度是由尾数的位数来决定的。
浮点数在内存中是按科学计数法来存储的,其整数部分始终是一个隐含着的“1”,由于它是不变的,故不能对精度造成影响。
float:2^23 = 8388608,一共七位,这意味着最多能有7位有效数字,但绝对能保证的为6位,也即float的精度为6~7位有效数字;
double:2^52 = 4503599627370496,一共16位,同理,double的精度为15~16位。
单精度类型(float)和双精度类型(double)存储
2009-11-24 13:57
C 语言和C#语言中,对于浮点类型的数据采用单精度类型(float)和双精度类型(double)来存储,float数据占用32bit, double数据占用64bit,我们在声明一个变量float f= 2.25f的时候,是如何分配内存的呢?如果胡乱分配,那世界岂不是乱套了么,其实不论是float还是double在存储方式上都是遵从IEEE的规范 的,float遵从的是IEEE R32.24 ,而double 遵从的是R64.53。
无论是单精度还是双精度在存储中都分为三个部分:
符号位(Sign) : 0代表正,1代表为负
指数位(Exponent):用于存储科学计数法中的指数数据,并且采用移位存储
尾数部分(Mantissa):尾数部分
其中float的存储方式如下图所示:
而双精度的存储方式为:
R32.24和R64.53的存储方式都是用科学计数法来存储数据的,比如8.25用十进制的科学计数法表示就为:8.25*100,而120.5可以表示为:1.205*102, 这些小学的知识就不用多说了吧。
而我们傻蛋计算机根本不认识十进制的数据,他只认识0,1,所以在计算机存储中,首先要将上面的数更改为二进制的科学计数 法表示,8.25用二进制表示可表示为1000.01,我靠,不会连这都不会转换吧?那我估计要没辙了。
120.5用二进制表示为:1110110.1用 二进制的科学计数法表示1000.01可以表示为1.0001*23,1110110.1可以表示为1.1101101*26,任何一个数都的科学计数法表示都为1.xxx*2n, 尾数部分就可以表示为xxxx,第一位都是1嘛,干嘛还要表示呀?可以将小数点前面的1省略,所以23bit的尾数部分,可以表示的精度却变成了 24bit,道理就是在这里,那24bit能精确到小数点后几位呢,我们知道9的二进制表示为1001,所以4bit能精确十进制中的1位小数点, 24bit就能使float能精确到小数点后6位,而对于指数部分,因为指数可正可负,8位的指数位能表示的指数范围就应该为:-127-128了,所以 指数部分的存储采用移位存储,存储的数据为元数据+127,下面就看看8.25和120.5在内存中真正的存储方式。
首先看下8.25,用二进制的科学计数法表示为:1.0001*23
按照上面的存储方式,符号位为:0,表示为正,指数位为:3+127=130 ,位数部分为,故8.25的存储方式如下图所示:
而单精度浮点数120.5的存储方式如下图所示:
那 么如果给出内存中一段数据,并且告诉你是单精度存储的话,你如何知道该数据的十进制数值呢?其实就是对上面的反推过程,比如给出如下内存 数据:0100001011101101000000000000,首先我们现将该数据分段,0 10000 0101 110 1101 0000 0000 0000 0000,在内存中的存储就为下图所示:
根据我们的计算方式,可以计算出,这样一组数据表示为:1.1101101*26=120.5
而双精度浮点数的存储和单精度的存储大同小异,不同的是指数部分和尾数部分的位数。
所以这里不再详细的介绍双精度的存储方式了,只将120.5的最后存储方式图给出,大家可以仔细想想为何是这样子的
下面我就这个基础知识点来解决一个我们的一个疑惑,请看下面一段程序,注意观察输出结果
float f = 2.2f;
double d = (double)f;
Console.WriteLine(d.ToString("0.0000000000000"));
f = 2.25f;
d = (double)f;
Console.WriteLine(d.ToString("0.0000000000000"));
可 能输出的结果让大家疑惑不解,单精度的2.2转换为双精度后,精确到小数点后13位后变为了2.2000000476837,而单精度的 2.25转换为双精度后,变为了2.2500000000000,为何2.2在转换后的数值更改了而2.25却没有更改呢?很奇怪吧?其实通过上面关于两 种存储结果的介绍,我们已经大概能找到答案。
首先我们看看2.25的单精度存储方式,很简单 0 1000 0001 001 0000 0000 0000 0000 0000,而2.25的双精度表示为:0 100 0000 0001 0010 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000,这样2.25在进行强制转换的时候,数值是不会变的,而我们再看看2.2呢,2.2用科学计数法表示应该为:将十进制的小数转换为二进制的小数 的方法为将小数*2,取整数部分,所以0.282=0.4,所以二进制小数第一位为0.4的整数部分0,0.4×2=0.8,第二位为0,0.8*2= 1.6,第三位为1,0.6×2 = 1.2,第四位为1,0.2*2=0.4,第五位为0,这样永远也不可能乘到=1.0,得到的二进制是一个无限循环的排列 00110011001100110011... ,对于单精度数据来说,尾数只能表示24bit的精度,所以2.2的float存储为:
但 是这样存储方式,换算成十进制的值,却不会是2.2的,应为十进制在转换为二进制的时候可能会不准确,如2.2,而double类型的数 据也存在同样的问题,所以在浮点数表示中会产生些许的误差,在单精度转换为双精度的时候,也会存在误差的问题,对于能够用二进制表示的十进制数据,如 2.25,这个误差就会不存在,所以会出现上面比较奇怪的输出结果。