我在日常工作中使用C语言中的位域(bit field)的场景甚少,原因大致有二:
* 一直从事于服务器后端应用的开发,现在的服务器的内存容量已经达到了数十G的水平,我们一般不需要为节省几个字节而使用内存布局更加紧凑的位域。
* 结构体中位域的实现是平台相关或Compiler相关的,移植性较差,我们不会贸然地给自己造“坑”的。
不过近期Linux技术内核社区(www.linux-kernel.cn) mail list中的一个问题让我觉得自己对bit field的理解还欠火候,于是乎我又花了些时间就着那个问题重新温习一遍bit field。
零、对bit field的通常认知
在C语言中,我们可以得到某个字节的内存地址,我们具备了操作任意内存字节的能力;在那个内存空间稀缺的年代,仅仅控制到字节级别还不足以满足C 程序员的胃口,为此C语言中又出现了bit级别内存的“有限操作能力” – 位域。这里所谓的“有限”指的是机器的最小粒度寻址单位是字节,我们无法像获得某个字节地址那样得到某个bit的地址,因此我们仅能通过字节的运算来设置 和获取某些bit的值。在C语言中,尝试获得一个bit field的地址是非法操作:
struct flag_t {
int a : 1;
};
struct flag_t flg;
printf("%p\n", &flg.a);
error: cannot take address of bit-field ‘a’
以下是C语言中bit field的一般形式:
struct foo_t {
unsigned int b1 : n1,
b2 : n2,
… …
bn : nk;
};
其中n1,n2,nk为对应位域所占据的bit数。
位域(bit field)的出现让我们可以用变量名代表某些bit,并通过变量名直接获得和设置一些内存中bit的值,而不是通 过晦涩难以理解的位操作来进行,例如:
struct foo_t {
unsigned int a : 3,
b : 2,
c : 4;
};
struct foo_t f;
f.a = 3;
f.b = 1;
f.c = 12;
另外使用位域我们可以在展现和存储相同信息的同时,自定义更加紧凑的内存布局,节约内存的使用量。这使得bit field在嵌入式领域,在驱动程序领域得到广泛的应用,比如可以仅用两个字节就可以将tcpheader从dataoffset到fin的信息全部表示 和存储起来:
struct tcphdr {
… …
__u16 doff:4,
res1:4,
cwr:1,
ece:1,
urg:1,
ack:1,
psh:1,
rst:1,
syn:1,
fin:1;
… …
};
一、存储单元(storage unit)
C标准允许unsigned int/signed int/int类型的位域声明,C99中加入了_Bool类型的位域。但像Gcc这样的编译器自行加入了一些扩展,比如支持short、char等整型类 型的位域字段,使用其他类型声明位域将得到错误的结果,比如:
struct flag_t {
char* a : 1;
};
error: bit-field ‘a’ has invalid type
C编译器究竟是如何为bit field分配存储空间的呢?我们以Gcc编译器(Ubuntu 12.04.2 x86_64 Gcc 4.7.2 )为例一起来探究一下。
我们先来看几个基本的bit field类型的例子:
struct bool_flag_t {
_Bool a : 1,
b : 1;
};
struct char_flag_t {
unsigned char a : 2,
b : 3;
};
struct short_flag_t {
unsigned short a : 2,
b : 3;
};
struct int_flag_t {
int a : 2,
b : 3;
};
int
main()
{
printf("%ld\n", sizeof(struct bool_flag_t));
printf("%ld\n", sizeof(struct char_flag_t));
printf("%ld\n", sizeof(struct short_flag_t));
printf("%ld\n", sizeof(struct int_flag_t));
return 0;
}
编译执行后的输出结果为:
1
1
2
4
可以看出Gcc为不同类型的bit field分配了不同大小的基本内存空间。_Bool和char类型的基本存储空间为1个字节;short类型的基本存储空间为2个字节,int型的为4 个字节。这些空间的分配是基于结构体内部的bit field的size没有超出基本空间的界限为前提的。以short_flag_t为例:
struct short_flag_t {
unsigned short a : 2,
b : 3;
};
a、b两个bit field总共才使用了5个bit的空间,所以Compiler只为short_flag_t分配一个基本存储空间就可以存储下这两个bit field。如果bit field的size变大,size总和超出基本存储空间的size时,编译器会如何做呢?我们还是看例子:
struct short_flag_t {
unsigned short a : 7,
b : 10;
};
将short_flag_t中的两个bit字段的size增大后,我们得到的sizeof(struct short_flag_t)变成了4,显然Compiler发现一个基础存储空间已经无法存储下这两个bit field了,就又为short_flag_t多分配了一个基本存储空间。这里我们所说的基本存储空间就称为“存储单元(storage unit)”。它是Compiler在给bit field分配内存空间时的基本单位,并且这些分配给bit field的内存是以存储单元大小的整数倍递增的。但从上面来看,不同类型bit field的存储单元大小是不同的。
sizeof(struct short_flag_t)变成了4,那a和b有便会有至少两种内存布局方式:
* a、b紧邻
* b在下一个可存储下它的存储单元中分配内存
具体采用哪种方式,是Compiler相关的,这会影响到bit field的可移植性。我们来测试一下Gcc到底采用哪种方式:
void
dump_native_bits_storage_layout(unsigned char *p, int bytes_num)
{
union flag_t {
unsigned char c;
struct base_flag_t {
unsigned int p7:1,
p6:1,
p5:1,
p4:1,
p3:1,
p2:1,
p1:1,
p0:1;
} base;
} f;
for (int i = 0; i < bytes_num; i++) {
f.c = *(p + i);
printf("%d%d%d%d %d%d%d%d ",
f.base.p7,
f.base.p6,
f.base.p5,
f.base.p4,
f.base.p3,
f.base.p2,
f.base.p1,
f.base.p0);
}
printf("\n");
}
struct short_flag_t {
unsigned short a : 7,
b : 10;
};
struct short_flag_t s;
memset(&s, 0, sizeof(s));
s.a = 113; /* 0111 0001 */
s.b = 997; /* 0011 1110 0101 */
dump_native_bits_storage_layout((unsigned char*)&s, sizeof(s));
编译执行后的输出结果为: 1000 1110 0000 0000 1010 0111 1100 0000。可以看出Gcc采用了第二种方式,即在为a分配内存后,发现该存储单元剩余的空间(9 bits)已经无法存储下字段b了,于是乎Gcc又分配了一个存储单元(2个字节)用来为b分配空间,而a与b之间也因此存在了空隙。
我们还可以通过匿名0长度位域字段的语法强制位域在下一个存储单元开始分配,例如:
struct short_flag_t {
unsigned short a : 2,
b : 3;
};
这个结构体本来是完全可以在一个存储单元(2字节)内为a、b两个位域分配空间的。如果我们非要让b放在与a不同的存储单元中,我们可以通过加入 匿名0长度位域的方法来实现:
struct short_flag_t {
unsigned short a : 2;
unsigned short : 0;
unsigned short b : 3;
};
这样声明后,sizeof(struct short_flag_t)变成了4。
struct short_flag_t s;
memset(&s, 0, sizeof(s));
s.a = 2; /* 10 */
s.b = 4; /* 100 */
dump_native_bits_storage_layout((unsigned char*)&s, sizeof(s));
执行后,输出的结果为:
0100 0000 0000 0000 0010 0000 0000 0000
可以看到位域b被强制放到了第二个存储单元中。如果没有那个匿名0长度的位域,那结果应该是这样的:
0100 1000 0000 0000
最后位域的长度是不允许超出其类型的最大长度的,比如:
struct short_flag_t {
short a : 17;
};
error: width of ‘a’ exceeds its type
二、位域的位序
再回顾一下上一节的最后那个例子(不使用匿名0长度位域时):
struct short_flag_t s;
memset(&s, 0, sizeof(s));
s.a = 2; /* 10 */
s.b = 4; /* 100 */
dump bits的结果为0100 1000 0000 0000。
怎么感觉输出的结果与s.a和s.b的值对不上啊!根据a和b的值,dump bits的输出似乎应该为1010 0000 0000 0000。对比这两个dump结果不同的部分:1010 0000 vs. 0100 1000,a和b的bit顺序恰好相反。之前一直与字节序做斗争,难不成bit也有序之分?事实就是这样的。bit也有order的概念,称为位序。位域字 段的内存位排序就称为该位域的位序。
我们来回顾一下字节序的概念,字节序分大端(big-endian,典型体系Sun Sparc)和小端(little-endian,典型体系Intel x86):
大端指的是数值(比如0×12345678)的逻辑最高位(0×12)放在起始地址(低地址)上,简称高位低址,就是高位放在起始地址。
小端指的是数值(比如0×12345678)的逻辑最低位(0×78)放在起始地址(低地址)上,简称低位低址,就是低位放在起始地址。
看下面例子:
int
main()
{
char c[4];
unsigned int i = 0×12345678;
memcpy(c, &i, sizeof(i));
printf("%p – 0x%x\n", &c[0], c[0]);
printf("%p – 0x%x\n", &c[1], c[1]);
printf("%p – 0x%x\n", &c[2], c[2]);
printf("%p – 0x%x\n", &c[3], c[3]);
}
在x86 (小端机器)上输出结果如下:
0x7fff1a6747c0 – 0×78
0x7fff1a6747c1 – 0×56
0x7fff1a6747c2 – 0×34
0x7fff1a6747c3 – 0×12
在sparc(大端机器)上输出结果如下:
ffbffbd0 – 0×12
ffbffbd1 – 0×34
ffbffbd2 – 0×56
ffbffbd3 – 0×78
通过以上输出结果可以看出,小端机器的数值低位0×78放在了低地址0x7fff1a6747c0上;而大端机器则是将数值高位0×12放在了低 地址0xffbffbd0上。
机器的最小寻址单位是字节,bit无法寻址,也就没有高低地址和起始地址的概念,我们需要定义一下bit的“地址”。以一个字节为例,我们把从左到右的8个bit的位置(position)命名按顺序命名如下:
p7 p6 p5 p4 p3 p2 p1 p0
其中最左端的p7为起始地址。这样以一字节大小的数值10110101(b)为例,其在不同平台下的内存位序如下:
大端的含义是数值的最高位1(最左边的1)放在了起始位置p7上,即数值10110101的大端内存布局为10110101。
小端的含义是数值的最低位1(最右边的1)放在了起始位置p7上,即数值10110101的小端内存布局为10101101。
前面的函数dump_native_bits_storage_layout也是符合这一定义的,即最左为起始位置。
同理,对于一个bit个数为3且存储的数值为110(b)的位域而言,将其3个bit的位置按顺序命名如下:
p2 p1 p0
其在大端机器上的bit内存布局,即位域位序为: 110;
其在小端机器上的bit内存布局,即位域位序为: 011。
在此基础上,理解上面例子中的疑惑就很简单了。
s.a = 2; /* 10(b) ,大端机器上位域位序为 10,小端为01 */
s.b = 4; /* 100(b),大端机器上位域位序为100,小端为001 */
于是在x86(小端)上的dump bits结果为:0100 1000 0000 0000
而在sparc(大端)上的dump bits结果为:1010 0000 0000 0000
同时我们可以看出这里是根据位域进行单独赋值的,这样位域的位序是也是以位域为单位排列的,即每个位域内部独立排序, 而不是按照存储单元(这里的存储单元是16bit)或按字节内bit序排列的。
三、tcphdr定义分析
前面提到过在linux-kernel.cn mail list中的那个问题大致如下:
tcphdr定义中的大端代码:
__u16 doff:4,
res1:4,
cwr:1,
ece:1,
urg:1,
ack:1,
psh:1,
rst:1,
syn:1,
fin:1;
问题是其对应的小端代码该如何做字段排序?似乎有两种方案摆在面前:
方案1:
__u16 res1:4,
doff:4,
fin:1,
syn:1,
rst:1,
psh:1,
ack:1,
urg:1,
ece:1,
cwr:1;
or
方案2:
__u16 cwr:1,
ece:1,
urg:1,
ack:1,
psh:1,
rst:1,
syn:1,
fin:1,
res1:4
doff:4;
个人觉得这两种方案从理论上都是没错的,关键还是看tcphdr是如何进行pack的,是按__u16整体打包,还是按byte打包。原代码中使用的是方 案1,推测出tcphdr采用的是按byte打包的方式,这样我们只需调换byte内的bit顺序即可。res1和doff是一个字节内的两个位域,如果 按自己打包,他们两个的顺序对调即可在不同端的平台上得到相同的结果。用下面实例解释一下:
假设在大端系统上,doff和res1的值如下:
doff res1
1100 1010 大端
在大端系统上pack后,转化为网络序:
doff res1
1100 1010 网络序
小端系统接收后,转化为本地序:
0101 0011
很显然,我们应该按如下方法对应:
res1 doff
0101 0011
也就相当于将doff和res1的顺序对调,这样在小端上依旧可以得到相同的值。
评论