在看<深入理解计算机操作系统>,遇到下面的代码:
typedef unsigned char* byte_pointer;
void show_bytes(byte_pointer start, int len){
int i;
for( i = 0; i < len; ++i )
printf(" %.2x", start[i]);
printf("\n");
}
这段代码用来打印不同类型数据的字节表示
int x = 100;
show_bytes((byte_pointer)&x, sizeof(int));
const char* s = "abcdef";
show_bytes((byte_pointer)&x, sizeof(s));
对于整型,浮点型等数据,书中提到在不同的系统中,即大端和小端系统中,字节表示是不相同的.但是,对于字符串类型,书中有如下描述:
在使用ASCII码作为字符码的任何系统上都将得到相同的结果,与字节顺序和字大小规则无关.因而,文本数据比二进制数据具有更强的平台独立性.
我的问题是,为什么字符串就会得到相同的结果?仅仅是因为ASCII码只需要一个字节就可以表示? 有点想不明白
我的理解是这样的,大端小端表示可以看做并未用于字符数组,因为每个字符只是单个字节,不存在字节顺序的问题.这样在输出时也就与字节顺序(也就是大端小端)无关,可以这样理解吧
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。