比特(bit)是计算机的最小单位,它的值是0或1。 我们计算机储存的,网络发送的数据包,本质上都是0和1的组合。 多个bit组合在一起就可以表示出不同的值,如:
| bit数量 | 可以表示的值 |
|---|---|
| 1 | 0 1 |
| 2 | 00 01 10 11 |
| 3 | 000 001 010 011 100 101 110 111 |
也就是N个bit可以表示出2的N次方的值。
最开始计算机只是处理数据运算,也就是0-9,加上运算符号,4bit足够了。 4位BCD编码表示数字还可以,但表示字母或符号就很不好用,需要用多个编码来表示。 后来又演变出6位的BCD编码(BCDIC),以及至今仍在广泛使用的7位ASCII编码。
IBM为System/360设计了一套8位EBCDIC编码,涵盖了数字、大小写字母和大部分常用符号,同时又兼容广泛用于打孔卡的6位BCDIC编码。System/360很成功,也奠定了字符存储单位采用8位长度的基础,这就是1字节=8位的由来。所谓字节,原意就是用来表示一个完整的字符的。
弗雷德里克·布鲁克斯在哈佛大学取得博士学位以后,进入IBM公司设立在纽约波凯普茜(Poughkeepsie,NewYork)的实验室当工程师。这个实验室从20世纪50年代到80年代一直是IBM公司开发计算机的中心。
布鲁克斯在这里参加了Harvest和STRETCH计算机的开发,任体系结构设计师。这两个型号的计算机都引入了一些新技术,在20世纪50年代后期至60年代初期有很大影响,尤其是STRETCH计算机,当前已成标准的8个二进制位的“字节”(byte)就是由布赫霍尔兹(WernerBuchholz)提出,在STRETCH上首次采用的。