На заре компьютерной эры на каждый символ было отведено по пять бит. Это было связано с малым количеством оперативной памяти на компьютерах тех лет. В эти символа входили только управляющие символы и строчные буквы английского алфавита.
Достаточный алфавит к. 256 = 28, то вес 1 символа – 8 бит. Единице в 8 бит присвоили свое название — байт.
Таким образом, для кодирования одного символа потребуется 4 бита.
Почему для кодирования 1-го символа нужен именно 1 байт? Я прекрасно понимаю, что минимальная единица информации — 1 бит и чтобы выразить 255 символов в двоичном коде надо использовать 8 бит.
Добавить комментарий