logo
M_2_2_2_razdatka-teor

Цифровое кодирование символов

Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или соответствующего ему двоичного кода от 00000000 до 11111111

Присвоение символу определенного кода – это вопрос соглашения, которое фиксируется в кодовой таблице. В качестве международного стандарта была принята кодовая таблица ASCII (American Standard Code for Information Interchange).

Коды с 0 по 32 (первые 33 кода) - коды операций (перевод строки, ввод пробела, т.е. соответствуют функциональным клавишам);

Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания;

Коды с 128 по 255 – национальные, т.е. кодировка национального алфавита.

На 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов. Это те символы, которые можно вводить - Alt+код с цифровой клавиатуры.

В настоящий момент существует несколько кодировок кириллицы: Windows-1251 (CP1251), KOI8-R, CP866, UTF-8 и UTF-16 (Unicode), ISO-8859-5, Mac.

С 1997 года появился новый международный стандарт Unicode, который отводит для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных символов. Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, множество математических, музыкальных, химических и прочих символов.