Теория:

Как тебе уже известно компьютер может обрабатывать информацию, представленную только в двоичном коде. Давай рассмотрим как в памяти компьютера хранится текстовая информация.
Кодирование — это процесс перевода информации из формы понятной человеку (текст, изображения, видео и т. д.) в некоторый код.
Декодирование — это процесс перевода информации из кода в форму понятную человеку.
Код — это условные знаки для представления информации.
Для кодирования текста используются специальные кодовые таблицы.
 
Таблица ASCII (American standard code for information interchange) — это кодовая таблица, которая была создана в \(1963\) года в США, стала первым мировым стандартом.
 
В ней находились коды для \(128\) символов, соответственное один символ весит \(7\) бит.
 
Коды первых \(128\) символов не измены, в каждой стране они одинаковые. В символы от \(0\) до \(128\) входят специальные символы, цифры, латинские буквы.
 
Далее таблица ASCII расширяется до \(256\) символов, в каждой стране она индивидуальна, символы от \(129\) до \(256\) — это национальный алфавит и др. символы.
 
Скриншот 24-11-2021 142444.jpg
Рис. \(1\). Фрагмент таблицы ASCII
 
Но и \(256\) символов было недостаточно. Сейчас на многих компьютерах используют кодировку Unicode (Юникод), где каждый символ кодируется \(2\) байтами.
 
Давай вычислим сколько символов содержит Unicode.
 
\(2\) байта \(=\) \(16\) бит
 
Вычислим мощность алфавита по известной нам формуле:
 
N=2iN=216N=65536
 
С помощью Unicode можно закодировать \(65536\) символов.
Источники:
Рис. 1. Фрагмент таблицы ASCII. © ЯКласс.