Например для кодирования числа до 255 можно использовать один байт в соответствии с двоичной системой, однако для маркировки иных символов стоило бы занять ряд значений.
Тогда буква маркировалась бы значением 11111111, означающим что следующий за маркером байт буквенный, включающий в свою очередь все единичные буквы и некоторые из сочетания, а что не вошло в байт так же маркируется.
Таким образом система кодирования сократила бы объем затраченных на хранение информации ресурсов.
Существует ли поробная система кодирования, и реально ли с ее помощью "сжать" информацию?