Цитата Сообщение от NuFunnya Посмотреть сообщение
То есть, если я правильно понял, то некий единичный символ (читай - знак, например, буква) всегда является носителем информации. И в таком случае информация = 100%, энтропия = 0%

А вот сочетание нескольких символов - это уже неизвестно, все будет зависеть от адресата и адресанта, шумов канала, шумов кодирования-декодирования?
Информация - это возможность выбора из некотрого количества вариантов. Если с вероятностью 100% известно, что буква всегда одна и та же - информация равна 0. Если буква может быть, а может и не быть, имеем 1 бит информации. Применительно к листу бумаги, он может быть чистым, а может не быть.