Сообщение от
NuFunnya
Спасибо!
Под "чистым листом" я имел ввиду лист без символов - канал информации, не передающий никакую информацию. Абсолютная тишина, абсолютная темнота - как аналоги.
То есть, если я правильно понял, то некий единичный символ (читай - знак, например, буква) всегда является носителем информации. И в таком случае информация = 100%, энтропия = 0%
А вот сочетание нескольких символов - это уже неизвестно, все будет зависеть от адресата и адресанта, шумов канала, шумов кодирования-декодирования?
То есть, получение новых знаний всегда увеличивает энтропию? С этим примерно понятно.
Я всегда думал, что энтропия - это мера хаоса. Тогда не вполне ясно, почему отсутствие новых/полезных знаний несет в себе нулевую энтропию. Разве дублирование информации не увеличивает хаос? (прошу прощения, если вопрос построен коряво, надеюсь, смысл его ясен).
PS Начинаю понимать ))) Ответы на мой вопрос увеличили энтропию, потому что вызвали за собой цепочку новых вопросов, так? ))