Почему энтропию не стоит считать беспорядком

энтропия, космос, хаос

Энтропия была введена в физику и до сих пор существует как теоретический предел возможности извлечения энергии из системы, и количество забытых на столе чашек и разбросанных носков тут совершенно не причём. Ну сами подумайте. Это же физика. Наука. Чем вы будете мерить степень беспорядка в комнате? Так, чтобы можно было цифрами выразить. Субъективное ведь понятие.

 

Для понимания приведу задачу.

 

Давным давно в далёкой галактике, в центре огромного воида летели два астероида. Один большой и один поменьше. Они столкнулись. Напомню, всё это в центре воида. Все внешние силы и даже гравитация настолько малы, что о замкнутости системы мы можем утверждать. И вот эти два астероида столкнулись.

 

Возможны две ситуации:

1) они разлетелись на 1000 осколков;

2) они слиплись.

энтропия, космос, хаос

Где энтропия повысилась сильнее и почему?

 

Люди, привыкшие к метафоре «энтропия – мера беспорядка» чаще всего называют в качестве правильного ответа первый вариант. Он выглядит верным интуитивно. Отчего больше хаоса, от одинокого астероида или от болтающихся туда-сюда тысячи осколков?

 

Но давайте подумаем, что дальше с этими кусками произойдёт? Система замкнута — никаких внешних сил нет. А между кусками действует гравитация. Да, маленькая. Но в воиде им летать миллиарды лет. Они будут притягиваться друг к другу. Они будут слетаться вместе, снова соударяться, временами слипаться.

 

Каждый такой удар — выделение тепла и рост энтропии. То есть энтропия такой системы будет постоянно расти. А конечный результат через миллиарды лет — один слипшийся комок. Ровно то, что в варианте со слипанием от первого соударения мы получили сразу.

 

Главная мера повышения энтропии — количество выделившегося тепла — а не носок, висящий на люстре. Потому энтропия при слипании метеоритов и повышается намного больше, чем при дроблении. Выделение тепла при неупругом соударении на порядок больше, чем при упругом.

 

Стоит, однако, помнить, что сейчас слово «энтропия» приобрело более широкое значение. Изначально этот термин был введен для описания того, как теплота переходит в другие виды энергии. Сейчас понятие энтропии применяется не только в термодинамике, но и в других областях, таких как экономика, социология, теория информации.

 

Например, для теории информации ввели понятие информационной энтропии. Но информационная энтропия- это уже совсем другая величина, которую ни в коем случае не стоит смешивать в одну кучу с физической. В информатике энтропия — это наша способность предсказать сообщение.

 

Вот вам пример из криптографии:
приходит нам по незащищённому протоколу часть сообщения:
hel… 3 буквы, сообщение ещё не передано. Можем ли мы сказать — какая следующая буква нам придёт? Ну — предположить?

 

С некоторой вероятностью нам говорят про ад. Значит буква l, но если мы исследуем большой набор сообщений (да и без этого) мы сможем с высокой вероятностью заключить, что с нами здороваются и почти наверняка следующей будет тоже l (слово hello)

 

В этом случае информатики говорят, что у 4-й буквы НИЗКАЯ энтропия. Мы можем выделить несколько букв, которые почти наверняка НЕ будут идти после этих 3-х. А есть ряд букв (особенно l), которые почти наверняка БУДУТ идти за этими. Всё предсказуемо с большой степенью вероятности.

 

Но если это сообщение зашифровать, то придёт нам что-то типа 0x03, 0x7f, 0x44

 

И теперь мы вообще ничего не сможем говорить о непришедшем пока 4-м символе. С одинаковой вероятностью это может быть любое число от 0 до 255 (если символы кодируются байтами). Полная неопределённость с точки зрения информатики — это максимальная энтропия. Ну а теперь постарайтесь увязать неопределённость информации с мерой необратимого рассеяния энергии. У меня не получается.

 

Хаос — очень вредная аналогия для понимания физической энтропии. Его каждый воспринимает по-своему. Возможность выжать из системы энергию — куда как более измеримая, понятная и непротиворечивая трактовка. А убираетесь ли вы в комнате или разбрасываете носки во все стороны, вы всё равно увеличиваете энтропию, так как в процессе трудов своих, выделяете тепло.