Вселенная в зеркале заднего вида. Был ли Бог правшой? Или скрытая симметрия, антивещество и бозон Хиггса - стр. 36
В 1948 году Клод Шеннон, исследователь из лабораторий Белла, основал научную отрасль под названием «теория информации». Подобно тому как квантовая механика сделала физически возможным существование современной вычислительной техники, теория информации произвела переворот в криптографии и коммуникациях и сделала возможными новаторские решения вроде Интернета.
Один из главных результатов теории информации состоит в том, что информация тесно взаимосвязана с энтропией. Подобно тому, как энтропия газа описывает количество способов, какими молекулы можно переставить, информация сигнала описывает количество разных посланий, которые можно передать.
Представим себе, что я отправляю послание длиной ровно в две буквы. В принципе, поскольку в английском алфавите 26 букв, я мог бы передать вам 26 × 26 = 676 разных посланий, однако большинство подобных буквосочетаний совершенно бессмысленны. Двухбуквенных слов совсем немного (в словаре для игры в «Скрабл»[33] их 101).
Если среди вас есть специалисты по информатике, отмечу, что это значит, что хотя в принципе для дифференциации всех возможных комбинаций из двух букв потребуется около 10 бит (единиц и нулей, используемых для хранения данных), если вы знаете, что передаете слово, достаточно всего 7 бит. Экономия!
Коммуникацию можно значительно сократить, если отметить, что некоторые буквы используются гораздо реже прочих. Например, в английском языке Е встречается значительно чаще, чем Z. Если играешь в «виселицу», простое знание, что в слове есть Z, резко сокращает число вариантов. Вот почему Е в «Скрабле» стоит всего одно очко, а Z – целых десять, и вот почему Е в азбуке Морзе обозначается ., а Z – . ..
Отстучать Z занимает заметно больше времени, но это не страшно, потому что это приходится делать гораздо реже. Чем сложнее (или непредсказуемее) послание, тем больше информации в нем содержится и тем больше байтов данных потребуется, чтобы хранить его в компьютере.
Что заставляет нас вернуться к демону Максвелла. Давайте уберем из уравнения нейрофизиологию и предположим, что Демон на самом деле какой-то фантастический робот, который хранит свои данные в цифровом виде. Компьютерная память – это последовательность нулей и единиц. Неважно, есть у нас на диске файлы или нет, главное – что существует конечное количество разных комбинаций нулей и единиц, которые можно хранить. Какое именно это число, можно подсчитать, если умножать 2 × 2 × 2… – по двойке на каждый бит на диске. Чем больше битов, тем больше разных комбинаций.
Каждый раз, когда демону надо решить, пропускать ли в дверцу очередную молекулу, он измеряет ее скорость и записывает результат. А теперь предположим, что у него есть особый диск, очень маленький, отведенный исключительно для того, чтобы хранить запись скорости молекулы до тех пор, пока не будет принято решение, пропускать ли ее в дверцу. В начале эксперимента все регистры на диске стоят в положении «ноль» – конфигурация с очень низкой энтропией.
С другой стороны, если диск наполнен случайным на вид набором нулей и единиц, там либо содержится уйма информации, либо набор действительно случаен и это просто высокий уровень энтропии.
Однако наш демон начинает с чистого листа.
К дверце подлетает первая молекула, демон измеряет ее скорость, прилежно сохраняет данные на диск и решает пропустить молекулу. Подлетает вторая молекула, но тут – вот досада! – диск оказывается полностью забит данными первого измерения. У демона не остается выхода: приходится стереть первую запись, прежде чем можно будет продолжать работу, и именно тут мысленный эксперимент Максвелла терпит полный крах.