Чтение онлайн

ЖАНРЫ

Битва при черной дыре. Мое сражение со Стивеном Хокингом за мир, безопасный для квантовой механики
Шрифт:

Зачем нам эти трудности с переводом информации в точки и тире, нули и единицы? Почему не использовать последовательность 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, а ещё лучше буквы алфавита? Сообщения было бы проще читать, и они занимали бы гораздо меньше места.

Суть в том, что буквы алфавита (как и десять обычных цифр) — это человеческое изобретение, которые мы обучаемся распознавать и хранить в памяти. Но каждая буква или цифра несёт сразу много информации за счёт весьма тонкой разницы между буквами А и Б или цифрами 5 и 8. Телеграфисты и компьютерщики, которые полагаются только на простейшие математические правила, предпочитают — на самом деле они просто вынуждены — использовать двоичный код из точек и тире или нулей и единиц. Между прочим, когда Карл Саган разрабатывал систему для отправки сообщений негуманоидным цивилизациям, живущим в далёких планетных системах, он использовал двоичный код.

Вернёмся к королю

Кнуду. Сколько из 110-битных сообщений будут связными? На самом деле я не знаю, возможно, несколько миллиардов. Но всё равно это — чрезвычайно малая доля от 2110. Так что почти наверняка если вы возьмёте 110 битов или 37 букв фразы «У короля Кнуда была бородавка на подбородке» и перемешаете их, результатом будет абракадабра. Вот что я получил, когда проделал это с фишками «Эрудита» (выкинув пробелы):

ОРКЫУРООЛО ДАДВЛБОНБРЕ ДКБКАУАОЯНАОКДПА

Допустим, вы перемешивали буквы совсем недолго. Сообщение лишь слегка утратит связность. «У кролоя Кнуда была бородавка а подбородкен». Но постепенно буквы будут превращаться во всё менее осмысленную мешанину. Бессмысленных комбинаций так много, что сползание к абракадабре неизбежно.

Теперь я могу дать определение энтропии. Энтропия — это мера числа вариантов, которые соответствуют некоему конкретному распознаваемому критерию. Если критерий состоит в наличии 110 битов, тогда число вариантов составляет 2110.

Но энтропия — это не само число вариантов, в данном случае — не 2110. Она равна просто 110 — числу раз, сколько надо помножить на себя двойку, чтобы получить количество вариантов. В математике количество перемножений двойки на себя, необходимое для получения определённого числа, называют логарифмом [63] . Так, 110 — это логарифм 2110. Энтропия, таким образом, — это логарифм числа вариантов.

Из 2110 возможностей лишь очень небольшая доля представляет собой осмысленные фразы. Допустим, что их миллиард. Чтобы получить миллиард, надо возвести двойку в 30-ю степень. Иными словами, миллиард — это около 230, или, что эквивалентно, логарифм миллиарда равен 30. Отсюда следует, что энтропия осмысленного предложения всего лишь около 30, что намного меньше 110. Бессмысленные цепочки символов, очевидно, имеют большую энтропию, чем комбинации, составляющие осмысленные фразы. Неудивительно, что энтропия возрастает, когда буквы перемешиваются.

63

Строго говоря, это логарифм по основанию 2. Есть и другие определения логарифма. Например, вместо числа двоек можно взять количество десяток, которые надо перемножить, чтобы получить заданное число. Это будет определением логарифма по основанию 10. Нечего и говорить, что десяток для получения заданного числа понадобится меньше, чем двоек. Формальное физическое определение энтропии — это число раз, которое нужно перемножить на себя математическую постоянную e. Это «экспоненциальное» число примерно равно e2,71828183. Иными словами, энтропия — это натуральный логарифм, или логарифм по основанию e, тогда как число битов (110 в нашем примере) — это логарифм по основанию 2. Натуральный логарифм немного меньше числа битов — примерно с коэффициентом 0,7. Так что для пуристов энтропия 110-битного сообщения равна 0,7•110, что составляет около 77. В этой книге я буду игнорировать разницу между битами и энтропией.

Предположим, компания BMW подняла управление качеством до такого уровня, что все автомобили, сходящие с конвейера, абсолютно идентичны. Иными словами, допустим, что существует одна, и только одна комбинация атомов, которая может считаться истинным BMW. Какова будет её энтропия? Ответ — ноль. Когда такой BMW сходит с конвейера, в нём не будет никакой неопределённости. Когда задан единственный уникальный вариант, энтропии вообще нет.

Второе начало термодинамики, которое говорит, что энтропия возрастает, это просто утверждение, что с течением времени мы теряем контроль за деталями. Представьте, что мы уронили крохотную каплю чёрных чернил в ванну с тёплой водой. Вначале мы точно знаем, где находятся чернила. Число возможных конфигураций чернил не так велико. Но по мере того как мы следим за диффузией чернил в воде, мы всё меньше и меньше знаем о местоположении отдельных молекул чернил. Число вариантов, отвечающих тому, что мы видим, а именно в ванне с однородной, слегка посеревшей водой, становится колоссальным. Можно ждать и ждать, но мы не увидим, как чернила вновь соберутся в концентрированную каплю. Энтропия возрастает. Это второе начало термодинамики. Всё стремится к скучной однородности.

Вот

ещё один пример — ванна, полная горячей воды. Как много мы знаем о воде в ванне? Предположим, что она налита в ванну достаточно давно и все заметные течения прекратились. Можно измерить количество воды в ванне (190 литров) и её температуру (32 градуса Цельсия). Но ванна заполнена молекулами вводы, и, очевидно, очень большое число вариантов размещения молекул соответствует заданным условиям — 190 литров воды при 32 градусах Цельсия. Мы сможем узнать намного больше, только если точно обмерим каждый атом.

Энтропия — это мера того, сколь много информации скрыто в деталях, которые по той или иной причине трудно наблюдать. Таким образом, энтропия — это скрытая информация. В большинстве случаев информация бывает скрыта, потому что касается вещей слишком малых, чтобы их увидеть, и слишком многочисленных, чтобы за ними уследить. В случае с водой в ванне это микроскопические подробности, касающиеся молекул воды: положение и движение каждой из миллиардов миллиардов миллиардов молекул воды в ванне.

Что случится с энтропией, если вода охладится до температуры абсолютного нуля? Если отвести от воды всю без исключения энергию, молекулы сами соберутся в уникальную структуру — решётку, которая образует идеальный кристалл льда.

Кристаллическая решётка

И хотя молекулы слишком малы, чтобы их видеть, если вы знакомы со свойствами кристаллов, то сможете предсказать положение каждой молекулы. Идеальный кристалл, подобно идеальному BMW, вообще не имеет энтропии.

Сколько битов можно хранить в библиотеке?

Неоднозначности и тонкие нюансы в использовании языка часто бывают очень важны. Фактически, если бы слова имели идеально точные значения, которые можно заложить в компьютер, язык и литература сильно обеднели бы. Однако научная точность требует высокой степени лингвистической строгости. Слово «информация» означает много разных вещей: «Я думаю, ваша информация ошибочна». «Для информации: у Марса два спутника». «У меня диплом по теории информации». «Вы можете найти эту информацию в Библиотеке Конгресса». В каждом из этих предложений слово «информация» используется по-своему. Только в последнем примере имеет смысл вопрос: «Где находится информация?»

Давайте поразмыслим над этой идеей локализации. Если я скажу вам, что президент Грант похоронен в мавзолее Гранта, вы не усомнитесь, что я сообщил вам порцию информации. Но где находится эта информация? В вашей голове? В моей голове? Она слишком абстрактна, чтобы иметь местоположение? Она рассредоточена по всей Вселенной для использования везде и всеми?

Вот один из очень чётких ответов: информация находится на странице, сохранённая в виде физических букв, состоящих из углерода и других молекул. В этом смысле информация — это конкретный предмет, почти субстанция. Она настолько конкретная, что информация в вашей книге и в моей книге — это разная информация. В вашей книге сообщается, что Грант похоронен в мавзолее Гранта. Вы можете догадываться, что то же самое сказано и в моей книге, но достоверно вам это неизвестно. А вдруг в моей книге сказано, что Грант похоронен в Великой пирамиде в Гизе? На самом деле ни одна книга не содержит этой информации. Информация о том, что Грант похоронен в мавзолее Гранта, находится в мавзолее Гранта.

В том понимании, в каком физики используют это слово, информация состоит из материи [64] и где-то находится. Информация в этой книге — это прямоугольный том, размером 25 сантиметров на 15 сантиметров на 2,5 сантиметра, то есть 25•15•2,5 или примерно 940 кубических сантиметров [65] . Сколько битов информации скрыто между её обложками? В печатной строке хватает места примерно на 70 символов — букв, знаков пунктуации и пробелов. При 37 строках на странице и 350 страницах это будет почти миллион символов.

64

Когда физики используют слово «материя», они имеют в виду не только вещи, состоящие из атомов. Другие элементарные частицы, такие как фотоны, нейтрино и гравитоны, также рассматриваются как материя.

65

Эти размеры — грубая оценка, основанная на размерах предыдущего английского издания этой книги в твёрдом переплёте. Не сомневаюсь, что фактические размеры этой книги окажутся несколько иными. (Размеры при переводе выражены близкими значениями в метрических единицах, а последующие численные оценки соответственно скорректированы. — Прим. перев.)

Поделиться с друзьями: