Жизнь VS Энтропия - страница 6
Книга Э. Шредингера заканчивается таким пассажем:
«Физикой управляют статистические законы. В биологии мы встречаемся с совершенно иным положением. Единичная группа атомов, существующая только в одном экземпляре, производит закономерные явления, чудесно настроенные одно в отношении другого и в отношении внешней среды, согласно чрезвычайно тонким законам».
«Единичная группа атомов», о которой идет речь, это молекула дезоксирибонуклеииновой кислоты (ДНК). Это открытое в 1869 году вещество к 1944 году было надежно определено как носитель наследуемых свойств живых организмов. Особенно поразительным было осознание того, что эта молекула есть некий код, в котором записана вся информация о живом организме. Более того, это не просто код, а программа развития зародыша организма в полноценную форму. Вот как об этом написано у Шредингера:
«Но термин шифровальный код, конечно, слишком узок. Хромосомные структуры служат в то же время и инструментом, осуществляющим развитие, которое они же предвещают. Они являются и кодексом законов и исполнительной властью или, употребляя другое сравнение, они являются и планом архитектора и силами строителя в одно и то же время».
Помещенный в соответствующую «вычислительную» среду единственный экземпляр ДНК запускает невероятный с точки зрения статистической физики динамический процесс, нарушающий Второе Начало. Для этого достаточно, чтобы в среде поддерживались определенные физические условия (температура, давление, поток света и т. п.) и содержались достаточно простые компоненты.
Книга Э. Шредингера всего на три года опередила новое революционное событие в науке, связанное с понятием энтропии. В 1948 году американский математик К. Шеннон, исследуя передачи сообщений в больших системах связи, пришел к формуле (3) как меры неопределенности состояний таких систем. Это было предопределено аналогией случайного поведения сообщений и микрочастиц. Знакомство Шеннона с корифеем науки XX века Дж. фон Нейманом имело следующие последствия:
«Больше всего меня беспокоило, как это назвать. Я думал назвать это "информацией", но это слово использовалось слишком часто, поэтому я решил назвать это ‘неопределенностью’. Когда я обсуждал это с Джоном фон Нейманом, у него появилась идея получше. Фон Нейман сказал мне: "Вы должны называть это энтропией по двум причинам: во-первых, ваша функция неопределенности использовалась в статистической механике под этим названием, так что у нее уже есть название. Во-вторых, и это более важно, никто не знает, что такое энтропия на самом деле, поэтому в дебатах у вас всегда будет преимущество»».
На идеях К. Шеннона, Р. Хэмминга и других исследователей быстро развилась новая отрасль науки – теория информации. Она базируется на следующих постулатах:
–1) существует множество X элементов, называемых сообщениями;
–2) существует множество A, называемое алфавитом, элементы которого называются символами;
–3) существуют объекты, называемые передатчик, приемник и канал передачи сообщений;
–4) сообщения передаются от передатчика к приемнику по каналу передачи в виде конечных упорядоченных множеств символов;
–5) в силу неустранимой случайности состояний канала передачи, передаваемые сообщения множества X преобразуются им в принятые сообщения множества Y, включающего X;
–6) количество информации1 I(x;y), доставляемое принятым сообщением y при передаче сообщения x, есть