ЭНТРОПИЯ И ИНФОРМАЦИЯ В БИОЛОГИИ
Обращаясь к биологии, мы должны оценить смысл и эффективность понятия энтропии для открытой системы. Соответствующий анализ был проведен Шлёглем [38]. Необходимо рассмотреть систему, взаимодействующую со своим окружением, и определить понятие термического контакта. Допустим, что имеется система А, взаимодействующая с системой (окружением) А'. А плюс А' образуют замкнутую систему. Будем пользоваться количеством информации I = —S/kB. Для системы А имеем (ср. (2.106))
/ = £ wt In wt. (2.119)
І
Для полной системы имеем
I = Е ®ia In W, a, (2.120)
Где Wia — вероятность того, что А находится в состоянии і, а А' — в состоянии а. Если энергия всей системы фиксирована, то возможны лишь некоторые пары индексов I, а.
Информация I минимальна и энтропия S максимальна, если реализуется равномерное распределение по допустимым состояниям, т. е. w°ia — а — const. При этом осуществляется термическое равновесие систем А и А'. Имеем
/-/° = Е®іа1пдаіа - 5>?в1па>?а - (2.121)
І, а і, а
Совместную вероятность wia можно представить в виде
Wia = wiw(i | а), (2.122)
Где да(і|а)—вероятность того, что А' находится в состоянии а, если А находится в состоянии І. Очевидно, что условные вероятности ау(і|а) нормированы, т. е.
£ш;(і|а) = 1.
А
Преобразуя выражение (2.121), имеем
W ■
Wia In wia — a In а = wla In + (wia — a) In a,
N
E = E Щ Z w (і I — Z — N a,
TOC \o "1-3" \h \z i, a і а і—1
£ wia In wia — Na\na = YjW^ln~^ +
+ wia In a — Na In a = ffi)ia In,
I, a і, a
T. Є.
/-/0 = Y^Jn-%*
ІҐа
Или согласно (2.122)
^ w[w (і i a)
Za>, ті t—\ w (і I a)
Wiln — A С 1°) + A ^ С1 ln "oTTT
Wi a ti ши(і|а)
И в силу нормировки w (і I а)
~ ~ т—і w. v-> w (і I а)
/ - = У ln-f + У о»,а» (і I a) In (2.123)
' w, г—1 w (i \ а)
І ' і, а \ і '
Первый член в правой части относится только к системе Л и характеризует энтропию, продуцируемую внутри А. Второй член описывает обмен информацией между А и А'. Очевидно, что благодаря взаимодействию энтропия полной системы не аддитивна. Величина
І 1
Так как In х >■ 1 — 1/х при любых х Ф 1. К дает меру отклонений Wi от до". К убывает или остается без изменений, если w, претерпевает динамическое преобразование, оставляющее инвариантным распределение w9. Такое преобразование устремляет систему к равновесию.
Условные вероятности w(i| os), вообще говоря, зависят не только от индексов /, а, но и от начальных условий. Если эти условия не фиксированы, то по ним можно провести усреднение и получить однозначные величины w(i\a). Получается приближение, которое может описать термический контакт систем А и А', характеризуемое однозначной зависимостью w(i\a) от І, а. При этом поведение системы А описывается однородным марковским процессом. Стационарное равновесие в этом процессе инвариантно
< w (г I а)
Здесь до(і|а) зависит лишь от і, и = гг»(і|а). Следова
Тельно,
/ — 7° = к.
Вследствие однозначности w(i\a) при выравнивании w я w° информация в А' не меняется, но лишь обменивается с системой А. Внутри А информация убывает, т. е. возрастает энтропия.
Полученные результаты не зависят от предположения о близости к равновесию.
В работе [39] проведено обобщение теории на неравновесные состояния, для которых интенсивные термодинамические величины зависят от времени. Была получена обобщенная форма второго начала
+ О *"' W > °> (2-124>
/
Где U — внутренняя энергия системы
V = YuWlEu і
Yj и xi — сопряженные термодинамические величины, скажем, давление и объем,
Х' — Yj WjX}. і
В случае У] = р из (2.124) следует, что
S>-j-(U + pV). (2.125)
Если изменение состояния системы А происходит путем прохождения лишь состояний равновесия, то (2.125) обращается в классическую формулу Клаузиуса
DS > dQ/T.
Величины, стоящие в правой части (2.125), определены и для неравновесных состояний. Определена, тем самым, и энтропия.
Основной постулат термодинамики необратимых процессов состоит в том, что энтропия может быть определена как функция измеримых параметров состояния.
Мейкснер утверждает, однако, что однозначное определение энтропии для неравновесных процессов на основе макроскопического рассмотрения невозможно [40].
Термодинамическая система определяется как система, действие которой на окружение сводится только к производству или получению работы и тепла [41]. Такое определение применимо и к неравновесию. Термодинамика сетей (см. стр. 79) трактует электрические сети как термодинамические системы. Действительно, электрическая сеть обменивает-
J ся с окружением электрической работой
J " И и теплом. Будем характеризовать сеть П " взаимосвязью приложенного напряжения и и вызванного им тока І. Измерения „ V производятся лишь на входных и вы-
1 —р \ ходных клеммах, т. е. сеть трактуется
| j—как «черный ящик». Допустим, что для
Данной сети мы наблюдаем выполнение ") б) закона Ома
Рис. 2.4. Контуры, экви - и О ^ № (0
Валентные, если L = R2C. для любых изменений напряжения, причем u(t) =0 для t ^ /о - Отсюда мы можем заключить, что электрический контур, сеть, содержит лишь омическое сопротивление R. В действительности, однако, имеется бесконечное множество сетей различной структуры, которые ведут себя иа выходных клеммах одинаково, как простое сопротивление. Это относится, в частности, к контуру, изображенному на рис. 2.4,6, при условии, что L — R^C. Ясно, что продукция энтропии в этом контуре иная, чем в контуре на рис. 2.4, а. В простом сопротивлении полученная энергия непрерывно диссипирует, тогда как в модели рис. 2.4, б часть энергии запасается в конденсаторе и в индукционной катушке. Следовательно, продукция энтропии diS не определяется однозначно приложенным напряжением, даже если известна связь между током и напряжением. Тем самым не определена и энтропия, так как
DS = dQ/T + dtS.
Мейкснер приходит к указанному выше выводу о неоднозначности энтропии. Его содержание сводится к следующему: продукция энтропии, которую мы можем определить разумным образом, зависит от допустимых операций над системой (введение добавочных клемм на конденсаторе и т. д.). «В понятие энтропии входит нечто субъективное... она зависит от информации, которую мы получаем о рассматриваемой системе» [40].
Рассуждения эти, конечно, правильны, но не означают невозможности определения энтропии в необратимом процессе. Они означают необходимость полного знания атомно-молекулярного механизма процесса — раскрытия устройства «черного ящика».
Соображения Мейкснера актуальны для биологической термодинамики. «Черные ящики» в биологии чрезвычайно сложны, и получение полной информации об их структуре и свойствах практически невозможно. Тем самым возникает вопрос о познавательной ценности термодинамических и эквивалентных им теоретико-информационных представлений при рассмотрении основных биологических проблем. Соблюдение элементарных законов термодинамики в изолированной макросистеме, в состав которой входят живые организмы, не подлежит сомнению. Вопрос, однако, состоит в содержательности понятий энтропии и соответственно количества информации применительно к биологическим процессам.
Принято толковать возрастание макроскопической упорядоченности в онтогенезе и филогенезе как возрастание количества информации или убывание энтропии. Когда Шредингер говорил, что организм есть апериодический кристалл [42], то он имел в виду, что развитие организма подобно росту кристалла в открытой системе и оплачивается возрастанием энтропии в окружающей среде. Это общее положение безусловно правильно. Тем самым, мерой изменения энтропии организма в процессе развития может служить увеличение энтропии внешней среды. Это — единственная мера, так как мы не располагаем точными способами оценки количества информации в клетке или в многоклеточном организме. В ряде работ делались такие оценки. Так, Данков и Кастлер считали, что в организме имеется примерно 500 различных структурно важных молекул. В среднем на одну молекулу приходится 4 бит информации и она может иметь около 12 способов ориентации, что дает еще 3 бит. Организм содержит примерно 1028 атомов, каждая молекула состоит из 100 атомов. 90% молекул (подобно воде) информации не несут. Отсюда следует, что человеческий организм содержит примерно 7-Ю25 бит информации (т. е. 7-Ю9 эрг/К или 120 кал/К). Если рассматривать построение организма из атомов, то получим 2-Ю28 бит или 48 ккал/К- Для зиготы получается величина, в 10й раз меньшая [43]. Равен дает другую оценку, исходя из числа нуклеотидов в ДНК [44].
По оценке Блюменфельда [52] основное количество информации в человеческом организме определяется упорядоченным расположением аминокислотных остатков в 7 кг белков, чему соответствует 3-Ю25 остатков. Это количество информации равно примерно 1,3-1026 бит. Другие вклады значительно меньше: 150 г ДНК, содержащимся в человеческом организме, отвечает 6-Ю23 бит, упорядоченному расположению 1013 клеток — 4-Ю14 бит и упорядоченному расположению 108 молекул биополимеров в клетке — всего лишь 2,6-10® бит.
Важнейшая особенность обсуждаемой ситуации состоит в том, что биологическая система не является статистической. Это — динамическая система, своего рода химическая машина, поведение которой определяется положением и функциональностью взаимозависимых составных частей. Части эти макроско - пичны (макромолекулы, надмолекулярные системы, клетки, ткани), соответственно функциональные изменения их относительного расположения не сопровождаются сколько-нибудь заметными изменениями энтропии. Биологическая система есть система именно в том смысле, что ее части взаимосвязаны и их энергия не аддитивна. Тем самым, в системе не выполняются исходные предпосылки статистической механики, и работа биологической машины не может быть описана в терминах энтропии или количества информации.
Конечно, биологические макромолекулы, вода, ионы и т. д. характеризуются определенной энтропией, определенным количеством информации. Биологическая динамическая система содержит статистические части. Статистичность исчезает на уровне организованных макроструктур, начиная с белковых глобул. Паровая машина или двигатель внутреннего сгорания также содержат динамическую и статистическую части. Поведение водяного пара или горячей смеси закономерно рассматривается на основе термодинамики, но как уже говорилось, статистическая механика бесполезна для описания работы цилиндра и поршня, хотя металл, из которого эти детали построены, есть статистическая система.
Как справедливо указывает Блюменфельд, в организме также имеются обе части (первой является прежде всего внутренняя водная среда), но в отличие от теплового двигателя они пространственно и функционально совмещены (см. также [37]).
Эффективность рассмотрения открытой системы, исходящего из функции диссипации, т. е. из скорости продукции энтропии, по-видимому, недостаточна для биологии. Энтропия — принципиально усредненная статистическая величина — дает лишь весьма ограниченную характеристику биологической системы. Это, конечно, никак не противоречит описанным выше возможностям применения неравновесной термодинамики в биологии. Ее применения ограничиваются, однако, некоторыми общими феноменологическими положениями и трактовкой «немашинных» процессов. Применительно к регуляторным явлениям и к процессам развития термодинамика может лишь констатировать наличие неустойчивостей, наличие множественных стационарных состояний в нелинейной области. Функция диссипации утрачивает прямое эвристическое значение вдали от равновесия. Тем более это относится к машинной системе. Встречающиеся в литературе попытки модифицировать линейную термодинамику с целью описания процессов роста и дифференцировки (см., например, [45]) основаны на недоразумении и научного значения не имеют.
Понятие количества информации эквивалентно энтропии и, следовательно, является усредненной характеристикой статистической, а не динамической, системы. Соответственно теоретико - информационные подходы к трактовке биологических процессов, оперирующие лишь количеством информации, измеряемым в битах или в энтропийных единицах, недостаточно эффективны.
Моно утверждает, что основное отличие организма от кристалла состоит лишь в гораздо большем количестве информации в организме [46]. В свете сказанного очевидно, что это утверждение ошибочно. Кристалл — равновесная система, которая может быть и замкнутой, организм — неравновесная, открытая динамическая система, характеристика которой посредством энтропии или количества информации недостаточна.
Процессы создания, накопления, передачи, утраты, перекодировки и рецепции информации имеют фундаментальное значение в биологии, в онтогенезе и филогенезе. Обычная теория информации, оперирующая лишь понятием о ее количестве, не рассматривает природу возникновения информации. Тем более она не рассматривает содержание и ценность информации. Именно эти характеристики, в отличие от количества информации, могут оказаться существенными для трактовки биологического развития. Как бы мы ни определяли эти понятия, ясно, что они уже не имеют прямого отношения к термодинамике.
Аптер подчеркивает важность программирующего, инструктивного значения информации в биологических процессах. «В случае такой динамической системы, как работающая вычислительная машина, язык инструкций или команд является более подходящим, чем язык теории информации». И далее: «Вместо того, чтобы пытаться применить к описанию развития понятие количества информации в организме в данный момент времени, ... надо искать соответствующий причинный ряд событий. Чтобы понять динамику этих событий, надо искать подходящие термины и модели» [47].
Поставим в связи со сказанным вопрос о том, как можно определить содержание информации и является ли этот термин подходящим для биологии.
Вводя понятие содержания или ценности информации, мы делаем попытку сохранить связь проводимого рассмотрения с теорией информации, с термодинамикой, поскольку применяется термин «информация». A priori неясно, может ли такая попытка увенчаться успехом. Молекула ДНК содержит определенное количество информации, исчисляемое в битах, как и любой текст, но смысл слова «информация» во фразе «ДНК несет информацию о белках» не имеет прямого отношения к количеству информации в битах [47]. Ценность (содержание, смысл) информации может быть определена лишь применительно к воспринимающей информацию системе. Тем самым, ценность информации зависит от свойств этой системы, в частности, от уровня рецепции. Теория информации, учитывающая ее ценность, не построена и пока не ясно, может ли она быть построена. Однако целый ряд содержательных идей можно сформулировать (см. §§ 9.7, 9.8, а также [48, 63]). Вместе с тем удается провести строгое рассмотрение ценности информации в специальных условиях. Такой анализ выполнен Бонгардом [49]. Бонгард вводит понятие полезной информации и определяет ее меру, т. е. меру полезности сообщения для рецептора. Рассматривается модельная система, «которая при решении задачи ведет экспериментальную работу (метод проб и ошибок) и таким образом извлекает некоторые сведения, которых она вначале не имела». Вводится мера трудности решения задачи, выражаемая логарифмом среднего числа проб.
Полезная информация по Бонгарду характеризует ценность информации в ситуациях, определяемых наличием проб и ошибок. Эти ситуации свойственны биологическим системам на молекулярном уровне — процессы узнавания и отбора молекулярных структур осуществляются именно посредством проб и ошибок, возникающих вследствие теплового движения. Динамическая узнающая система биосинтеза белка функционирует в статистическом окружении, перерабатывая его в динамически детерминированные структуры. Это позволило Либерману сформулировать гипотезу, трактующую клетку как «молекулярную вычислительную машину» [50] Другие определения ценности информации, близкие к приведенному, даны в [61, 62].
В общем случае работа динамической биологической системы означает реализацию инструктивного, программирующего значения информации, содержащейся в конечном счете в биологических макромолекулах нуклеиновых кислот и белков. Модельное описание такой системы действительно требует понятия ценности информации как инструктирующего фактора. Такое понятие, вообще говоря, не может быть универсальным. Оно должно выражаться в строгих физико-математических терминах применительно к конкретным биологическим процессам. Первая попытка описать процесс развития (пребиологическую эволюцию макромолекул) с помощью понятия ценности информации принадлежит Эйгену [51]. Эйген вводит понятие «селективной ценности», характеризующей кинетику матричного синтеза биологических макромолекул. Изложение этой теории и некоторых других вопросов, связанных с понятием ценности информации в биологии, дано в гл. 9 (см. также [63]).
Итак, мы приходим к следующим общим выводам.
Живые организмы являются открытыми системами, соответственно они феноменологически описываются неравновесной термодинамикой.
Линейная термодинамика объясняет реализуемое в организмах сопряжение • кинетических процессов и существование неравновесных стационарных состояний.
Процессы развития организмов, а также периодические биологические процессы имеют нелинейный характер. Соответственно они не могут рассматриваться на основе линейной термодинамики. Содержание нелинейной термодинамики сводится к нахождению общих условий устойчивости и неустойчивости состояний, далеких от равновесия.
Функция диссипации утрачивает прямое эвристическое значение в нелинейной области. Трактовка нелинейных процессов выходит за рамки термодинамики.
Количество информации эквивалентно энтропии. Соответственно теория информации, оперирующая только понятием об ее количестве, имеет ограниченное эвристическое значение в биологии.
Биологические процессы и, прежде всего, процессы развития имеют динамический, а не статистический характер. Биологические системы являются химическими машинами и должны описываться соответствующим образом. Наряду с количеством информации необходимо учитывать ее ценность.