Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

S о K n § о



a i?; s f *

G s g

P rt d) о и К Ч Ч я а и S

Ss

{Tj Д QJ

S 5S.й.л


А н

О К

Си s

S м4

Со ь-1


S н

S О О

G «m JS О М

О о Я


146 Глава 4. Эволюционная концепция

рой же закон термодинамики можно сформулировать как утвержде-
ние о невозможности сохранения определенной физической величи-
ны (п. 2.2.3).

Во-вторых, известно много формулировок второго закона. Они! полностью эквивалентны в смысле формальной логики, т. е. любая; из них влечет за собой все остальные формулировки как следствия.; Однако каждая раскрывает действие закона со своей, подчас доволь-; но неожиданной и глубокой точки зрения. Мы рассмотрим несколь-ко важнейших формулировок второго закона термодинамики, опус­кая доказательства их эквивалентности. Вот наиболее общая из них. Г Существует физическая величина — энтропия, которая в замкну­той системе с течением времени может только возрастать.

Этого утверждения, ничего пока не говорящего о том, что такое эн­тропия, уже достаточно, чтобы признать прошлое и будущее физиче­ски различными. Поэтому второй закон термодинамики можно рас­сматривать как физическое утверждение о направленности времени.

Понятие энтропии, как и неразрывно связанное с ним второе на­чало термодинамики, имеет чрезвычайно много граней и смыслов.

4.4.1. Энтропия как измеряемая физическая величина

Энтропия не есть некое расплывчатое общефилософское понятие типа «идея», «стремление» и т. п. Нет, это нормальная физическая величина, поддающаяся точному измерению и вычислению. Р. Клау-зиус, который ввел понятие энтропии, определил ее следующим об­разом. Пусть некоторому телу сообщили количество теплоты Q при температуре Т (отсчитываемой от абсолютного нуля). Тогда энтро­пия тела 5 возрастет минимум на

Т

Отношение Q/T несложно измерить. Приборы для измерения количества теплоты, калориметры, не были новинкой и во времена Клаузиуса; приборы для измерения температуры окружают сейчас каждого из нас в быту.

4.4.2. Энтропия как мера некачественности энергии

Первый закон термодинамики — закон сохранения энергии — можно сравнить с добросовестным бухгалтером, который сводит количест-


4.4. Второй закон термодинамики. Энтропия 147

венный баланс, не вмешиваясь в решения, принимаемые хозяином фирмы и не оценивая их с точки зрения, так сказать, качества капита­ла. Однако каждый понимает, что обменять деньги на эквивалентное количество, скажем, старых калош, довольно легко, а вот обратная операция потребует усилий и вряд ли обойдется без финансовых по­терь. Несмотря на то что стоимость калош может быть эквивалент­на потраченной сумме, такой качественный показатель, как ликвид­ность, у них гораздо ниже, чем у денег.

♦ Разные формы энергии также обладают разным качеством.

О качестве энергии легче всего судить по легкости ее превраще­ния в другие формы.

Не представляет проблемы, например, превращение энергии элек­трического тока в равное количество тепловой энергии. Для этого достаточно взять утюг или кипятильник и воткнуть вилку в розетку. Превращение электрической энергии в тепловую пойдет со стопро­центной эффективностью. Обратная же задача — превратить тепло­вую энергию в электрическую — гораздо сложнее. Для ее решения необходимо построить сложную и дорогостоящую тепловую элек­тростанцию. На электростанции теплота, выделяющаяся при сжига­нии топлива, идет на нагревание воды, которая превращается в пар, который крутит турбину, которая вращает ротор генератора, кото­рый, наконец, вырабатывает электрический ток. В итоге же оказыва­ется, что даже самая лучшая тепловая электростанция превращает в электроэнергию не больше 40% тепловой энергии сгорания топлива. И дело тут не в нерадивости инженеров, проектировавших и строив­ших станцию, а в том, что сама природа не позволяет добиться боль­шего. Просто тепловая энергия — это энергия менее качественная, менее «ликвидная», чем электрическая.

Можно выстроить иерархию различных форм энергии по ее каче­ству. На верхних ступенях, кроме электрической, находится, напри­мер, механическая энергия. Именно благодаря этому КПД гидроэлек­тростанций, которые используют механическую энергию падающей воды, гораздо выше, чем у тепловых — до 98%. Чуть ниже по качест­ву химическая энергия, заключенная, например, в бензине или в ак­кумуляторах. Самым низким качеством обладает энергия тепловая, причем качество ее тем ниже, чем ниже температура тела.

Открытие энтропии дало возможность от общих рассуждений о качестве энергии перейти к его точной количественной характе­ристике. Установлено, что если система обладает запасом энергии U,




148. Глава 4. Эволюционная концепция

Механическая, электрическая, ядерная (с оговорками)

Химическая

Тепловая (высокие температуры)

Тепловая (низкие температуры);

• Рис. 4.6. Иерархия форм энергии по признаку качества

т,о в полезную работу можно превратить не весь этот запас, а лишь его часть, которая называется свободной энергией:

F=U-TS.

Свободную энергию Fvi следует считать мерой качества энергети- | ческого запаса системы. Видно, что она тем меньше, чем больше эн­тропия S. Поэтому

энтропия системы является мерой некачественности ее энергети­
ческого запаса.
(

С учетом этого закон возрастания энтропии можно сформулиро­вать так:

Г

энергетический запас замкнутой системы, оставаясь неизменным количественно, с течением времени неуклонно ухудшается качест­венно.

Энергетические проблемы цивилизации заключаются не в том, чтобы найти источник энергии для удовлетворения потребностей человека, а том, чтобы найти источник энергии высококачествен­ной. Будь иначе, мы могли бы буквально черпать энергию из океана. Действительно, в океанах Земли находится 1,3 • 1021 литра воды. При охлаждении каждого литра воды на один градус он отдает 4200 Дж теплоты. Это означает, что если бы можно было тепловую энергию полностью превратить в электрическую, то достаточно было бы еже­годно охлаждать океан всего лишь на 0,0002 °С, чтобы полностью покрыть все современные энергетические потребности человечест­ва, составляющие около 1021 Дж в год. Идея кажется тем более заман-


4.4. Второй закон термодинамики. Энтропия 149

чивой, что практически вся производимая электроэнергия в конеч­ном счете превращается в тепло, нагревающее тот же океан. Она, од­нако, неосуществима: запасы энергии океана действительно огром­ны, но его свободная энергия, которую можно превратить не в тепло, а в полезную работу, очень низка из-за высокой энтропии, Поэтому строительство сложных, дорогих и экологически грязных электро­станций оказывается в итоге гораздо выгоднее.

4.4.3. Вероятностный смысл энтропии

Глубокое понимание сущности энтропии невозможно без выяснения того, что же она представляет собой с точки зрения движения и взаи­модействия молекул. Главный результат исследования этого вопроса Л. Больцманом заключается в короткой формуле, которую он заве­щал выбить на своем надгробии. В современных обозначениях она записывается следующим образом:

S = k\nW,

где S — энтропия системы молекул, k — коэффициент пропорцио­нальности (постоянная Больцмана), W— статистический вес данно­го макроскопического состояния системы. Чем больше W, тем боль­ше inW и тем больше энтропия 5.

Г

Статистический вес — это число способов, которым можно реали­зовать данное макроскопическое состояние системы.

Пояснить определение статистического веса можно на примере ящика с двумя одинаковыми отделениями, между которыми имеется перегородка с небольшим отверстием. Начнем заполнять ящик моле­кулами. Для определенности будем считать, что всего в нашем распо­ряжении N = 10 молекул.


Рис. 4.7. Простая модель молекулярной системы

Макроскопическое состояние системы задается числом молекул в каждом отделении. Например, состояние системы на рис. 4.7 может быть обозначено как состояние 4|6.



150 Глава 4. Эволюционная концепция

Способы, «которыми можно реализовать данное состояние систе| мы», отличаются друг от друга тем, какие именно молекулы попали левое отделение. Представим, что все 10 молекул пронумерованы! Состояние 4|6 можно получить, поместив в левое отделение молекуЦ лы номер 1, 2, 3 и 4. А можно — 1, 3, 5, 7 или 7, 8, 9 и 10.

Наименьший статистический вес W — 1 имеют состояния 0| 10 *~ 10|0, поскольку есть лишь один способ поместить все молекулы т правое (левое) отделения. Статистический вес состояния 1|9 равен 10-| (поскольку одну молекулу, помещаемую в левое отделение, можно! выбрать из всех имеющихся десятью способами). Если рассмотреть! состояние с двумя молекулами в левом отсеке, то первую из них мы, можем выбрать опять десятью способами, а вторую — девятью (одну, из 9 оставшихся). Всего вариантов выбора получается 10 • 9 = 90, но' это число надо разделить пополам во избежание двойного счета. Дей-' ствительно, если мы выбираем для левого отделения сначала моле­кулу № 5, а затем — № 3, то это тот же способ размещения, что дает выбор сначала третьей, а потом уж пятой молекулы. Таким образом, статистический вес состояния 2|8 (и состояния 8|2) равен 45. Нетруд-1 но догадаться, что максимальным статистическим весом обладает со­стояние, в котором молекул в отделениях поровну (рис. 4.8).

25СН

50Ч

 

123456789 Количество молекул в левом отделении

Рис. 4.8. Статистические веса состояний системы, изображенной на рис. 4.7

Поместим все десять молекул в левое отделение и закроем ящик. Молекулы беспорядочно двигаются, сталкиваются друг с другом и со стенками, время от времени проскакивая через отверстие из одного


4.4. Второй закон термодинамики. Энтропия 151

отделения в другое. Можно ли ожидать, что, открыв через некоторое время ящик, мы опять обнаружим все десять молекул в одном отде­лении? Здравый смысл и интуиция подсказывают, что скорее всего мы увидим состояние 5|5. Физик вместо «скорее всего» предпочтет сказать: «Вероятность состояния 5|5 больше, чем вероятность состоя­ния 0|10», поскольку вероятность есть величина, выражаемая числом. Но наиболее вероятное состояние 5|5 — это состояние с наибольшим статистическим весом, а значит, и энтропией. Таким образом, чем больше вероятность состояния, в котором находится система, тем больше ее энтропия.

♦ Энтропия является мерой вероятности обнаружить систему в данном состоянии.

Отсюда еще одна формулировка закона возрастания энтропии:

Г

С течением времени замкнутая система самопроизвольно перехо­дит из менее вероятных в более вероятные состояния. Выясненный вероятностный характер понятия энтропии обуслов­ливает и вероятностный, статистический характер второго закона термодинамики. Конечно, состояние 5|5 более вероятно, чем состоя­ние 0|10, но это не означает, что последнее невозможно. Есть пример­но один шанс из тысячи, что, заглянув в очередной раз в ящик, мы об­наружим, что все молекулы опять собрались в правом отделении. Физик скажет, что возникла флуктуация (с. 112). Поэтому послед­нюю формулировку второго закона следует понимать как утвержде­ние о наиболее вероятном, но не единственно возможном развитии событий, как утверждение об общей тенденции. Правда, чем больше число молекул в системе, тем жестче выдерживается эта тенденция. Общее правило гласит, что в системе Л^частиц реально можно наблю­дать флуктуации относительной величины примерно у^. В макро-скопических системах, для которых N~ 1024 и у^~ 10~12, сколько-ни­будь значительные отклонения от среднего не наблюдаются никогда.

4.4.4. Энтропия как мера неупорядоченности

Какое из состояний рассмотренной нами простейшей системы, со­стоящей из ящика с двумя отделениями и десяти молекул в нем, можно назвать более упорядоченным: однородное состояние 5|5 или предельно неоднородное 0|10?

Обычно мнения по заданному вопросу разделяются почти попо­лам. Многими упорядоченность понимается в духе армейского еди-



152 Глава 4. Эволюционная концепция


4.4. Второй закон термодинамики. Энтропия 153



нообразия: порядок тогда, когда все одинаково одеты и одинаковё! застилают койки. Однако армия, в которой нет разных родов войск! нет командиров и подчиненных, нет никакой неоднородности — это! не армия, не организация, а толпа, пусть даже вся она облачена в ка-| муфляж.

Понятие упорядоченности тесно связано с понятием структуры, \ а структура требует неоднородности. Английский парк более упоря-] дочен, чем естественная роща тех же размеров, поскольку имеет бо- j лее четко выраженную структуру: дорожки, кусты, деревья. При этом \ растения каждого вида высаживаются только на определенных уча- i стках, а в других местах парка вы их не найдете. В библиотеке поря- ] док, если книги по полкам распределены неоднородно: на этой пол- ■ ке — только книги по истории, а на той — только по химии и т. д.-! Более однородное состояние является менее упорядоченным. Но эн- ■ тропия системы максимальна именно для ее однородного состояния. Таким образом, мы приходим к пониманию еще одного свойства эн­тропии:

♦ Энтропия системы есть мера неупорядоченности состояния, в кото­ром находится система.

Связанная формулировка второго закона термодинамики гласит:

Г

С течением времени степень упорядоченности замкнутой системы неизбежно понижается, а имеющиеся в ней структуры разрушаются.

4.4.5. Энтропия и информация

Обратимся еще раз к модели ящика с двумя отделениями: в каком случае мы знаем о системе больше — когда она находится в состоя­нии 0|10 или 5|5? Очевидно, в первом: про каждую молекулу мы мо­жем точно сказать, в каком она отделении — в правом. Если же сис­тема находится в состоянии 5|5, то интересующая нас конкретная молекула может с равной вероятностью быть в любом отделении.

Для остальных состояний количество доступной информации о системе будет промежуточным между этими двумя крайними слу­чаями. Например, если нам известно, что состояние системы есть 8|2, то на вопрос «где находится молекула №1?» можно ответить, что с вероятностью 0,8 она в левом отделении, а это означает, что мы знаем больше, чем ничего. Прослеживается четкая связь: чем меньше ста­тистический вес состояния системы, т. е. чем меньше энтропия, тем определеннее наши знания о системе.


♦ Энтропия системы есть мера отсутствия информации о ее внутреннем устройстве.

Поэтому в силу закона возрастания энтропии количество доступной информации о замкнутой системе с течением времени уменьшается.

Одна из основных дисциплин, определяющих лицо современной науки и.технологии, — это теория информации. Ее основой стали ра­боты К. Шеннона, опубликованные в 1948-1949 гг., где он дал четкое определение понятия о «количестве информации».

Исходным для Шеннона было понятие энтропии распределения вероятностей некоторых событий. Под событием можно понимать, например, появление определенной буквы в тексте, передаваемом по каналу связи. До того как приемник получил значение очеред­ной буквы, на ее месте можно было ожидать появление почти любо­го символа алфавита. Другими словами, распределение вероятностей событий «на данном месте стоит п-я буква алфавита» было более или менее однородным. Получение, скажем, буквы «А», вносит неодно­родность: вероятность того, что на данном месте стоит «А», становится равной единице, а вероятности любых других символов — нулю. Но увеличение неоднородности приводит, как мы уже знаем, к уменьше­нию энтропии!

Шеннон определил количество полученной системой информа­ции А/ как понижение ее энтропии в результате приема сообщения:

М = -AS.

Это определение, основанное на понимании энтропии как меры отсутствия информации, оказалось чрезвычайно плодотворным и представляет собой теоретическую основу всех современных техно­логий передачи, хранения и обработки информации.

4.4.6. Энтропийный анализ текстов

Понимание энтропии как меры неупорядоченности системы позво­ляет применять ее для описания свойств не только материальных объектов, но и сообщений.

Представим себе, что у нас есть отрывок текста, написанного бук­вами русского алфавита, причем слова отделяются только пробела­ми, знаков препинания нет. Вместо букв с тем же успехом можно было бы использовать числа от 1 до 34 (№ 34 означает пробел). Физиче­ской моделью такого текста служит ящик с количеством отделений, равным количеству букв в тексте, причем количество молекул в каж-


154 Глава 4. Эволюционная концепция


4.5. Основной парадокс эволюционной картины мира 155



дом отделении соответствует номеру буквы в алфавите. Можно onpd делить понятие статистического веса и для такой системы и вычис лить его с помощью приемов, подобных тем, что описаны в п. 4.Л.1 Формула Больцмана говорит, что энтропия этой системы максу малыга, если вероятность обнаружить в заданном отделении./V моле кул (вероятность того, что заданная буква текста имеет номер N в ал! фавите) одна и та же для любого iV (на заданном месте может с равной вероятностью стоять любая буква или пробел). Состоянием с наи! большей энтропией (примерно 3,5& на одну букву), как и положенс оказывается наиболее однородное состояние. Однако оно соответст$ вует и наиболее бессмысленному тексту! Вот классический пример текста, в котором вероятность появления (другими словами, распроЗ страненность) любой буквы одна и та же1:

СУХЕРРОБЬДЩ ЯЫХВЩИЮАЙЖТЛФВН ЗАГФОЕНВШТЦРПХГБКУЧТЖЮРЯП...

Понять, что приведенная фраза бессмысленна, может и человека не знающий русского. Во-первых, в естественном языке слова не тщ кие длинные, т. е. пробел должен встречаться гораздо чаще. Во-вто­рых, в каждом языке есть буквы, употребляемые чаще других (на-! пример, в русском это «о», в английском — «е»). В-третьих, веро^ ятность того, что на данном месте стоит данная буква, во многом] зависит от ее окружения: после пробела мы никогда не увидим твер* дого или мягкого знака, а после букв «тьс» наверняка идет «я». Таким| образом, осмысленный, упорядоченный текст не может рассматри-; ваться как однородная система. Именно благодаря свойству неодно7| родности осмысленного текста разгадывают зашифрованные посла:! ния герои рассказов А. К. Дойля «Пляшущие человечки» и Э. По| «Золотой жук».

Расчет, учитывающий неоднородность текста на естественнее языке, показывает, что его энтропия составляет примерно 0,7£ на бу­кву, т. е. в пять раз меньше, чем у беспорядочного набора букв. Этот! результат практически не зависит от того, какой именно язык мы вы­брали для анализа. Снова мы убеждаемся, что снижение энтропи: эквивалентно повышению упорядоченности.

В 1994 г. группа ученых, возглавляемая известным специалистом^ по статистической физике Ю. Стэнли, рассчитала энтропию генети­ческого текста в некодирующих участках ДНК (п. 4.3.3.4) и обнару-1

1 Седов Е. Одна формула и весь мир. Книга об энтропии. М.: Знание, 1982.


жила, что она существенно ниже, чем для чисто случайной последо­вательности нуклеотидов1. Более того, она оказалась ниже, чем эн­тропия кодирующих последовательностей! Это заставило предполо­жить, что и молчащие участки несут какой-то смысл. Прошедшие с тех пор 10 лет полностью подтвердили это предположение (п. 4.3.3.4).





Дата публикования: 2015-10-09; Прочитано: 392 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.015 с)...