Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Термодинамический подход



Энтропия, функция состояния S термодинамической системы2, изменение которой dS для бесконечно малого обратимого изменения состояния системы равно отношению количества теплоты полученного системой в этом процессе (или отнятого от системы), к абсолютной температуре Т:

, (1)

.где d S – приращение энтропии; δ Q 3 – минимальная теплота, подведенная к системе; T – абсолютная температура процесса.

Величина dS является полным дифференциалом, т.е. ее интегрирование по любому произвольно выбранному пути дает разность между значениями энтропии в начальном (А) и конечном (В) состояниях:

. (2)

Теплота не является функцией состояния, поэтому интеграл от δ Q зависит от выбранного пути перехода между состояниями А и В.

Энтропия измеряется в Дж/(моль·К).

Выражения (1) и (2) справедливы только для обратимых процессов.

Для необратимых процессов выполняется неравенство:

, (3)

из которого следует возрастания энтропии в этих процессах.

Свойства энтропии:

1. Энтропия - величина аддитивная, т.е. энтропия системы из нескольких тел является суммой энтропий каждого тела: S = ∑Si .

2. В равновесных процессах без передачи тепла энтропия не меняется. Поэтому равновесные адиабатические процессы (δ Q = 0) называется изоэнтропийным.

3. Энтропия определяется только с точностью до произвольной постоянной.

Действительно, согласно формуле (2) измеренной является лишь разность энтропий в двух состояниях.

Абсолютное значение энтропии можно установить с помощью третьего начала термодинамики (теоремы Нернста): энтропия любого тела стремится к нулю при стремлении к абсолютному нулю его температуры: lim S = 0 при Т → 0 К.

Т.о., за начальную точку отсчета энтропии принимают

S 0 = 0 при Т → 0 К.

Энтропия – функция, устанавливающая связь между макро- и микро- состояниями; единственная функция в физике, которая показывает направленность процессов.

Энтропия в естественных науках мера беспорядка системы, состоящей из многих элементов. В частности, в статистической физике – мера вероятности осуществления какого-либо макроскопического состояния; в теории информации – мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса). Энтропия в информатике – степень неполноты, неопределённости знаний.

Понятие энтропии как показал впервые Э. Шрёдингер (1944), существенно и для понимания явлений жизни. Живой организм с точки зрения протекающих в нём физико-химических процессов можно рассматривать как сложную открытую систему, находящуюся в неравновесном, но стационарном состоянии. Для организмов характерна сбалансированность процессов, ведущих к росту энтропии и процессов обмена, уменьшающих её. Однако жизнь не сводится к простой совокупности физико-химических процессов, ей свойственны сложные процессы саморегулирования. Поэтому с помощью понятия энтропии нельзя охарактеризовать жизнедеятельность организмов в целом.





Дата публикования: 2015-10-09; Прочитано: 545 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.006 с)...