Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Принцип компенсації ентропії



«Ентропійний принцип» свідчить, що при протіканні процесу сума ентропій всіх елементів системи, в яких процес викликав зміни, зростає, але це не значить, що зростає ентропія кожного окремого елементу системи. Застосування ентропійного принципу надає можливість обчислення зміни ентропії кожного з учасників процесу.

Використаємо цій факт для великої або об’єднаної ізольованої системи, яка складається з двох неізольованих (відкритих або контактуючих між собою) систем А 1 та А 2. Ентропія об’єднаної, або великої, ізольованої системи А 3, яка складається з відкритих підсистем А 1 та А 2, також буде збільшуватися або оставатися постійною, тому

Ез = Е1 + Е2,

де Ез – ентропія з’єднаної (великої) ізольованої системи;

Е1 та Е2 – ентропія неізольованих (контактуючих) систем А 1 та А 2 відповідно.

Ствердження про збільшення ентропії стосовно об’єднаної системи А 3, дозволяє визначити, що

Δ Ез = Δ Е1 + Δ Е2 ≥ 0.

Виконання цієї вимоги не означає, що ентропія обох систем А 1 та А 2 повинні збільшуватися, тобто Δ Е1 >0, Δ Е2 > 0. Можливо, що ентропія однієї з відкритих систем, наприклад А 1, буде не збільшуватися, а зменшуватися (Δ Е1 < 0), тоді якентропія іншої відкритої системи А 2 буде збільшуватися (Δ Е2 > 0) так, щоб компенсувати зменшення ентропії (Δ Е1), системи А 1 та виконати вищесказану умову для об’єднаної ізольованої системи.При цьому ступень безладу та, отже, ентропія в відкритої системі А 1 зменшиться за рахунок збільшення приблизно на стільки ж чи не на багато більше безладу та ентропії в іншій відкритій системі А 2, якою може оказатися середовище. Такий компенсаційний принцип змін ентропії іноді називають принципом компенсації ентропії.

Принцип компенсації ентропії свідчить, що ентропія неізольованої системи може бути зменшена тільки в тому випадку, якщо система взаємодіє з іншою або іншими системами таким чином, що в процесі взаємодії відбувається компенсоване збільшення ентропії.

Важливо відзначити, що зменшення ентропії будь-якої відкритої системи можливо досягнути різними способами за допомогою різних додаткових систем та процесів. Вище приведене ствердження та вираз Δ Ез = Δ Е1 + Δ Е2 > 0 дозволяє відмовитися від засобів, які не задовольняють вказаному виразу, та потребують задоволення непридатного виразу:

Δ Ез = Δ Е1 + Δ Е2 < 0.

Приведене ствердження та вираз дозволяє з різних альтернативних засобів зменшення ентропії вибрати найбільш ефективний. На жаль, вони не мають в собі інформацію про засоби та методи зменшення ентропії.

Негетропія – зворотна ентропії по знаку величина.

Таким чином, прогрес не може бути загальним для всіх частин системи. Зменшення ентропії (або підвищення негетропії) в одній частині системи обов'язково супроводжується підвищенням ентропії в іншій частині або навколишньому середовищі. Так, успіхи розвитку однієї групи підприємств, і, отже зниження їх ентропії можливе тільки при одночасному підвищенні ентропії в інших групах підприємств.

РЕЗЮМЕ:

· Інформація (від лат. Informatio – роз'яснення) – це незвичайний ресурс, споживання якого не зменшує ні кількості ні якості.

· Інформація є сукупністю даних про факти, об'єкти, дії і ідеї, які в даному контексті мають абсолютно певне значення. Її можна створювати, передавати, зберігати, шукати, приймати, розмножувати, обробляти, знищувати.

· Інформація є одним із ресурсів, який може накопичуватися, реалізуватися, поновлюватися, є придатним для колективного використання та (на відміну від інших ресурсів) у процесі споживання не втрачає своїх якостей.

· Інформація - це головний елемент будь-якої з функцій управління. Володіння повною, достовірною, актуальною та оперативною інформацією уможливлює отримання ринкових переваг, знижує фінансовий ризик, ефективно підтримує прийняття рішень.

· Обов'язкова вимога до інформації – наявність її носія, джерела і приймальника, а також каналів зв'язку між ними.

· Сигнал – це матеріальний носій інформації, засіб перенесення інформації в просторі і часі. Той самий об’єкт може являти собою різні сигнали, тобто як сигнали використовують не самі по собі об’єкти, а їх стани. Не будь-який стан має сигнальні властивості.

· Умови, що забезпечують установленню сигнальної відповідності станів та сприяють її збереженню, називають кодом, а побічні впливи, які порушують цю відповідність – шумами.

· Інформаційний ресурс – це особливий вид ресурсу, який базується на ідеях і знаннях накопичених в результаті науково-технічної діяльності людей і в поданій формі, придатній для збірки, реалізації і відновлення.

· Під економічною інформацією розуміють корисні дані сфери економіки, що відображають через систему натуральних, трудових і вартісних показників планову й фактичну виробничо-господарську діяльність та причинний взаємозв`язок між керуючим і керованим об`єктами. Економічна інформація використовується на всіх рівнях управління господарством країни, зокрема в усіх галузях агропромислового комплексу.

· Інтерпретація – це процес визначення структури перехідних зв'язків між виділеними відмінностями і їх впливом як на існуюче, так і на планований стан системи.

· Ентропія служить кількісною мірою безладу в системі і визначається числом допустимих станів системи. Таке визначення відповідає визначенню Е(А) = ln S і означає, що ентропія є натуральний логарифм числа допустимих станів системи S. Чим більше у системи число допустимих станів S, тим більше ентропія.

· Властивості кількості інформації:

I. Кількість інформації у випадковому об’єкті Х, щодо об’єкта Y дорівнює кількості інформації в Y відносно X:

I (X, Y) = I (Y, X).

II. Кількість інформації невід’ємна:

I (X, Y) 0.

III. Для дискретних Х вірна рівність:

I (X, Х) = Е (X).

IV. Перетворення однієї випадкової величини не може збільшити інформацію, що міститься в ній, про іншу пов’язану з нею величину:

І (φ(Х), Y) І (X, Y).

V. Для незалежних пар величин кількість інформації адитивна:

· Принцип компенсації ентропії свідчить, що ентропія неізольованої системи може бути зменшена тільки в тому випадку, якщо система взаємодіє з іншою або іншими системами таким чином, що в процесі взаємодії відбувається компенсоване збільшення ентропії.

· Негетропія – зворотна ентропії по знаку величина.

· Зменшення ентропії (або підвищення негетропії) в одній частині системи обов'язково супроводжується підвищенням ентропії в іншій частині або навколишньому середовищі.

Тестові питання

1) Ресурс, використання якого не зменшує ні кількості ні якості, це:

а) матеріальний ресурс;

б) інформаційний ресурс;

в) фінансовий ресурс;

2) Матеріальний носій інформації, засіб перенесення інформації в просторі і часі, це:

а) код;

б) сигнал;

в) інформаційний ресурс.

3) Інформація про подію або умову, що їх можна безпосередньо спостерігати та аналізувати:

а) оцінка;

б) факти;

в) прогноз.

4) Норми та нормативи, які визначаються керівництвом підприємства, це:

а) нормативно – довідкова інформація;

б) нормативно – правова інформація;

в) планова інформація.

5) Сукупність даних, що виникають на самому об'єкті і характеризують його діяльність, це:

а) вхідна інформація;

б) зовнішня інформація;

в) внутрішня інформація.

6) Невизначеність системи, це:

а) негетропія;

б) хаос;

в) ентропія.

7) Ентропія задовольняє наступним вимогам:

а) ентропія приймає максимальне значення в найбільш «неврегульованому»

ансамблі, в якому всі його члени зустрічаються з однаковою вірогідністю;

б) ентропія приймає мінімальне значення в найбільш «неврегульованому»

ансамблі, в якому всі його члени зустрічаються з однаковою вірогідністю;

в) ентропія приймає максимальне значення в найбільш «впорядкованому»

ансамблі.

8) До властивості кількості інформації вірним є ствердження:

а) кількість інформації у випадковому об’єкті Х, щодо об’єкта Y менше

кількості інформації в Y відносно X;

б)кількість інформації у випадковому об’єкті Х, щодо об’єкта Y дорівнює

кількості інформації в Y відносно X;

в) кількість інформації у випадковому об’єкті Х, щодо об’єкта Y більше

кількості інформації в Y відносно X.

9) Одиницю невизначеності, яку отримують, використовуючи натуральні логарифми та застосовують для неперервних величин, називають:

а) біт;

б) ніт;

в) код.

10) Принцип компенсації ентропії свідчить, що:

а) при протіканні процесу сума ентропій всіх елементів системи, в яких

процес викликав зміни, зростає, але це не значить, що зростає ентропія

кожного окремого елементу системи;

б) при протіканні процесу сума ентропій всіх елементів системи, в яких

процес викликав зміни, зростає, та це значить, що зростає ентропія

кожного окремого елементу системи;

в) збільшення ентропії в одній частині системи обов'язково супроводжується

підвищенням ентропії в іншій частині або навколишньому середовищі.





Дата публикования: 2014-11-04; Прочитано: 480 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.015 с)...