Математичне визначення ентропії та другий закон термодинаміки

Olivier 06/17/2017. 0 answers, 137 views
thermodynamics statistical-mechanics entropy definition

Як фізики mathematically визначають ентропію (для другого закону термодинаміки) і як вона пов'язана з статистичними визначеннями ентропії?

Незважаючи на те, що на цьому сайті є багато запитань про ентропію (такий як цей ), ніхто не міг знайти математично жорсткий або мав повну сувору відповідь.

Я шукаю точні відповіді, які можна зрозуміти математикам.


У математичній статистиці ми маємо багато різних визначень ентропії розподілів імовірності (або між ними). Відомі такі:

  • $ \ Alpha $ -энтропия $ N (\ alpha) $ розподілу $ \ rho $ на цілих числах, яка визначається як $ $ \ log \ sum_ (n \ in \ mathbb (N)) \ rho (n) ^ \ alpha. $$ Це може бути продовжено до ентропії розподілу, визначеного в будь-якому сепарабельному метричному просторі.
  • Дивергенція Кулбака-Лейберра (або відносна ентропія) $$ D_ (KL) (P, Q) = \ int \ log \ frac (dP) (dQ) dP. $$

Зверніть увагу, що перетворення $ T $ простору вибірки може тільки збільшити відносну ентропію: $ D_ (KL) (PT ^ (-1), QT ^ (-1)) \ geq D_ (KL) (P, Q) $, з Рівність iff $ T $ - достатня статистика для $ \ (P, Q \) $, де $ PT ^ (-1) (A) = P (T ^ (-1) (A)) $. Це все, що я знаю про збільшення ентропії та неможливість створити інформацію.

No Answers Yet

Related questions

Hot questions

Language

Popular Tags