Энтропия - мера сложности системы. В этом суть понятия энтропии. В большинстве приложений эта мера должна являться аддитивной (т.е. такой, чтобы энтропия совокупности двух систем равнялась сумме их энтропий). Кроме этого, налагают ещё некоторые условия (неотрицательность и т.д.). Из этих требований следует, что энтропия равна логарифму числа доступных состояний системы. Именно так определена энтропия Больцмана. Существует более сложное выражение для той же самой по сути величины, называемое энтропией Больцмана-Гиббса или энтропией Шеннона. Рассмотренное определение - это статистическое определение энтропии. Оно используется в статистической физике, а также в математике: теории информации и математической статистике.
В термодинамике энтропия является характеристикой макроскопического состояния системы. Она не имеет наглядной интерпретации (является абстрактной), но оказалось удобным ввести эту характеристику для построения математического аппарата термодинамики. Тем не менее, термодинамическая энтропия полностью соответствует статистической энтропии (это впервые установил Больцман), поэтому для этих разных определений используют одно название "энтропия".
Впервые слышу, что энтропия - это какая-то там энергия :D
Так вот почему люди свинячат везде и всюду...?
Когда в начале 90-х годов подрабатывал в булочной разнорабочим, то на 3-й день сказал владелице магазина (кстати к.т.н.), что моя задача, это уменьшение энтропии. С чем она согласилась и немного увеличила зарплату.