Энтропия, вообще говоря, относится не только к физике, но вообще любой математической конструкции, где для описания общих свойств системы мы пренебрегаем параметрами отдельных её частей.
Это, например, статистическая физика, где для описания системы (газа/плазмы), мы отказываемся от идеи смотреть на конкретные параметры (координаты, скорости) отдельных частиц, а вводим общие свойства системы, такие как температура или давление.
Энтропия, является такой же коллективной характеристикой статистической системы, в различных теориях она определяется по-разному. Но в целом энтропия показывает насколько система хаотична. Чем больше энтропия, тем, следовательно, больше число теоретических состояний, в которых может находиться система.
H-теорема говорит о том, что энтропия (в замкнутых системах) в целом должна возрастать, т.е. с эволюцией число возможных состояний системы растёт, и описание системы с помощью слежения за отдельными её элементами всё усложняется.
У энтропии замкнутых систем есть максимум (так как есть максимум у числа состояний), и это состояние с максимальной энтропией (хаотичностью) называется равновесным. Именно для этого состояния в термодинамике вводятся понятия температуры, давления и т.д.
P.S. Важно ещё отметить, что максимальная энтропия (т.е. максимальная хаотичность) не означает, что систему всё сложнее и сложнее описать. Напротив, сложнее описать именно переходные состояния, между минимально хаотичным (например, ламинарное течение) и максимально хаотичным (например, полностью турбулентное течение). В максимально хаотичном состоянии система хорошо описывается статистическими общими параметрами.
Впервые слышу, что энтропия - это какая-то там энергия :D
Так вот почему люди свинячат везде и всюду...?
Когда в начале 90-х годов подрабатывал в булочной разнорабочим, то на 3-й день сказал владелице магазина (кстати к.т.н.), что моя задача, это уменьшение энтропии. С чем она согласилась и немного увеличила зарплату.