Законы энтропии

Законы энтропии

Законы энтропии

Энтропия – одна из важнейших физических величин термодинамики. В 1865 году ее в физику ввел Р. Клаузиус. Позднее понятие энтропии стали применять в других науках, например, химии, биологии, теории информации и т.д.

Практически возможно получить точное значение количества теплоты, которое получает или отдает система в конкретном процессе. Но говорить о том, какое количество теплоты содержит тело, не имеет смысла.

В общем случае тепло передается, но не сохраняется (оно может превращаться в работу, возникать при трении). При определённых условиях сохраняется энтропия.

Так, энтропия сохраняется в адиабатном процессе, который происходит без теплопередачи.

Из того факта, что энтропия возвращается к своей начальной величине в обратимом круговом процессе, следует вывод о том, что энтропия в данном состоянии не зависит от способа, которым данное состояние достигнуто, связано, а определено параметрами, которые определяют это состояние. Так, можно говорить о количестве энтропии в данном состоянии. Это является принципиальным отличием энтропии от теплоты.

Ничего непонятно?

Попробуй обратиться за помощью к преподавателям

В общем случае энтропия не имеет закона сохранения. В обратимых процессах энтропия может переходить из системы в окружающую среду и обратно. Если процесс в системе необратим, то изменение энтропии всегда больше нуля.

Введение энтропии в термодинамику вызвано не только потребностью использования ее вместо теплоты. Термодинамические параметры образуют пары, которые называют парами сопряженных величин. Энтропию считают величиной сопряженной температуре.

Понятие энтропии может сложно восприниматься, поскольку не существует прибора, который бы позволил измерить ее непосредственно, как мы изменяем температуру с помощью термометра.

Термодинамическое определение энтропии

В обратимом процессе энтропия определяется выражением:

$dS=\frac{\delta Q}{T}\left( 1 \right)$,

где приращение энтропии вызвано получением количества тепла $\delta Q$, при температуре системы, равной $T$. Выражение (1) называется термодинамическим определением энтропии.

Изменение энтропии определяют, проводя последовательность действий:

  1. Осуществляют перевод термодинамической системы из начального состояния в конечное состояние через ряд равновесных состояний.
  2. Определяют все порции тепла, которые подводят в реализуемых процессах ($\delta Q$).
  3. Находят отношения $\frac{\delta Q}{T}$.
  4. Суммируют полученные отношения:

$\Delta S=\sum\limits_i {\frac{\Delta Q_{i}}{T_{i}}\left( 2 \right),}$

или

$\Delta S=\int\limits_ab {\frac{\delta Q}{T}\left( 3 \right).}$

Замечание 1

Формула (3) определяет энтропию с точностью до постоянной величины.

Принцип выбора отдельных обратимых процессов или пути интегрирования не имеет значения. Энтропия – это функция состояния и выбор пути интегрирования значения не имеет. Важно только начальное и конечное состояния системы.

В любом обратимом круговом процессе изменение энтропии равно нулю.

Энтропия термодинамической системы в необратимом процессе увеличивается:

$\Delta S$>$0(4).$

Таким образом, для замкнутой системы можно записать неравенство Клаузиуса:

$\Delta S$≥$0(5).$

Неравенство (5) означает, что энтропия замкнутой системы или увеличивается (для необратимых процессов) или не изменяется (для обратимых процессов).

Статистическое определение энтропии

Термодинамика не может установить связь между энтропией и внутренними молекулярными свойствами системы. Свойства и физический смысл энтропии открывает статистическая физика.

Принцип Больцмана дает возможность выяснить причину увеличения энтропии в необратимых процессах.

$S=kln\left( W \right)\left( 5 \right)$,

где ($W$) – термодинамическая вероятность число способов, реализации данного состояния термодинамической системы; $k$ – постоянная Больцмана.

В соответствии с формулой Больцмана, энтропия является мерой вероятности состояния системы и мерой беспорядка.

При необратимых процессах эволюция системы направлена в сторону захвата незанятых состояний, то есть в сторону роста вероятности, и, следовательно, энтропии.

Верхней границы энтропии нет. Если создать состояние неравновесия в изолированной оболочке, то энтропия в этой системе будет увеличиваться с течением времени и придёт к максимуму в равновесном состоянии. С точки зрения физики это значит, что равновесное состояние термодинамической системы отвечает наибольшему числу микросостояний, с чьей помощью осуществляется исследуемое макросостояние.

По третьему началу термодинамики при стремлении температуры к нулю $(T→0)$ энтропия стремится к нулю. В соответствии с формулой (5) при $S=0$ термодинамическая вероятность равна единице ($W$=1). С точки зрения физики это значит, что рассматриваемая система может пребывать только в единственном микроскопическом состоянии, других микросостояний нет.

Второе и третье начала термодинамики

Первое начало термодинамики отражает закон сохранения энергии, но он не может указать направление течения процессов в термодинамических системах. Помимо этого можно найти много процессов, которые не входят в противоречие с первым началом термодинамики, но их невозможно реализовать.

Цель второго начала термодинамики:

  • дать ответ на вопрос о направлении развития термодинамических процессов,
  • отсечь процессы, которые невозможны в природе.

Одной из формулировок второго начала термодинамики является:

Во всех термодинамических процессах, которые проходят в замкнутых системах, энтропия убывать не может.

В этой формулировке существенным является то, что термодинамические системы должны быть замкнутыми. В незамкнутых системах энтропия способна вести себя как угодно, быть растущей, убывающей или неизменяющейся.

Замечание 2

Отметим, что энтропия постоянна только в обратимых процессах в замкнутой системе.

Уравнение (5) объясняет возрастание энтропии в замкнутой системе при необратимых процессах. Увеличение энтропии обозначает, что система переходит из состояния с меньшей вероятностью в более вероятное состояние. Получается, что формула Больцмана (5) дает статистические истолкование второго начала.

Первое и второе начала термодинамики не говорят о том, как ведет себя термодинамическая система около нуля термодинамической температуры. Поэтому возникает потребность в третьем начале. Третьим началом термодинамики является теорема Нернста – Планка. Оно говорит о том, что:

Около температуры равной абсолютному нулю, энтропия всех тел приближается к нулю:

$\lim S=0$ при $T\to$0.

Следствием третьего начала является то, что теплоемкости около абсолютного нуля также стремятся к нулю.

Источник: https://spravochnick.ru/fizika/termodinamika/zakony_entropii/

Просто о сложном… по-настоящему. Энтропия

Законы энтропии

Собственно, как я и предполагал .

«Я не знаю и не понимаю о чем говорю, поэтому давайте я вам расскажу ради рейтингов и популярности, что это такое… Еще и скажу, что это просто о сложном.»

Проблема автора предыдущего поста в том, что он в принципе не мог сказать просто о сложном, потому что до сих пор для себя сам не упростил это понятие и не понимает его. Ни его смысла, ни то, для чего его внедрили. А все просто — невероятно просто. Настолько просто, насколько это возможно.

Энтропия это величина потерь энергии, которые появляются, когда одно горячее тело, взаимодействуют с более холодным. Вот и все.

И введено это понятие было в эпоху развития термодинамики и изучения процессов внутри этих тел (часто связанных с двигателями — в этом как бы и идея была появления в целом всего этого раздела науки, термодинамики). И нужна эта величина была, потому что вся физика строиться на идеализации абстрактных объектов.

Идеальный математический маятник, идеально равномерное движение, идеальные точки взаимодействующие между собой с идеальной массой, с целой величиной, идеальный вечный двигатель, идеальный аппарат для пожирания мороженки.

Из-за этого многие формулы и алгоритмы были часто очень далеки от реальности, не совпадая с ней. Поэтому в области физики всегда появляется человек, который идеализируя систему упускает что-то, и поэтому его мысленный эксперимент так и остается в воображландии.

Реальность всегда сообщает нам о том, что мир чертовски не идеален. И с термодинамикой была ровно такая же херовая ситуация — в эпоху развития тепловых двигателей появилась радостная идея, что возможен вечный двигатель, который будет вечно двигать.

И как и сила трения в механике, которая компенсирует идеальные системы и сообщает нам о потерях при движении, энтропия введена в физику для того, чтобы при расчетах, была возможность опираться на неидеальность этого мира. Вот и все. Никакой сложности. Совершенно. Появление дальнейших спекуляций на эту тему я объясню ниже.

Для начала, почему так много в самой физике определений энтропии?

Как и сила трения, энтропия требует изучения, ведь понимая врага ты можешь действовать вопреки ему. Поэтому для ученых очень важно понимать — почему одни теплые тела передают энергию холодным хуже чем другие.

В разных разделах физики по разному отнеслись к решению этого вопроса, потому что для разных разделов эта величина требуется для разного применения. Как например у силы трения есть — сила трения качения, сила трения ровных поверхностей, сила трения пердения и тп…

Это просто разные способы применения одной и той же общей величины… Для разных ситуаций.

Приведенный пример автора поста из области статистической термодинамики. В статистической механики нет никаких объектов и процессов. Там полная абстракция, нужная для понимания взаимодействия теплого и холодного.

Там нет начала и конца процесса, нет четкого определения пути. Как и любая область науки, основанная на теории вероятности, ей требуется вывести идеальную формулу вероятности, для всего процесса переноса тепла. Всего.

Поэтому и введено понятие состояний, и возможности этих состояний.

Потому что — предположим — если бы статистическая механика занималась вопросом изучения поведения человека на посты предыдущего оратора. Тогда для понимания того, как человек отреагирует, необходимо учесть миллионы миллиарды факторов, влияющих на мое гхм на поведение абстрактного читателя, как поведет себя этот человек.

И если считать, что состояние покоя для абстрактного читателя это идеальное спокойствие и полная отрешенность, то какого будет число различных реакций этого человека? Какого количество различных вариантов? Вот статистическая поведенединамика изучала бы миллион возможных вариантов, при которых различные размеры «энтропии» поведения, то есть потерь, которые бы появлялись при передачи информации от одного любящего рейтинги тела к другому спокойному телу, были бы определены процентом ОТ ВСЕХ ВОЗМОЖНЫХ СОСТОЯНИЙ. Поэтому там такие огромные числа. Они не просто так нужны, потому что вероятность требует учитывать большое число вещей… И не стоит путать обычную ЭНТРОПИЮ и СТАТИСТИЧЕСКУЮ ЭНТРОПИЮ. Это понятия для разных разделов и абстракций…

Физики очень занудные люди, как и любые люди стремящиеся все привести к цифрам… вы еще с математиками не общались, ога. И физикам очень нравится всё без причины приводить к формулам. Для этого и вычисляется они и занимаются таким доскональным подсчетом всего. Это и применение иногда находит, даже.

Теперь собственно об росте энтропии. Что вообще подразумевают под ростом энтропии. Почему рост неизбежен, и вообще редко, когда наоборот.

Потому что все исходит из формулы. Все вообще в физике исходит из формул. Физики это естественнонаучные математики, они не говорят на человеческом языке — у них есть простой и понятный для них язык формул. Который жестко зафиксирован.

И вот глядя на формулу (картинка ниже) понимаешь, что чем больший промежуток времени ты берешь, тем больше потерь (суммарно) в системе происходит. Вот и все. Теории хаоса у них… Проще надо быть.

Почему теплое тело охлаждаясь понижает свою энтропию? Потому что формулы, вот почему…

Потому что по формуле, если ты вычитаешь из холодного теплое, то энтропия по формуле будет со знаком минус. ВОТ И ВСЕ. Никакой МАГИИ. Никакой особенности. Просто парадокс формулы объяснен таким образом. Вот и все… Когда из меньшего вычитаешь большее — то получишь локально выражение со знаком минус.

Теперь логично бы перейти к трем основам термодинамики…

И как это всегда бывает логично для меня, как для программиста, начнем с нулевого закона термодинамики.

Нулевой закон гласитесли два тела в тепловом взаимодействии с третьим телом… То все три тела будут в тепловом взаимодействии. Лодку мне… Тут думаю все понятно.

Первый закон гласит — энергия может менять состояние, может быть красной и квадратной, но сумма энергии системы обязана оставаться суммарно одинаковой. И энтропия тоже никуда не девается — просто это потери одной из систем, которые преобразуются во что-то кроме тепла, или выходит за границы систем. Вот и все…

Второй закон — сумма энтропий в ЕСТЕСТВЕННЫХ (далеких от идеала) термодинамических системах со временем будет только расти. Всегда. Наверное прочитавший это скажет — «ВАУ. Какой сложный закон, объясняющий все в мире… а нет. Подождите. Где то обман.

Там ведь сложнее было.» А вот и нет. Ни фига там не было сложнее. Все что говорит второй закон термодинамики, что знаете ребята, мир он как бы не идеален, и не вся энергия передаваемая от одного тела другому будет полностью передана.

Потери неизбежны, учитывай это в своих расчетах, лалка.

Третий закон — энтропия абсолютно идеального тела (абсолютли, как Курицын например), который по температуре равняется нулю, как твоя бывшая, тоже равняется нулю.

То есть сколько бы парниша не остывал, но достигнув нуля, он остывать перестанет. Потому что не может быть температуры ниже нуля. А значит и потерь тепла тоже не может быть. А значит невозможна энтропия.

Очевидно блядь…

Как видим — НЕТ НИЧЕГО СЛОЖНО В ТРЕХ НАЧАЛАХ. Совершенно. Это простые законы, которые просто избавляют голову от лишнего геммора и не требуют каждый раз объяснять человеку — почему это не так. Человеку знающему эти законы… К сожалению, человек знающий их херней не страдает, а неучам все равно приходится объяснять, что это значит.

Так вот… Как же так вышло, что за словом энтропия закрепился стереотип, что это мол термин для всего, говорящий нам обо всем.

Причины в этом три…

Первая — ученые любят мокрощелки и популярность.

Вторая ученые любят философствовать, а слов человеческих у них нет, вот они и используют слова из своей области науки.

Третья — большинство людей ленивые тупые идиоты, любящие романтизировать вещи, которые не понимают.

Вы должны понимать, что появление термодинамики, как области науки совпало, да и в принципе стало причиной, технического прогресса в мире в 18-19 веках. Эпохи великий изменений в науке.

Тогда наука стала своего рода мэйнстримом, желанием и способом заработать популярность. Наукой интересовались, стремились изучить и понять, стремились объяснить ей все.

Тогда движущей силой науки были захватившие популярность термодинамические системы — двигатели разных мастей.

Так например развитие современных ИТ технологий и связанных с ними наук, популярно у нас сейчас, у них популярным было собрать двигатели.

А потом появились реактивные двигатели, и популярным стало быть кем то околокосмическим. Понятное дело, что такая популярность стала прекрасным подспорьем для всякого рода комичных элементов.

Первое — как убедить телочку и глупую публику в том, что ты неограниченно умный и крутой? Да очень просто — говори обыденные вещи заумными словами…

«Милая, наша любовь наполнена энтропией! Я так больше не могу, это гложет меня!» «Дорогой, ты такой романтичный, что я аж кончу»,

«Милая, все неизбежно ведет к хаосу и потерям, давай займемся сексом» «О господи, я теку от твоей гениальности»

Второе — как показать себе лично, что ты неебаца философ? «Все очень плохо, это знаете… в физике есть такое понятие, энтропия, вот все в мире постепенно катиться в тартарары»

Ясен пень, такое использование этого термина не могло не остаться без последствий, потому что люди в большинстве своем невероятно тупы.

И если умный человек, делающий высказывания только для повышения своего чсв, использует термин «энтропии», где не попадя, то черт возьми это неизбежно приведет к тому, что тупой, подражая умному, тоже будет использовать этот термин, где не попадя.

Так как общение людей, неизбежно приводит к тому, что использованный ни к месту термин приводит к непониманию и разночтениям, то начинаются жесточайшие споры терминологий.

Но проблема в том, что используется этот термин для поднятия своего ЧСВ и рейтинга в обществе.

И логично, ввиду тупости и тщеславия большинства людей, что вместо того, чтобы признать, что использующие этот термин просто тупые долбоебы, которые не умеют в слова, начинают придумывать дополнительное значение слову, которое будет иметь широкое философское применение — мера хаоса, мера потерь, великая абстрактная абСракность. Вот такая вот солидарность псевдозаумных любителей философствовать и глупцов — и чсв целы, и философы чсв могут свое дальше тереть. Этакая, социальная энтропия разума… бггг.

Потому что говорить — омг энтропия это сложно, это мол мера потерь, мера хаоса  — принято в обществе и очень круто звучит. А говорить, что сила трения это сложно, это мера потерь, мера хаоса — звучит не так круто. Потому что что такое энтропия не знает большинство людей, а с трением так или иначе сталкивался каждый.

А значит телочку уже развести не получится заумными словами вида «Любая деятельность ведет к потерям, даже наши отношения, это знаешь… ну как… трение» «Не звони мне больше.»

Энтропия просто красивое слово и термин, которое стало жертвой своей красоты.

Резюмируя — не надо обожествлять физику. Не надо делать ее философским, сложным течением, в которой так много всего романтичного и непонятного.

Физика проста, скучна и безынтересна сама по себе,  так как является простым инструментом — как топор.

Но как и топором, физикой можно пользоваться и получать удовольствие от правильного ее применения, а можно убить бабушку… Будьте осторожны.

Использование научного термина, для ненаучной аналогии это хорошо, когда ты пытаешься найти интересную аналогию. Но их нельзя использовать постоянно — так как тогда термин становится волшебной коровой. К тому же, аналогии не лучший способ познать то, что ты используешь в качестве аналогии.

И если ты каждый раз заменяешь понятие посрать, на другой эвфемизм, например поспать, то нет ничего удивительного, что когда ты начнешь объяснять несведущему в процессе дефекации человеку, что такое отложить гигантского коричневого червя в дюны белой фарфоровой пустыни, используя вместо термина посрать, термин поспать, что человек услышавший тебя, будет путать эти понятия в дальнейшем и применять их везде не понимая, почему процессы так не похожи, при этом считая себя очень тупым, хотя все на самом деле намного проще.

Все намного проще — энтропия не какая то великая магия, не какое то непонятное ничего. Это просто мера потерь в термодинамике. Не больше не меньше.

Не дурите себя филосовствованием, не пугайтесь тем, что в разных областях науки ее определяют разным расширением формулы — так нужно не потому что энтропия как понятие сложно, а потому что так проще определить какое то другое значение, на которое влияет энтропия, чтобы понять, как в этом процессе она задействована. Сама идея и причина появления термина ПРОЩЕ.

Я не идеален, термодинамика последний раз мной изучалась в 2006 году, и я мог многое забыть (энтропия, епт). Мог многое исковеркать, потому что в физике всегда есть много НО и сносок, которые все простым объяснением не объяснишь. Вообще.

Но моей целью не было рассказать вам всё — моей целью было донести до вас простыми словами то, что вы возможно считали сложным и не понимали, и боялись понять и постигнуть.

Потому что проблема популяризаторов науки не в том, что люди тупые, а в том, что популяризаторы науки не могут показать людям, что боятся науки не надо — там все проще и приземленней, если не требуется вдаваться в подробности.

Надеюсь у меня получилось упростить для вас картину мира.

Критика приветствуется, даже неадекватная. Неадекватная меня сильно посмешит, так что польза есть. Адекватная расширит мой кругозор.

P.S. Пишу это постом, не потому что хочу популярности — изначально это было сообщением. Просто многие сообщали мне о том, что мои гигантские сообщения очень неудобно искать по пикабу, и лучше бы я делал это в виде постов. Надеюсь мои хатико-подписчики довольны. Недоброжелатели добавляйте тег — лутшее эксплонейшен в игнор и вы не будете видеть мои посты.

Источник: https://pikabu.ru/story/prosto_o_slozhnom_po_nastoyashchemu_yentropiya_4308861

Вездесущая энтропия: от смерти Вселенной до груды грязной посуды

Законы энтропии

Впервые термин «энтропия» в 1865 году ввел немецкий физик Рудольф Клаузиус.

Тогда он имел узкое значение и использовался в качестве одной из величин для описания состояния термодинамических систем — то есть, физических систем, состоящих из большого количества частиц и способных обмениваться энергией и веществом с окружающей средой.

Проблема заключалась в том, что до конца сформулировать, что именно характеризует энтропия, ученый не смог. К тому же, по предложенной им формуле можно было определить только изменение энтропии, а не ее абсолютное значение.

Упрощенно эту формулу можно записать как dS = dQ/T. Это означает, что разница в энтропии двух состояний термодинамической системы (dS) равна отношению количества тепла, затраченного на то, чтобы изменить первоначальное состояние (dQ), к температуре, при которой проходит изменение состояния (T).

Например, чтобы растопить лед, нам требуется отдать ему некоторое количество тепла. Чтобы узнать, как изменилась энтропия в процессе таяния, нам нужно будет поделить это количество тепла (оно будет зависеть от массы льда) на температуру плавления (0 градусов по Цельсию = 273, 15 градусов по Кельвину.

Отсчет идет от абсолютного нуля по Кельвину ( — 273° С ), поскольку при этой температуре энтропия любого вещества равна нулю). Так как обе величины положительны, при подсчете мы увидим, что энтропии стало больше.

А если провести обратную операцию — заморозить воду (то есть, забрать у нее тепло), величина dQ будет отрицательной, а значит, и энтропии станет меньше.

Примерно в одно время с этой формулой появилась и формулировка второго закона термодинамики: «Энтропия изолированной системы не может уменьшаться». Выглядит похоже на популярную фразу, упомянутую в начале текста, но с двумя важными отличиями.

Во-первых, вместо абстрактного «мира» используется понятие «изолированная система». Изолированной считается та система, которая не обменивается с окружающей средой ни веществом, ни энергией.

Во-вторых, категорическое «увеличение» меняется на осторожное «не убывает» (для обратимых процессов в изолированной системе энтропия сохраняется неизменной, а для необратимых — возрастает).

За этими скучноватыми нюансами скрывается главное: второй закон термодинамики нельзя без оглядки применять ко всем явлениям и процессам нашего мира.

Хороший тому пример привел сам Клаузиус: он считал, что энтропия Вселенной постоянно растет, а потому когда-нибудь неизбежно достигнет своего максимума — «тепловой смерти». Этакой физической нирваны, в которой не протекают уже никакие процессы.

Клаузиус придерживался этой пессимистической гипотезы до самой смерти в 1888 году — на тот момент научные данные не позволяли ее опровергнуть. Но в 1920-х гг. американский астроном Эдвин Хаббл доказал, что Вселенная расширяется, а значит, ее

сложно назвать изолированной термодинамической системой. Поэтому современные физики к мрачным прогнозам Клаузиуса относятся вполне спокойно.

Энтропия как мера хаоса

Поскольку Клаузиус так и не смог сформулировать физический смысл энтропии, она оставалась абстрактным понятием до 1872 года — пока австрийский физик Людвиг Больцман не вывел новую формулу, позволяющий рассчитывать ее абсолютное значение. Она выглядит как S = k * ln W (где, S — энтропия, k — константа Больцмана, имеющая неизменное значение, W — статистический вес состояния). Благодаря этой формуле энтропия стала пониматься как мера упорядоченности системы.

Как это получилось? Статистический вес состояния — это число способов, которыми можно его реализовать. Представьте рабочий стол своего компьютера.

Сколькими способами на нем можно навести относительный порядок? А полный беспорядок? Получается, что статистический вес «хаотичных» состояний гораздо больше, а, значит больше и их энтропия.

Посмотреть подробный пример и рассчитать энтропию собственного рабочего стола можно здесь.

В этом контексте новый смысл приобретает второй закон термодинамики: теперь процессы не могут самопроизвольно протекать в сторону увеличения порядка. Но и тут не стоит забывать про ограничения закона.

Иначе человечество уже давно было бы в рабстве у одноразовой посуды. Ведь каждый раз, когда мы моем тарелку или кружку, нам на помощь приходит простейшая самоорганизация. В составе всех моющих средств есть поверхно-активные вещества (ПАВ). Их молекулы составлены из двух частей: первая по своей природе стремится к контакту с водой, а другая его избегает.

При попадании в воду молекулы «Фэйри» самопроизвольно собираются в «шарики», которые обволакивают частички жира или грязи (внешняя поверхность шарика это те самые склонные к контакту с водой части ПАВ, а внутренняя, наросшая вокруг ядра из частички грязи — это части, которые контакта с водой избегают).

Казалось бы, этот простой пример противоречит второму закону термодинамики. Бульон из разнообразных молекул самопроизвольно перешел в некое более упорядоченное состояние с меньшей энтропией.

Разгадка снова проста: систему «Вода-грязная посуда после вечеринки», в которую посторонняя рука капнула моющего средства, сложно считать изолированной.

Черные дыры и живые существа

Со времен появления формулы Больцмана термин «энтропия» проник практически во

все области науки и оброс новыми парадоксами. Возьмем, к примеру астрофизику и пару «черная дыра — падающее в нее тело». Ее вполне можно считать изолированной системой, а значит, ее энтропия такой системы должна сохраняться. Но она бесследно исчезает в черной дыре — ведь оттуда не вырваться ни материи, ни излучению. Что же происходит с ней внутри черной дыры?

Некоторые специалисты теории струн утверждают, что эта энтропия превращается в энтропию черной дыры, которая представляет собой единую структуру, связанную из многих квантовых струн (это гипотетические физические объекты, крошечные многомерные структуры, колебания которых порождают все элементарные частицы, поля и прочую привычную физику). Впрочем, другие ученые предлагают менее экстравагантный ответ: пропавшая информация, все-таки возвращается в мир вместе с излучением, исходящим от черных дыр.

Еще один парадокс, идущий вразрез со вторым началом термодинамики — это существование и функционирование живых существ. Ведь даже живая клетка со всеми ее биослоями мембран, молекулами ДНК и уникальными белками — это высокоупорядоченная структура, не говоря уже о целом организме. За счет чего существует система с такой низкой энтропией?

Этим вопросом в своей книге «Что такое жизнь с точки зрения физики» задался знаменитый Эрвин Шредингер, создатель того самого мысленного эксперимента с котом: «Живой организм непрерывно увеличивает свою энтропию, или, иначе, производит положительную энтропию и, таким образом, приближается к опасному состоянию максимальной энтропии, представляющему собой смерть. Он может избежать этого состояния, то есть оставаться живым, только постоянно извлекая из окружающей его среды отрицательную энтропию. Отрицательная энтропия — это то, чем организм питается».

Точнее организм питается углеводами, белками и жирами. Высокоупорядоченными, часто длинными молекулами со сравнительно низкой энтропией. А взамен выделяет в окружающую среду уже гораздо более простые вещества с большей энтропией. Вот такое вечное противостояние с хаосом мира.

Источник: https://theoryandpractice.ru/posts/8366-entropiya

Энтропия? Это просто!

Законы энтропии

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What's an intuitive way to understand entropy?, заданный на сайте Quora Энтропия.

Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое.

Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь.

Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, тоЭнтропия — это то, как много информации вам не известно о системе Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.

Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём). Или рассмотрим другой пример.

Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием.

Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии. Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30.

У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать: S = log Ω Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии.

Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B. Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы.

У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей. Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере.

Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях. Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния».

Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень.

Для идеального газа уравнение состояния имеет простой вид: p = ρT

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона — Менделеева pV = νRT — это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать.

Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией. Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика.

Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.

Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка.

Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях.

Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад. Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто.

Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других.

Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится.

Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона.

Его задача — пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа. Получается, что наш демон понизил энтропию системы.

С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно? Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе.

Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему).

Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку.

То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

  • энтропия
  • термодинамика
  • статистическая физика

Источник: https://habr.com/post/374681/

Booksm
Добавить комментарий