Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Распределения вероятности функци и энтропия

    Состояние системы и направление процессов, протекаюш,их в системе, можно определить с помощью изменения новой термодинамической функции — энтропии. Это понятие было введено в термодинамику Клаузиусом. Энтропия может определяться как мера беспорядка в системе, мера ее однородности в распределении частиц по системе. Чем выше хаос в системе, тем выше значение энтропии, и наоборот. В изолированной системе могут протекать только спонтанные процессы, переводя систему из менее вероятного в более вероятное состояние. [c.82]


    В теории абсолютных скоростей реакций также принимают необходимость достижения системой энергии активации, учитываемой множителем и вычисляют вероятность реакции, принимая во внимание отношение функций распределения и частоту колебания вдоль связи, разрыв которой приводит к образованию продуктов. В термодинамической теории экспоненциальный множитель фигурирует в виде его рассматривают как функцию энтропии активации Л5+, причем он содержит также частотный множитель кТ/к, полученный в теории абсолютных скоростей реакций. Для практических целей энергии активации во всех трех теориях считают совпадающими и равными экспериментальной аррениусовской энергии активации [c.259]

    Как и при доказательстве свойств 1—3 энтропии, изложенном в начале раздела, рассмотрим такие описываемые с помощью функций / макросистемы, набор возможных состояний которых дискретен. При этом вместо функции /( а ,т) следует использовать распределение вероятностей РП с) - Например, когда величины ст принимают лишь дискретные значения, множество состояний соответствующей макросистемы также будет дискретным. [c.71]

    Некоторые важные понятия статистической физики (в первую очередь, понятие статистической энтропии) тесно связаны с понятиями теории информации. Можно говорить о широком взаимном проникновении идей в рамках этих двух наук, которое приводит к их обогащению. При этом появляется возможность находить содержательную интерпретацию результатов одной науки на языке другой, а также строить методы решения соответствующих проблем одной науки, аналогичные тем методам, которые использованы в другой науке для получения известных решений сходных проблем. Так, в начале своего развития теория информации существенно опиралась на фундаментальные идеи статистической физики. Теперь же, когда теория информации хорошо разработана, построенный в ее рамках математический аппарат оказывается весьма полезным при построении методов статистической физики. Например, разработанный в, теории вероятностей наименее предубежденный (или наименее ошибочный) метод нахождения распределения вероятностей может быть использован в статистической физике для построения равновесных функций распределения. Краткому изложению этого метода, в основе которого лежит понятие информационной энтропии, посвящен этот раздел. [c.353]


    Максимизируя значение меры неопределенности с учетом дополнительных условий (П.1. 1.6), можно в каждом конкретном случае найти наилучшее распределение вероятностей. Рассмотрим, в частности, совокупность возможных состояний равновесной макросистемы, вероятности осуществления которых задаются набором (р, . Величины р, должны удовлетворять некоторым условиям типа (П.1. 1.6), которые описывают характер взаимодействия макросистемы с внешней средой. Поскольку в условиях равновесия никаких других ограничений на значения величин p не существует, наилучшим в рамках теории информации нужно считать распределение, максимизирующее функцию Я((Й)- Этот вывод согласуется с одним из наиболее важных выводов статистической физики (см. раздел 1.3) энтропия в состоянии равновесия принимает максимальное значение. [c.356]

    Предполагается, что все принципиально возможные механические состояния системы действительно осуществляются за время, равное или меньшее времени опыта. Далее, каждое состояние характеризуется числом, определяющим вероятность перехода системы в это состояние. Существование распределения таких вероятностей одновременно подразумевает существование величины, характеризующей собой усредненное количество информации, которая имеется относительно механической системы. Это усредненное количество информации (с точностью до знака и фактора пропорциональности) тождественно средней энтропии системы или термодинамической энтропии, если кривая распределения вероятностей представляет собой достаточно острый пик. Для макроскопического равновесного состояния функция распределения вероятностей может быть записана в явном виде, исходя из принципа возрастания энтропии. Эта функция полностью определяется значениями термодинамических переменных. [c.29]

    На основании (III. 3) можно найти вид равновесной функции распределения, если учесть, что равновесное распределение — это самое вероятное распределение, при котором энтропия максимальна. Другими словами, нужно найти такую функцию, при которой энтропия принимает максимальное значение. При решении этой задачи нужно учитывать условие нормировки  [c.200]

    Иной подход к оценке мер причинных воздействий в сложных системах может быть развит при переходе от функциональной модели к информационной. Если мы рассмотрим бинарное причинно-следственное отношение между двумя факторами X,-, то достаточно универсальной моделью будет уравнение, определяющее распределение вероятностей различных x k при известном состоянии х , т. е. функцию состояний вида р/г = = Р (х,- = Х1к 1 Х( = Х1т). Однако для вывода и обоснования таких уравнений в случае сложных систем необходим не только достаточно высокий уровень развития теоретических представлений о системе, но и большой объем надежной эмпирической информации о состояниях элементов системы. Достаточно простой и весьма общей оказывается модель причинно-следственного отношения в форме соотношения между функционалами информации и энтропии [29—32]. [c.52]

    Энтропия и свободная энергия. Рассмотрим физическую систему 5, которая в неквантовом случае характеризуется функцией Гамильтона Ж (г). Здесь г = д, р) = ( ь. .., р ,. .., рп) динамические переменные, т. е. совокупность координат и импульсов системы 5. Равновесное распределение вероятностей в фазовом пространстве обозначаем через хю (г). [c.16]

    Со времен пионерской работы Шеннона функция распределения вероятностей в линейной последовательности знаков используется для оценки информационной нагрузки на один знак. В качестве меры упорядоченности и информационной значимости отдельных элементов (букв) текста было принято изменение энтропии последовательности при переходе от случайного распределения элементов в цепи к распределению, учитывающему количество повторов одних и тех же сочетаний букв в данной последовательности. Мы будем пользоваться этим методом при исследовании аминокислотных последовательностей нескольких регуляторных полипептидов. [c.91]

    Условие равновесия в такой системе характеризуется максимумом вероятности состояния или максимумом энтропии. Таким образом, задача наиболее вероятного распределения молекул сводится к отысканию максимума функции 5 при дополнительных условиях (УП1.4). Это задача на относительный максимум, которую можно решить методом неопределенных множителей Лагранжа. [c.217]

    Мы увидим, что это обобщение действительно возможно для целого класса явлений, при описании которых локальная энтропия может быть выражена через те же самые независимые переменные, что и для системы, находящейся в равновесии. Это есть ни что иное, как предположение о локальном равновесии , применимость которого основана на утверждении, что благодаря столкновениям имеется тенденция к восстановлению термодинамического равновесия. Другими словами, функция распределения молекул по скоростям и относительным расстояниям в любой момент времени не может сильно отклоняться от своей равновесной формы (разд. 2.2). Это условие должно рассматриваться здесь как достаточное для приложения термодинамических методов. Вполне вероятно, что единый термодинамический подход мог бы быть оправдан при менее жестких ограничениях, однако мы не используем эту возможность. [c.9]


    Основное уравнение. Для построения теории адсорбции очень удобен метод молекулярных функций распределения, развитый в статистической физике, так как он позволяет не только рассчитать макроскопические параметры системы (адсорбцию, поверхностное натяжение, поверхностную энтропию и т. д.), но и определить молекулярную структуру адсорбированного вещества. Обозначим через (Г1) унарную функцию распределения, характеризующую вероятность найти частицы 1 в точке Г1 нри произвольном положении остальных Н — 1) частиц адсорбента, а через (г , Г2) — бинарную функцию распределения, определяющую вероят- [c.338]

    В последней части пятой главы обсуждается с различных точек зрения приближение системы к положению равновесия и связанная с этим процессом проблема необратимости макроскопических явлений. Этого вопроса автор касался уже в предыдущих главах. Вводятся понятия о микро- и макросостояниях и о крупнозернистом разбиении фазового пространства. Используется принцип равных априорных вероятностей и другие положения статистической механики и термодинамики, в частности различные аспекты понятия энтропии. Выводится знаменитая формула Больцмана для энтропии, распределение Больцмана для наиболее вероятного макросостояния. Дается представление о трех видах канонических ансамблей в статистической механике, о статистических суммах и связях этих понятий с энтропией и другими термодинамическими функциями системы. Наконец, применяются понятия о флуктуациях и среднеквадратичном отклонении. [c.7]

    Наиболее вероятное распределение с двумя электронами в каждой лоджии становится определяющим, и энтропия этого распределения увеличивается, тогда как флуктуация числа электронов в каждой лоджии остается постоянной по величине. С физической точки зрения, например для энергетических расчетов, важными являются только локальные свойства волновой функции, так как все наблюдаемые соответствуют локальным операторам и могут быть представлены в виде суммы локальных вкладов. Чтобы получить относительную оценку степени (де)локализации, необходимо рассмотреть усредненную недостающую информацию, или усредненную флуктуацию, для N лоджий [c.19]

    Было предложено много методов, с помощью которых можно оценить потенциал отдельного электрода и активность ионов одного типа. Абсолютный потенциал каломельного электрода был вычислен методом, описанным выше для определения Е°, но с дополнительным рассмотрением изменения энтропии ионов одного типа. Основная трудность такого расчета заключается в построении теоретической модели и подборе эмпирической кривой, которые позволяют достаточно точно оценить энергию гидратации и энтропийные члены отдельных ионов. Латимер, Питцер и Слан-ский [10] вычислили энергию гидратации ионов одного типа с помощью уравнения Борна (см. гл. 2) при этом оказалось необходимым определить радиус иона и распределение энергии гидратации между положительным и отрицательным ионами. Опираясь на модель гидратированного иона, авторы приняли радиус катиона равным ионному радиусу по Полингу +0,85 А, т. е. = = (/"кат + 0,85) А (см. гл. 4). Функцию распределения энергии гидратации между положительным и отрицательным ионами в Сз1 подбирали таким образом, чтобы значения для обоих ионов легли на кривую Борна. Этот путь, вероятно, может дать правильное значение для энергии гидратации ионов одного типа, но не является термодинамически оправданным. [c.342]

    Использование статистических представлений позволяет н только выяснить физический смысл закона возрастания энтропии, который заключае бя в переходе системы из менее вероятного в более вероятное состояние, но и- в ряде случаев строго вывести этот закон из уравнений, описывающих изменение функции распределения во времени. В частности, ниже будет показано, что второе начало термодинамики для необратимых процессов (1.3.15) может быть выведено из так называемого основного кинетического уравнения. Прежде чем переходить к этому выводу, введем некоторые новые понятия. [c.68]

    Избранные функции распределения, отличающиеся от равновесных, быть может отвечали условию минимума производства энтропии. Вопрос, но-вндимому, нельзя рещить, налагая только это ограничение. Функции, вероятно, должны были служить задачам создания аппаратов регулирования и поэтому могли существенно отклоняться и от этого условия. [c.63]

    Энтропия как функция вероятности. Если разные макросостояния газа равновероятны, то совершенно естественно допустить, что газ, предоставленный самому себе, стремится принять наиболее вероятное состояние, т. е. то, которому отвечает наибольшее возможное число микросостояний. Дальше будет доказано, что такое предположение находится в согласии со вторым началом термодинамики. В нашем примере, как было показано, наиболее вероятным состоянием будет равномерное распределение молекул в объеме. Если первоначально все молекулы занимали например лишь левую часть трубки, то через короткое время они распределятся по всей трубке. Если последнюю соединить с другой пустой трубкой, то газ равномерно распределится между обеими. Одним словом, газ стремится равномерно распределиться по всему объему и, как частный случай, расширяться в пустоту. [c.136]

    Выше показано, что статистическое рассмотрение высокоэластической деформации позволяет установить связь числа возможных конформаций макромолекул с расстоянием между концами цепей. Каждой величине деформации соответствует определенное вреднее расстояние между концами макромолекулы, которое и характеризует термодинамическую вероятность существования системы, т. е. ее энтропию. При растяжении эластомера расстояние между концами макромолекулы увеличивается по сравнению с наиболее вероятным, а число способов реализации состояния системы уменьшается в соответствии с функцией распределения Гаусса (см. рис. 3.3 и 3.4). Следовательно, энтропия системы снижается, что проявляется в росте упругой силы и повышении температуры системы. [c.86]

    Как уже указывалось, Джемс и Гут подсчитывали изменение энтропии при вулканизации иным способом. Представим изменение энтропии при образовании каждой новой сшивки выражением к 1п где —вероятность образования сшивки между двумя атомами старой сотки, пропорциональная вероятности их случайного нахождения в одном и том же элементе объема (IV. Интегрирование уравнения (8. 193) по всем координатам внутренних точек, кроме разностей координат двух точек X и V, приводит к следующей функции распределения для = — г,, = г/т - /у. С = 2, — 2, [c.429]

    Уолл [49,52] предложил теорию совершенно другого характера. Он отказывается от вычисления индивидуальных молекулярных энтропий и рассматривает макроскопическую систему в целом. Он не дает точного описания своей модели и скорее постулирует, чем выводит функции распределения как для растянутого, так и для нерастянутого состояния системы. Затем он переходит к вычислению вероятности растянутого и нерастянутого состояний и отсюда —к изменению энтропии. Конечный результат Уолла согласуется с уравнением (82). [c.133]

    После успехов в области термодинамики наметились новые перспективы в кинетической теории материи связь между температурой газа и кинетической энергией движения молекул позволила Дж. Максвеллу создать метод исследования систем, состоящих из очень большого числа частиц. Максвелл вводит понятие вероятности и устанавливает свой знаменитый закон распределения скоростей. Работы Дж. Гиббса и Л. Больцмана способствовали быстрому развитию новых отраслей естествознания — статистической механики и статистической термодинамики. Больцман исследовал второе начало с точки зрения молекулярно-кинетических представлений и нашел функцию (Я-функция), обладающую тем свойством, что она в неравновесной системе при столкновении молекул уменьшается, но принимает постоянное значение, когда достигнуто равновесное состояние, отвечающее закону Максвелла. Эта функция отличается от энтропии только знаком. М. Планк выразил результат открытия Больцмана в сжатой форме энтропия пропорциональна логарифму вероятности данного состояния. Так успешно объединяются чисто термодинамические концепции с молекулярно-кинетическими. Выдающиеся исследования Гиббса приводят к созданию стройной теории термодинамических потенциалов и теории равновесия фаз, оказывая сильное влияние на все последующее развитие физической химии. [c.5]

    Итак, мы показали, что существует такой функционал Н, который ставит в соответствие каждой функции распределения/действительное число Я(/), равное взятому с обратным знаком значению логарифма вероятности реализации распределения /. В том случае, когда однородный газ эволюционирует в соответствии с уравнением Больцмана, Н является убывающей функцией времени. Иными словами, если функции / и /2 описывают состояние газа в фазовом пространстве (/х-про-странстве) в моменты времени и соответственно, то при объем области jT-пространства, соответствующий функции /2, больше объема области Г-пространства, соответствующего функции / . При /- оо функция распределения приближается к максвелловской и, когда достигается равновесное состояние, функционал Н характеризует энтропию газа. [c.85]

    С ТОЧКИ зрения химика энтропия системы является макроскопической функцией состояния, т. е. функцией, зависящей от системы. В статистической механике энтропия является мезоскопической величиной, т. е. функционалом, зависящим от распределения вероятности. Но энтропия никак не может быть микроскопической величиной, потому что на микроскопическом уровне отсутствует необратимость .  [c.189]

    Согласно принципу максимума энтропии, при равновесном распределении р, не только выполняются условия (1.4.3), (1.4.4), но и максимизируется значение энтропии. Следовательно, для отыскания равновесного распределения вероятностей необходимо найти такой набор величин р, , при котором энтропия 5( р, ), определяемая формулой (1.4.5), принимает экстремальное значение и справедливы соотиошения (1.4.3), (1.4.4). Подобные задачи обычно называют задачами отыскания условного экстремума некоторой функции (в данном случае функции 5( р, )). [c.76]

    Следующий важнейший шаг как с точки рения построения кинетической теории газов, так и одновременно с точки зрения развития обш,ей проблемы статистических закономерностей в физике был сделан Больцманом, который, исходя из конкретных представлений механики о взаил5одейстиии молекул га.чл посредством парных столь новений, вывел свое основное интегро-дифференциальное ураипепие для функции расиределения частиц но скоростям. Это уравнение, называел5ое кинетическим уравно нием Больцмана, представляет собой математическую формулировку статистического закона изменения во времени и пространстве распределения молекул газа но скоростям, обусловленное как внешними воздействиями сил и полей па газ, так и взаимодействием молекул газа между собой благодаря их столкновениям. Кинетическое уравнение позволило с помощью /-теоремы Больцмана дать атомистическое истолкование второго начала термодинамики. При этом был вскрыт статистический смысл понятия энтропии, установлена связь энтропии с вероятностью состояний ансамбля частиц газа. [c.14]

    Энтропия и вероятность. Выше был рассмотрен с статистической точки зрения вопрос о наиболее вероятном распределении молекул по объему. Этот же вопрос можно рассмотреть также с термодинамической точки зрения. Расширение газа и рарномерное заполнение им всего объема сосуда есть процесс необратимый, протекающий спонтанно, так как он сопровождается увеличением энтропии 2. Только что было показано, что этот же процесс сопровождается увеличением вероятности W состояния. Рассматривая другие термодинамические процессы одновременно с макроскопической и микроскопиМеской точек зрения, можно установить, хотя и не всегда столь просто, как в разобранном примере, что все необратимые процессы, идущие с увеличением энтропии системы, идут вместе с этим и с увеличением вероятности ее состояния. Это приводит к одному из фундаментальных принципов современной физики, открытому Больцманом энтропия системы есть функция вероятности ее состояния  [c.408]

    При переходе твердого тела в жидкое состояние возрастают энтропия и внутренняя энергня. Средние значения потенциальной и кинетической энергии частиц в жидкости близки по величине, причем энергия межмолекулярного взаимодействия имеет тот же порядок, что и в твердом теле. Степень упорядоченности в размещении молекул жидкости характеризуют радиальной функцией распределения. Если какую-либо молекулу жидкости мысленно фиксировать в определенной точке, то вероятность найти другую молекулу па расстоянии г от первой (т. е. в шаровом слое объемом nrdr) для вполне беспорядочного размещения равна [c.224]


Смотреть страницы где упоминается термин Распределения вероятности функци и энтропия: [c.67]    [c.356]    [c.146]   
Теоретическая химия (1950) -- [ c.432 ]




ПОИСК





Смотрите так же термины и статьи:

Вероятность

Распределение вероятности

Распределение энтропия

Функция распределения

ЭНТРОПИЯ Энтропия и вероятность



© 2025 chem21.info Реклама на сайте