Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Энтропия информационная

    Многими исследователями предложены разные способы применения методологии информационных мер в нефтепромысловой геологии. Наиболее часто применяемыми оказались методы математической статистики и теории информации, использующие в качестве меры, выражаемой коэффициентом вариации по оцениваемому параметру, величину энтропии — критерий оценки [c.19]


    Информационная энтропия Н, характеризующая степень неупорядоченности молекул в выделенном объеме, будет равна [c.223]

    Резюмируя все вышесказанное (а, б, в разделы Приложения 1) разделим понятие "энтропии" на два понятия "энтропия физическая" и "энтропия информационная". Они принципиально различны. Если "физическая энтропия" для замкнутых систем не уменьшается (второе начало термодинамики), то "информационная энтропия" не увеличивается для любых систем. Это можно отобразить на графике  [c.208]

    В процессах принятия решения при характеристике и прогнозировании важнейших свойств сложных каталитических систем эффективный прием конструирования алгоритмов для предсказания каталитического действия основан на одном из фундаментальных понятий теории систем — энтропии информации. Применение теории информации к каталитическим системам позволяет дать им универсальную характеристику в виде энтропии информации, открывающую возможность сравнивать между собой каталитические системы различных, в принципе любых типов. В частности, этот подход обеспечивает возможность предсказания свойств данной каталитической системы благодаря выбору тех типов систем, которые по своим возможностям наиболее содержательны для катализа и которые тем самым способны дать наибольшую информацию о свойствах катализаторов, например о характере их активных центров. При этом, как будет показано ниже, информационная энтропия, используемая для анализа атомных структур, оказывается более содержательной, чем обычная термодинамическая энтропия. [c.101]

    Энтропия информации адсорбционных катализаторов при спекании является удобной количественной характеристикой для прогнозирования снижения активности каталитических систем. Гибель активной структуры катализатора при его спекании исследована с информационных позиций на примере процесса спекания разведенных адсорбционных платиновых катализаторов [88, 89]. [c.106]

    В теоретико-информационном подходе к синтезу схем разделения [39—41] используется понятие энтропии, характеризующей неупорядоченность рабочих потоков. Если разделение формально сопоставить с получением информации, то выбор оптимальной схемы равноценен выбору способа, при котором процесс получе- [c.481]

    НИЯ информации осуществляется наиболее эффективно. При переходе от одной схемы к другой изменяются потоки продуктов. Последние выбираются исходя из максимума термодинамического (информационного) критерия эффективности, в качестве которого принимается сумма энтропий выбора для каждой колонны. Достоинством такого подхода к синтезу схем является попытка учесть вероятностный характер протекания процесса, однако используемый критерий оптимальности не отражает физико-химических свойств разделяемой смеси. Этот метод эффективен в тех случаях, когда отсутствуют ограничения, налагаемые фазовыми диаграммами, т. е. в случае разделения идеальных смесей. [c.482]


    Процессы адсорбционного равновесия носят статистический характер, поэтому одним из возможных путей решения задачи теоретического обоснования существующих уравнений изотерм адсорбции является использование вероятностного подхода, причем в качестве критерия правдоподобия описания используется информационная энтропия [80]. Согласно информационному принципу максимальной энтропии [79], достоверная отображающая функция распределения, которая содержит наибольшую информацию о результатах измерения случайных величин, должна обладать максимальной энтропией. По одному из положений теории объемного заполнения адсорбент характеризуется предельным объемом адсорбционного пространства, заполнение которого связано с уменьшением свободной энергии газовой фазы А. Кроме того, любая система адсорбент — адсорбат определяется некоторой энергией Е, характеризующей энергетический механизм взаимодействия молекул в зависимости от свойств системы. Характеристику заполнения объема адсорбционного пространства можно рассматривать как некоторую функцию распределения и ее плотности, где параметром функции распределения будет энергетический симплекс [81]  [c.223]

    Предлагается новый метод описания динамики адсорбция одного компонента из потока газа-носителя для случая адсорбции в многоступенчатом аппарате непрерывного действия, разработанный на основе информационного принципа максимальной энтропии. [c.112]

    Используя (3), определим отношение информационных энтропий и соответствующих вероятностей любого компонента ряда (8 ) к некоторому компоненту с единичной массой (8,)  [c.259]

    Рассмотрим гомологический ряд веществ, которые находятся в критическом состоянии. Это означает, что для любого члена ряда в критических условиях имеется максимальная, отличная от нуля вероятность передачи межмолекулярного взаимодействия на расстояние порядка корреляционного радиуса флуктуаций Лс- Предположим, что для ФП в критической области основную роль играет информационная энтропия. Предположим, что энтропия максимальна в критическом состоянии где корреляционный радиус и соответствующий ему корреляционный объем максимальны. По формуле Шеннона эта энтропия связана с вероятностью распространения сигнала в объеме, охваченном корреляционным радиусом W( j [c.29]

    Поэтому для рецепции, запоминания и хранения такой информации необходимо произвести определенную работу по существенному изменению состояния системы, вследствие которой система перейдет в одно из устойчивых состояний, потеряв при этом часть энергии в процессах диссипации. В результате затраты энергии повысится энтропия всей системы на величину, превышающую количество сохраненной информации. Таким образом, все информационные системы обладают диссипативными свойствами, за счет [c.402]

    Поскольку полное количество информации, содержащееся в целом для независимых параметров равно сумме количеств информации, содержащихся в его частях, то активную информационную емкость органической молекулы можно определить как сумму энтропий информации по каждому дискретному состоянию  [c.149]

    Как следует из формулы Шеннона, информационная энтропия, как и термодинамическая энтропия Больцмана, обладает свойством аддитивности. Этот исключительно важный принцип теории информации может в некоторой степени явиться обоснованием для теоретического оправдания правомерности эмпирических методов моделирования, базирующихся на принципе аддитивности свойств веществ. В этой связи надо уточнить, что аддитивна не сама информация (т е. свойства), а энтропия информации. [c.21]

    Определим соответствующее для данного объема изменение информационной энтропии при переходе от одного компонента ряда к другому. Определим информационную энтропию для распространения сигнала (межчастичного взаимодействия) в объеме, охваченном данным корреляционным радиусом, которая связана с вероятностью формулой Шеннона [37] [c.36]

    Используя (3,13), определим обобщенное отношение информационных энтропий и соответствующих вероятностей любого -го компонента к некоторому компоненту с единичной массой [c.37]

    Полагая, что термодинамическая энтропия критического состояния пропорциональна информационной (то есть 5 /, /) и, поскольку Л/, =1 и l = М , получим [c.38]

    В первой главе дан анализ современного состояния теории моделирования ФХС газов и жидкостей, рассмотрены известные методы их расчета. Применительно к нефтехимической технологии предложены и находят достаточно широкое применение приближенные модели ФХС, например, для расчетов давления насыщенных паров нефтяного сырья, такие формулы как Кокса, Ашворта, Максвелла и др., базирующиеся на информации только о температурах кипения фракций, что нельзя считать теоретически обоснованными. Рассмотрены теоретические основы учения о ФХС веществ и основы математических методов обработки информации, основные понятия информации и информационной энтропии, характеристики межмолекулярных взаимодействий в жидкостях и газах. [c.5]


    С термодинамикой связана и теория информации. Увеличение количества информации в системе, рассматриваемой как сообщение, всегда сопряжено с понижением энтропии (см. гл. 9). Информационные аспекты биологии весьма поучительны. Выясняется, что понятие количества информации совершенно недостаточно для рассмотрения развивающихся биологических систем. Оказывается необходимым рассматривать и рецепцию информации, и создание новой информации. И то, и другое возможно лишь в условиях неравновесия, нестационарности и неустойчивости. В биологии важно не количество информации, но ее ка- Чество, смысл или ценность ( 17.8). [c.20]

    Такой подход тормозит процесс обобщения научных знаний и увеличивает информационную энтропию. [c.5]

    В теории информации за количественную меру информации принята информационная энтропия S , вычисляемая применительно к неравновероятностным событиям по формуле К. Шеннона  [c.21]

    Использование энтропии выбора (информационный подход) [89] приводит к множеству оценок, относительные величины которых не соответствуют истинным приведенным затратам для различных вариантов схемы. Так, схема, наилучшая по величине энтропии выбора, является, как уже отмечалось, 75-й по приведенным затратам, схема же последовательного отделения легких компонентов является одной из лучших (десятая) по приведенным затратам и наихудшей (132-й) ни энтропии ви бора. Этот пример показывает, что энтропию выбора нельзя использовать в качестве упорядочивающей функции для вариантов схемы разделения. [c.244]

    Другими словами, распределение (36) является наиболее вероятным при условии сохранения нормировки и фиксированной средней величины колебательной энергии продуктов. Этот вид ограничений на возможные распределения носит динамический характер, т. е. определяется некоторыми дополнительными соображениями, на основании которых можно заключить, что средняя колебательная энергия должна равняться заданной величине Е . Причина такого рода ограничений различна и здесь не рассматривается. Важно лишь, что указанный подход позволяет, исходя из априорного распределения, последовательно строить другие распределения на основании принципа минимума дефицита энтропии при введении все новых динамических ограничений. Другими словами, теоретико-информационный подход позволяет получать наиболее вероятные распределения при использовании имеющейся у нас ограниченной информации о некоторых свойствах искомого распределения. [c.76]

    Таким образом, соотношение (49) предсказывает, что коэффициент разветвления отклоняется от априорного коэффициента разветвления в сторону того канала, в котором дефицит энтропии минимален. Этот вывод теоретико-информационного подхода справедлив далеко не всегда, что указывает на существенно динамический характер ограничений, определяющих появление реагентов в конкурирующих каналах (анализ многих экспериментальных результатов дан в [67]). [c.79]

    Вернемся к информационной интерпретации энтропии. В науке существует только один способ получения информации о чем-либо  [c.43]

    Термодинамическая энтропия и энтропия информационных процессов—это разные величины, что видно хотя бы из того, что информационная энтроиия не является термодинамическим параметром. [c.166]

    Предлагаемый метод математического моделирования основан на универсальной теории информации К. Шеннона, положивщей во второй половине XX в. начало бурному развитию мировой информационной технологии. Фундаментальной основой этой теории является вероятностная энтропийная формула Л. Больц-мана, преобразованная К. Шенноном применительно к информационным системам (в случае неравновероятных событий) в уравнение для расчета энтропии (количества) информации 3  [c.48]

    Ркпользуя (4.4) определим отношение информационных энтропий для критического состояния для двух членах ряда -того и некоторого предельного члена т, которому соответствует максимальное значение корреляционного объема  [c.29]

    Таким образом, любая информационная система обязана включать статистическую и динамическую подсистемы. С ними соответственно связаны физическая энтропия как мера множества не запоминаемых системой микросостояний и макроинформация как мера множества тех состояний, о пребывании в которых система должна помнить. [c.404]

    Такая информация называется активной. Эта величина оказывается однородной мерой для химических структур, открывает возмо5кность их сопоставления, относительных оценок. Полезным примером такого подхода является определение информационной емкости асимметрического атома углерода, которое предложил Раков. Он оценил информационную емкость асиммметрического атома углерода в 1 бит на молекулу, или в 1 мольбит. В самом деле, используя в качестве обычной меры информации ее энтропию, для равновероятной реализации D- и -конфигурации имеем  [c.149]

    Впервые появившись в работе Р. Клаузиуса Механическая теория тепла в связи с формулировкой второго закона термодинамики, понятие энтропия впоследствии прочно утвердилось в различных отраслях научного знания теории информации, биологии, химии, политэкономии и других. Однако, практически, внедрение этого понятия в ту или иную область науки сопровождается многочисленными критическими замечаниями, связанными с обоснованностью термодинамических аналогий. Используемая в теории информации теоретико-информационная энтропия , введенная на строгой формальной основе, имеет гораздо больший авторитет в научных исследованиях и практических приложениях. Обращаясь к современному состояншо развития понятия энтропия , необходимо отметить, что оно было принято более на интуитивном уровне и исходя из многочисленных экспериментов, подтвердивших тот факт, что любая изолированная физическая система, выведенная из первоначального состояния равновесия путем некоторого внешнего воздействия, переходит в новое состояние равновесия с меньшими способностями к превращениям, нежели она имела в первоначальном состоянии. Поэтому на интуитивном уровне стало возможным приращение энтропии интерпретировать как меру способности физической системы к превращениям, а равновесное состояние, которое стремится принять изолированная система в результате внешнего воздействия, считать наиболее вероятным. [c.100]

    Таким образом, информационная энтропия (9.14) эквивалентна термодинамической (9.28). Один бит информации соответствует к1п2 = 10 Дж/К, т. е. очень малой термодинамической величине. Эта эквивалентность имеет реальный физический смысл — за полученную информацию нужно платить увеличением энтропии. Любое измерение связано с возрастанием энтропии окружающей среды. Энтропийная цена бита к1п2 есть его минимальная стоимость. При бросании монеты получается один бит информации, но выделение энтропии вследствие нагревания монеты при ее Ударе о пол много больше к 1п 2. Монета может быть и сколь угодно большой. [c.305]

    В свете современного развития науки стало очевидным истинное содержание так называемой антиэнтропийности жизни. Ранее подчеркивалась высокая упорядоченность клетки организма. Но упорядочены и кристаллы. Антиэнтропийность , если уж пользоваться этим понятием, выражается в ограниченной применимости понятия энтропии (и соответственно эквивалентного понятия количества информации) к живой системе. Будучи динамической, машинной , а не статистической системой, живой организм следует, конечно, законам термодинамики, но должен описываться в иных терминах. Развитию организма отвечают очень малые изменения энтропии. Для информационной трактовки явлений жизнедеятельности понятие о количестве информации бесплодно. В биологии существенно не количество, а качество информации, ее программирующее значение, ее ценность. Так, в теории Эйгена в качестве характеристики, определяющей молекулярную селекцию и эволюцию, фигурирует селективная ценность, выражаемая через кинетические величины. [c.611]

    Первый член в правой части соотношения (7.5.2.6) имеет конечное значение, которое зависит от закона распределения случайной величгшы С и не зависит от точности ее определения Ас. Он имеет точно такую же структуру, как энтропия дискретного источника информации. Второй член в правой части стремится к бесконечности при стремлении к нулю разницы между соседними значениями случайной величины Ас О, поскольку неопределенность выбора из бесконечно большого числа возможньгх состояний (значений ключевого компонента в конкретных точках дисперсной системы) бесконечно велика. Именно в этом кроется причина того, что величина обращается в бесконечность. Для получения конечной характеристики информационных свойств непрерывного источника известны два подхода. [c.677]

    При втором подходе к использованию соотнощения (1.52.6) для количественного определения информащш принимают во внимание невозможность практического обеспечения высокой точности различия значений непрерывного источника информации. Значение концентрации может быть определено только при достаточно большом объеме пробы, когда вероятность найти в ней хотя бы одну частицу близка к единице. При случайном выборе пробы из смеси среднее количество информации, содержащееся в каждой отдельной пробе, относительно количества информации, содержащегося в смеси в целом, равно разности априорной и апостериорной энтропии источника информации (дисперсной системы). Информационная энтропия зависит от точности измерения а размера пробы, и выражение для оценки максимальной энтропии смеси, содержащейся в одном измерении, имеет следующий вид  [c.678]


Смотреть страницы где упоминается термин Энтропия информационная: [c.185]    [c.102]    [c.103]    [c.105]    [c.106]    [c.10]    [c.22]    [c.41]    [c.887]    [c.561]    [c.114]    [c.102]   
Методы кибернетики в химии и химической технологии (1985) -- [ c.22 ]

Методы кинетических расчётов в химии полимеров (1978) -- [ c.33 , c.246 , c.248 , c.300 , c.318 , c.319 , c.326 ]

Образование структур при необратимых процессах Введение в теорию диссипативных структур (1979) -- [ c.19 , c.22 , c.228 ]




ПОИСК





Смотрите так же термины и статьи:

Бодякин. Куда идешь, человек Энтропия физическая и информационная

Информационная РНК

Понятие информации и информационной энтропии



© 2025 chem21.info Реклама на сайте