Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Теория информации

    Классификация погрешностей на систематические, случайные и грубые (промахи) с указанием некоторых причин их возникновения дана в разделе 1.5. Инструментальные ошибки в химическом анализе связаны с точностью взвешивания на аналитических весах и точностью измерения объемов мерной посудой. Методические ошибки обусловлены особенностями реакции, лежащей в основе метода, и неправильно составленной методикой анализа. В терминах теории информации случайные погрешности соответствуют шумам в канале передачи информации, систематические погрешности — помехам, а грубые — нарушениям канала связи.  [c.129]


    Третья, высшая ступень иерархической структуры химического предприятия (см. рис. 1) —это системы оперативного управления совокупностью цехов, системы организации производства, планирования запасов сырья и реализации готовых продуктов— автоматизированная система управления предприятием (АСУП). На этой ступени иерархии возникают задачи ситуационного анализа и оптимального управления всем предприятием, для решения которых применяют математические методы системотехники— линейное программирование, теорию игр, теорию информации, исследования операций, теории массового обслуживания и др. [c.13]

    Многими исследователями предложены разные способы применения методологии информационных мер в нефтепромысловой геологии. Наиболее часто применяемыми оказались методы математической статистики и теории информации, использующие в качестве меры, выражаемой коэффициентом вариации по оцениваемому параметру, величину энтропии — критерий оценки [c.19]

    Содержание-. Цель данной книги. Используемый аппарат. Эффект сообщения. Язык получателя сообщения. Логика получателя сообщения. Теория вопросов. Логика вопросов. Множества вопросов. Адекватность нашей теории. Информация. Коммуникативные события. Обработка сообщения. Оценка сообщения. Смысл. Адекватность сообщения. [c.165]

    Достижения в области вычислительной техники и математической статистики позволили разработать эффективные алгоритмы решения задачи проверки гипотез, каждой из которых соответствует единственная нелинейная модель. К настоящему времени для сравнения конкурирующих моделей разработаны различные критерии дискриминации, основанные на понятиях, заимствованных из теории информации и математической статистики  [c.27]

    В процессах принятия решения при характеристике и прогнозировании важнейших свойств сложных каталитических систем эффективный прием конструирования алгоритмов для предсказания каталитического действия основан на одном из фундаментальных понятий теории систем — энтропии информации. Применение теории информации к каталитическим системам позволяет дать им универсальную характеристику в виде энтропии информации, открывающую возможность сравнивать между собой каталитические системы различных, в принципе любых типов. В частности, этот подход обеспечивает возможность предсказания свойств данной каталитической системы благодаря выбору тех типов систем, которые по своим возможностям наиболее содержательны для катализа и которые тем самым способны дать наибольшую информацию о свойствах катализаторов, например о характере их активных центров. При этом, как будет показано ниже, информационная энтропия, используемая для анализа атомных структур, оказывается более содержательной, чем обычная термодинамическая энтропия. [c.101]


    ЭНТРОПИЯ — 1) в физике одна из величин, характеризующих тепловое состоя)1ие тела или системы тел энергия, необратимо рассеивающаяся в тепловой форме в окружающую среду с невозможностью повторного использования в более широком смысле — мера неупорядоченности системы (см.), степень хаоса при всех процессах, происходящих в замкнутой системе, энтропия или возрастает (необратимые процессы), или остается постоянной (обратимые процессы) функционирование техносферы (см.) имеет прямым следствием рост энтропии 2) в теории информации мера неопределенности ситуации с конечным или четным числом исходов, например опыт, до проведения которого результат в точности неизвестен. [c.409]

    Эргономика, новая научная дисциплина, изучает систему человек — орудия труда — производственная среда и разрабатывает рекомендации для эффективного функционирования этой системы. Она опирается на ряд наук — автоматизацию, теорию информации, инженерную психологию, теорию надежности, техническую диагностику (см. 27.6) и другие науки. [c.33]

    Основой кибернетики является теория информации, касающаяся систем сбора и переработки различных сведений и собственно теория управления, базирующаяся на этих сведениях и производимых расчетах, в которых используют специальные разделы математики. Техника кибернетики — это различные автоматические устройства для сбора н переработки информации, различные вычислительные и управляющие машины. [c.361]

    Моделирование - одно из фундаментальных понятий теории информации, на которой базируется любой метод научного исследования (познания). Теория информации в свою очередь является составной частью кибернетики - науки, изучающей математическими методами способы измерения количества информации, ее передачи и переработки с целью оптимального управления [39]. [c.31]

    Действие сил растяжения вдоль оси молекулярной связи К1—Кг проявляется в ослаблении кажущейся энергии ее образования и, таким образом, способствует увеличению вероятности разрыва связи. Если ослабление кажущейся энергии связи существенно, то механическое воздействие можно считать основной причиной деструкции цепи. Поскольку разрыв цепной молекулы сопровождается образованием органических радикалов, а последующее появление неспаренных свободных электронов регулируется механическими силами, то изучение процесса образования радикалов и их реакций дает необходимую с точки зрения молекулярной теории информацию относительно сил, действующих па цепь. Исследования свободных радикалов методом парамагнитного резонанса усиленно развивались в течение последних 30 лет [1, 2]. С тех пор данный метод успешно применялся для объяснения механизма образования свободных радикалов в химических реакциях и под действием облучения видимым и ультрафиолетовым светом, рентгеновским и 7-излучением и облучением частицами [1, 3]. Дополнительно изучались величина фактора спектроскопического расщепления магнитное окружение неспаренного спина свободных электронов и структура свободного радикала. Во всех этих случаях спин свободного электрона действует как зонд, который, по крайней мере временно, присоединяется к определенной молекуле, принимает участие в ее движении и взаимодействует с окружающим магнитным полем. [c.156]

    Пусть число микросостояний, которыми можно осуществить данную систему, равно О, а вероятность каждого из них одинакова и равна р = 1/0. Допустим, что в простейшем случае мы получаем сообщение о единственном и реальном состоянии системы. Количество информации /, содержащееся в этом сообщении, по теории информации будет равно [c.398]

    Можно предложить иной подход к селективности, основанный на применении принципов теории информации. [c.248]

    Понятие энтропии, получившее физическое обоснование в термодинамике, в настояще е время применяется н в других областях науки и в технике, например в теории информации. [c.43]

    На третьей ступени иерархии, соответствующей технологической линии получения целевого продукта микробиологического синтеза (заводу или биохимическому комбинату), решаются задачи оптимального управления производством в целом, исходя из экономических критериев эффективности с применением математических методов системотехники, теории информации, теории массового обслуживания и др. С использованием моп ных ЭВМ и вычислительных комплексов осуществляются оперативное управление и планирование производства. В структуру системы наряду с технологическими агрегатами входят установки для обезвреживания газовых выбросов, биологические очистные сооружения, позволяющие решать экологические задачи охраны окружающей среды и организации безотходного производства. [c.42]

    Обобщение всего основного материала современной аналитической химии проведено в книге на базе теории информации, метрологии и в свете практических задач химического анализа. Это, несомненно, здоровая основа для обобщения, однако в ней не хватает, как нам кажется, одного важного элемента — учета специфических структурных уровней организации и движения материи, используемых в анализе (молекулярные орбитали, внешние и внутренние атомные орбитали, ядро атома). Поэтому несколько искусственный и формальный характер имеет объединение в одной главе пяти разделов, посвященных, с одной стороны, атомно-молекулярной спектроскопии и, с другой стороны, ЯМР- и масс-спектроскопии. Такой же характер имеют отчасти и разделы по хроматографии, включенные в гл. 7, посвященную методам разделений. [c.6]


    Термин теории информации [c.20]

    Выход из создавшегося положения, которое становится все более сложным, может быть найден только в использовании принципа уплотнения информации при переходе на более высокие уровни научного знания. Широкие перспективы использования этого принципа открывает математическая теория информации, в которой он выступает в качестве ведущего начала. [c.26]

    Задача интенсификации развития химии как науки и производства имеет ряд существенных особенностей по сравнению с задачами интенсификации других отраслей общественного производства. В общем случае ускорение научно-технического прогресса и рост производительности труда в химической промышленности происходят по всем пяти компонентам, которые, по К. Марксу, составляют производительные силы общества, а именно за счет совершенствования 1) специальных знаний и общей культуры че-ловека-труженика, 2) орудий труда, т. е. техники, 3) научных исследований, результаты которых материализуются в форме новой техники и технологии, 4) использования в производстве сил природы, т. е. естественных источников сырья, и 5) форм и методов организации производства. Но в отличие от научно-технического прогресса в других отраслях промышленности, в интенсификации химического производства особую роль играют первый и третий из названных компонентов, ибо именно они призваны обеспечивать своего рода разведку путей развития по существу всех остальных видов производства. В самом деле, например, для максимального повышения экономической эффективности различных видов специального и общего машиностроения, приборостроения и энергетики революционизирующее значение имеют 1) снижение массы и пространственных габаритов машин на единицу мощности 2) использование недефицитных видов сырья без снижения качества продукции 3) механизация и комплексная автоматизация производственных процессов на основе электроники, электротехники, квантовой электродинамики, теории информации и т. д. И, как видно, все эти факторы зависят в первую очередь от успехов химии, от качества разработанных в лаборатории и созданных в промышленности материалов. Ведь снижение массы машин на единицу мощности или поиск недефицитных видов сырья — это задача почти чисто химическая, причем теоретическая, поисковая. И в этой поисковой, разведочной роли состоит основная особенность интенсификации развития химии как науки и производства. [c.225]

    Вполне целесообразно объединить факторы, определяющие дискретность отношений между организованными системами и средой, термином код, часто употребляемым в молекулярной биологии и теории информации. С точки зрения этой концепции понятие кода включает все дискретные факторы, временные и пространственные, которые определяют отношения системы и среды, совместимые с существованием или развитием системы. [c.6]

    Получение сведений о химическом составе вещества может быть рассмотрено с.позиций теории информации. Приводим общую схему передачи информации (рис. 1.7). [c.19]

    Обнаружение иона Мп + с помощью [Ag(NH3)2]+ проводят так на фильтровальную бумагу помещают каплю исследуемого раствора, затем каплю реагента. В присутствии ионов Мп + появляется черное пятно. Разберите эту методику с позиций теории информации. [c.22]

    Как следует из формулы Шеннона, информационная энтропия, как и термодинамическая энтропия Больцмана, обладает свойством аддитивности. Этот исключительно важный принцип теории информации может в некоторой степени явиться обоснованием для теоретического оправдания правомерности эмпирических методов моделирования, базирующихся на принципе аддитивности свойств веществ. В этой связи надо уточнить, что аддитивна не сама информация (т е. свойства), а энтропия информации. [c.21]

    Шеннон К. Работа по теории информации и кибернетике / К. Шеннон. - М. [c.158]

    Однако, если в термодинамике формула Больцмана была получена в результате развития интерпретации процессов, происходящих в физических системах, то в теории информации, где была получена совершенно аналогичная формула, соответствующая именно распределению частиц в физической системе по статистике Максвелла-Больцмана и служащая для измерения количества информации, отправной точкой служила разработанная Шенноном система постулатов. [c.100]

    В теории информации за величину информации, содержащуюся в сообщении X, появляющемся с вероятностью Р х), по определению принимают двоичный логарифм числа Р(л ) [c.101]

    В теории информации за количественную меру информации принята информационная энтропия S , вычисляемая применительно к неравновероятностным событиям по формуле К. Шеннона  [c.21]

    Поэтому настоящая книга Химические приложения топологии и теории графов под редакцией Р. Кинга, которая содержит материалы симпозиума, состоявшегося в США в апреле 1983 г., должна привлечь внимание химиков. Она отражает новейшие результаты в этой быстро развивающейся области, вводит в круг проблем и методов химической топологии, теории графов и теории информации. [c.5]

    Информационный критерий проверки гипотез о законе распределения основан на использовании некоторых понятий теории информации неупорядоченносги и неорганизованности ранее- введенных для исследования управляющих систем [199— 201]. [c.157]

    С момента зарождения и в последующий более чем вековой период эво-лющш учения о химическом процессе в теоретической и прикладной химии накоплен громаднейший информационный потенциал в ввдё несистематширо-ванных и необработанных сведений о физических и химических свойствах веществ. Сегодняшние исследователи- химики и химики-технологи все еще вынужденно пользуются информациями, представленными в многотомных справочниках в виде таблиц и графических зависимостей. Несмотря на существенные достижения теории информации, системного анализа, подобия, кибернетики и других естественно-математических наук, акт альнейшей и нерешенной до конца остается проблема математической обработки первичной информации [c.6]

    Предлагаемый метод математического моделирования основан на универсальной теории информации К. Шеннона, положивщей во второй половине XX в. начало бурному развитию мировой информационной технологии. Фундаментальной основой этой теории является вероятностная энтропийная формула Л. Больц-мана, преобразованная К. Шенноном применительно к информационным системам (в случае неравновероятных событий) в уравнение для расчета энтропии (количества) информации 3  [c.48]

    Нс опрсдсленность исхода какого-то события (А,) измсфяется логарифмом его вероятности [log2P(A,) . Мера информации в теории информации связывается с уменьшением этой неопред еле шости. [c.295]

    Используя формулы теории информации, можно оценить количество информации, содержащейся в организме, составными элементами которого являются отдельные клетки. Так, в теле человека содержится 10 клеток. Будем считать, что все они уникальны и их нельзя менять местами без нарушения целостности организма. А приори число способов, которыми может быть осуществлена эта структура, составит О = 10 , а количество информации, необходимое для ее построения, [c.399]

    Такого подхода среди естествоиспытателей придерживаются преимущественно физики и математики, которые рассматривают эволюционные процессы с позиций кибернетики и теории информации (например, А. Н, Колмогоров, А. А. Ляпунов, Л. А. Блюменфельд и др.) или термодинамики (К. С. Тринчер, М. В. Волькенштейн и др.). Крайней точкой зрения в этом подходе является [c.199]

    Рассмотрим аналитическую методику с позиций теории информации. В качёстве примера возьмем определение содержания тиосульфата натрия в растворе, получаемом в производстве аммиака в цехе мышьяково-содовой очистки газа. [c.205]

    До создания теории информации понятие "информация" фактически не имело строгого научного значения. В связи с потребностью в машинной переработке экспоненциально возрастающего потока информации и ее хранения возникли актуальные проблемы количественного измерения информации и такая наука, как информатика возникла в 1948 г. Ее создателем стал выдающийся американский ученый Клод Шеннон [37]. Фундаментальной основой разработанной им теории информации явилась вероятност ная энтропийная формула Людвига Больцмана (1896) [c.21]

    Принципы адгщтивности теории информации позволяют моделировать свойства сложных систем по известным или экспериментально установленным свойствам составляющих их частей. [c.22]

    Впервые появившись в работе Р. Клаузиуса Механическая теория тепла в связи с формулировкой второго закона термодинамики, понятие энтропия впоследствии прочно утвердилось в различных отраслях научного знания теории информации, биологии, химии, политэкономии и других. Однако, практически, внедрение этого понятия в ту или иную область науки сопровождается многочисленными критическими замечаниями, связанными с обоснованностью термодинамических аналогий. Используемая в теории информации теоретико-информационная энтропия , введенная на строгой формальной основе, имеет гораздо больший авторитет в научных исследованиях и практических приложениях. Обращаясь к современному состояншо развития понятия энтропия , необходимо отметить, что оно было принято более на интуитивном уровне и исходя из многочисленных экспериментов, подтвердивших тот факт, что любая изолированная физическая система, выведенная из первоначального состояния равновесия путем некоторого внешнего воздействия, переходит в новое состояние равновесия с меньшими способностями к превращениям, нежели она имела в первоначальном состоянии. Поэтому на интуитивном уровне стало возможным приращение энтропии интерпретировать как меру способности физической системы к превращениям, а равновесное состояние, которое стремится принять изолированная система в результате внешнего воздействия, считать наиболее вероятным. [c.100]

    Вместе с тем, достаточная устойчивость схемы переработки нефти на НПП , запрограммированность на выпуск продукции в постоянных соотношениях свидетельствуют о наступившем в некотором смысле равновесии в рассматриваемой системе планирования. Для количественной оценки равновесия системы наиболее распространенным является применение понятия энтропии [57, 58], интерпретируемой в терминах теории информации [771. Целесообразность использования энтропийного подхода в моделях оптимального планирования и управления подчеркивалась в ряде работ ведущих отечественных и зарубежных исследователей [57, 58, 78-81]. [c.113]


Библиография для Теория информации: [c.219]   
Смотреть страницы где упоминается термин Теория информации: [c.133]    [c.73]    [c.127]    [c.19]    [c.23]    [c.6]    [c.147]    [c.220]    [c.308]    [c.193]   
Химические приложения топологии и теории графов (1987) -- [ c.236 , c.242 ]

Организация исследований в химической промышленности (1974) -- [ c.61 ]

Методы кинетических расчётов в химии полимеров (1978) -- [ c.33 ]




ПОИСК





Смотрите так же термины и статьи:

Аристотель теория информации о развитии эмбриона

Интерпретация термина энтропия в теории информации

Информация

Коды и теория информации

Методы теории Информации в структурном анализе

Основные положения теории информации

СРЕДСТВА МАССОВОЙ ИНФОРМАЦИИ ЖИЗНЕННОЕ ПРОСТРАНСТВО ТЕОРИИ ЭВОЛЮЦИИ

СРЕДСТВА МАССОВОЙ ИНФОРМАЦИИ ЖИЗНЕННОЕ ПРОСТРАНСТВО ТЕОРИИ ЭВОЛЮЩШ

Теория информации Шеннона

Теория информации и биология

Теория информации и молекулярная симметрия

Теория переноса генетической информации и регуляции синтеза белка



© 2025 chem21.info Реклама на сайте