Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Понятие информации

    База данных. Обычно базу данных определяют как неизбыточную совокупность логически связанных данных, которые могут быть использованы более чем для одного приложения. Из этого определения явствует, что главным признаком, по которому данные объединяются в базы данных, является их логическая взаимосвязь. В самом деле, понятие информация имеет три аспекта реальный мир, в котором существуют объекты с вполне определенными свойствами идеи и мысли об этих объектах в представлении людей и программистов и, наконец, условные записи, которыми кодируются эти представления в памяти ЭВМ. Объединение данных в базу данных должно отражать восприятие людьми реальных объектов окружающего мира, при [c.192]


    Понятие информация обычно ассоциируется с радио, телевидением, газетами, печатной продукцией, вычислительными центрами и т. д., поскольку мы привычно связываем информацию с деятельностью человека. В данной главе речь будет об информации, которая передается и перерабатывается в процессах совершенно иного рода, а именно в процессах воспроизводства живых организмов. В настоящее время уже установлено, что запись и передача информации в биологических объектах осуществляются посредством нуклеиновых кислот, таких, как ДНК, РНК и т. п. В информационных высокомолекулярных соединениях такого рода статистическая информация определяется последовательностью элементов структуры. Высокая сложность процессов передачи информации требует участия в них большого числа веществ сигнализаторов , функциональных агентов (ферменты, носители и т.п.), матриц записи. Главную роль играют белки, поскольку именно последовательность аминокислот в белках (первичная структура) является основой записи информации. Использование записанной информации определяется формой и характеристиками белковых молекул (распределение электрического заряда, наличие гидрофобных групп и т.д.). Процессы, связанные с передачей информации посредством белков, очень интересны, но мы их рассматривать не будем, а уделим все внимание некоторым специальным вопросам функциональности полимеров в системах передачи информации. [c.178]

    Т Краткое содержание темы Понятие информации. Общая характеристика процессов сбора, передачи, обработки и накопления информации. Структура, характеристика профаммное обеспечение ЭВМ. Представление информации в ЭВМ. Форматы данных. Объем, час - [c.157]

    Такое понятие информации хорошо объясняет ее природу и успешно используется для решения многих научных и прикладных задач. В эргономике оно охватывает три типа компонента элементов (сложность ЧМС), отношений порядка (упорядоченности ) и любых отношений и взаимосвязей элементов (организация) в системе, множестве, целостности [82]. Понятие информации является, как видно, более широким, чем понятие сложности, упорядоченности или организации. [c.29]

    Основным понятием данной теории является информация - понятие, обобщенное, всеобъемлющее и исчерпывающее определение которому, видимо, дать невозможно. Оно интуитивно столь же понятно, сколь и неопределенно. Информацию связывают обычно с теми или иными проявлениями различных объектов или процессов. Поэтому часто, чтобы сделать изложение более наглядным, прибегают к наиболее прозрачным интерпретациям понятия информации. Например, информацию об объекте или процессе можно связать с нашим знанием всех характерных параметров рассматриваемого объекта или процесса. Тогда естественно прирост информации приравнивать к увеличению нашего знания. Значит, чем больше приобретенная информация, тем меньше степень нашего незнания или, другими словами, тем меньше неопределенность нашего знания об объекте или процессе. Более того, можно сделать такой вывод 1) нулевой энтропии соответствует полная информированность, а макси- [c.100]


    Понятие информации и информационной энтропии [c.20]

    В первой главе дан анализ современного состояния теории моделирования ФХС газов и жидкостей, рассмотрены известные методы их расчета. Применительно к нефтехимической технологии предложены и находят достаточно широкое применение приближенные модели ФХС, например, для расчетов давления насыщенных паров нефтяного сырья, такие формулы как Кокса, Ашворта, Максвелла и др., базирующиеся на информации только о температурах кипения фракций, что нельзя считать теоретически обоснованными. Рассмотрены теоретические основы учения о ФХС веществ и основы математических методов обработки информации, основные понятия информации и информационной энтропии, характеристики межмолекулярных взаимодействий в жидкостях и газах. [c.5]

    В результате использования спектров ЯМР химик получает информацию об исследуемом веществе. Эта информация может быть таблицей химических сдвигов и констант спин-спинового взаимодействия, распечаткой частот и интенсивностей линий или просто спектром ЯМР. Обычно химик использует понятие информации интуитивно, однако существуют методы количественной оценки информации, которые заимствуются из теории информации. [c.229]

    При исследовании молекулярных систем понятие информации совершенно естественно связано с понятием энтропии. Энтропия является количественной характеристикой хаотичности, разупорядоченности системы информация характеризует упорядоченность и детерминированность системы, которая необходима для ее воспроизведения. Принято считать, что информация равна энтропии с обратным знаком (Бриллюэн, 1966). [c.89]

    Как известно, в теории информации существуют два принципиально разных подхода к толкованию понятия информации. [c.234]

    Данные получают в результате наблюдений за некоторым процессом или объектом. Наиболее распространенным типом данных являются числовые данные — последовательность чисел какой-либо системы счисления. Однако данные можно представлять и в виде ряда символов, причем система нечисловых символов также получила довольно широкое распространение. Преимущества чисел как средства представления данных определяются их способностью отражать величину отношений между базовыми объектами, которые они описывают. В гл. 9 указывалось, что информация есть результат применения математических преобразований к исходным, необработанным данным. Информация, таким образом, представляет собой более ценный продукт, чем то, на основе чего ее получают. Ценность информации вытекает из ее роли при принятии решений. Действительно, в понятие информация обычно входит и нечто, что дает возможность принимать решение. Теперь можно легко установить различие между информацией и данными  [c.406]

    До создания теории информации понятие "информация" фактически не имело строгого научного значения. В связи с потребностью в машинной переработке экспоненциально возрастающего потока информации и ее хранения возникли актуальные проблемы количественного измерения информации и такая наука, как информатика возникла в 1948 г. Ее создателем стал выдающийся американский ученый Клод Шеннон [37]. Фундаментальной основой разработанной им теории информации явилась вероятностная энтропийная формула Людвига Больцмана (1896) [c.21]

    Бриллюэн [12] связал понятие энтропии с понятием информации его точка зрения обсуждалась рядом авторов [13], [14]. Однако понятие информации, включающее представление о некоторой воспринимающей информа- [c.14]

    Для простейшего определения понятия информации рассматривают ряд равновероятных событий. Пусть, например, какая-либо переменная величина, значение которой нас интересует, может принимать значения, лежащие в интервале от О до I. Какова вероятность того, что она примет точно некоторое заданное значение Нетрудно сообразить, что вероятность будет равна нулю, так как число возможных значений бесконечно велико. Если же мы потребуем, чтобы величина принимала значение, лежащее в известном интервале ошибки (а, Ь), то вероятность будет уже конечной величиной, и, чем меньше этот интервал, тем меньше будет и вероятность. [c.113]

    Позднее, в 1929 году, появилась знаменитая работа Лео Сцилларда, впервые вводящая в физику понятие информации. Именно пользуясь теорией информации, удается демона изгнать, и его возвращение более не предвидится. [c.47]

    Можно ли сделать понятие информации строгим, дать ей количественную меру Положительное решение этого вопроса — одно из крупных достижений современной науки, радикально повлиявшее на ее развитие. [c.47]

    Принято считать, что прямой ущерб от пожара — это те материальные ценности, которые уничтожены огнем или настолько повреждены, что не могут быть использованы в дальнейшем по прямому назначению без расходов на ремонт или восстановление в прежнем виде, эти расходы также относятся к прямым убыткам. Для промышленных предприятий в прямой ущерб включаются также потери от простоя производственного оборудования, хотя это положение является опорным, поскольку на крупных предприятиях эти потери часто трудно выделить из общих потерь производства. Положение осложняется появлением в экономике понятия информации, выступающей в роли товара, и, следовательно, имеющей стоимость (и зачастую немалую), но вследствие большой неопределенности единиц измерения и ценностных критериев с большим трудом поддающейся точной оценке при подсчете ущерба. [c.110]


    Центральное положение понятия информации в кибернетике объясняется тем, что она изучает машины и живые организмы с точки зрения их способности воспринимать определенную информацию, сохранять ее в памяти , передавать по каналам связи и перерабатывать в сигналы , направляющие их деятельность в соответствующую сторону. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу информации (генетическая информация). [c.440]

    Данная формулировка не претендует на общее определение понятия информация , используется здесь в чисто прикладных целях — для расчета химико-технологических систем. [c.20]

    Таким образом, понятие информации предполагает наличие двух объектов — источника информации и ее потребителя и в этом смысле конкретизирует свойство отражения, присущее всей материи. Коротко информацию можно определить как результат моделирования (описания) реального мира или некоторой его части. [c.7]

    Понятие информации связано с неопределенностью, существующей, когда требуется сделать выбор, и устраняемой после того, как выбор сделан. Так, например, пусть требуется из десяти различных карт выбрать одну. До выбора возможны десять различных исходов. В этой ситуации информация равна нулю. После того как карта выбрана, имеется только один исход — информация (результат выбора) стала больше она отлична от нуля. [c.102]

    Совпадение (12.11) и (12.12) по форме послужило основанием для утверждения о тождественности понятий информации и энтропии. Точнее, утверждается, что энтропия есть недостающая информация о состоянии системы и (или) информация есть недостающая энтропия, т. е. разность между максимальной энтропией, которой [c.268]

    Теория передачи сообщений, развитая Шенноном, рассматривает понятия информации и энтропии в узком смысле - применительно к анализу символьных последовательностей. [c.75]

    Эта теория возникла в ходе решения задач передачи потоков сообщений по каналам связи в технических системах, и первый фундаментальный труд принадлежит К.Шеннону Математическая теория связи (1948 г.). Сегодня понятие информация является одной из основных философских категорий, наряду с такими категориями, как материя, энергия, без которых невозможно описание функционирования живых систем. [c.227]

    Понятие информации отражает взаимосвязи в природе, организме, клетке, состояние различных частей функционирующего организма. Информация тесно связана с другим всеобщим атрибутом материи — отражением. В соответствии с материалистической теорией познания любое отражение несет в себе информацию об объекте отражения. Наблюдаемая направленность процессов и реакций в клетке может служить основой количественного выражения потока информации. Высокая активность органелл клетки связана с их строением и химическим состоянием. Каждая группа выполняет свои функции на основе непрерывного взаимодействия со всеми другими физиологически активными центрами клетки. [c.89]

    Системы регуляции у растений являются научной основой биологической кибернетики с ее понятиями информации. [c.439]

    Работы Винера и Шеннона были прочтены и подхвачены в первую очередь инженерами связи и устройств автоматического регулирования. Для них понятия информации и управления были профессионально привычными и не требовали разъяснений или определений. Но в дальнейшем, когда кибернетикой начали заниматься лица самых различных специальностей, подчас весьма далекие и от техники, и от математики, основные понятия кибернетики стали получать весьма разнообразные, а подчас и произвольные толкования. Кибернетики сами не сумели соблюсти порядок в собственном доме. В некоторых книгах по кибернетической оптимизации производства термин шформация стал применяться к. .. сырью ( входная информация ) и изделиям ( выходная информация — о чем 1), а обработка сырья трактовалась как язык для перекодирования входной информации в выходную . Другими авторами управление трактовалось как любое взаимодействие элементов системы , чем вольно или невольно в состав кибернетики включалась вся физика и многие другие естественные пауки. Информационную энтропию и негэнтроппю (меру количества информации) некоторые авторы стали смешивать с физической энтропией и негэнтропией и утверждать, что растение получает с солнечным светом будто бы информацию , а не свободную энергию. Особенно не повезло самому понятию информация (как соответствию сигнала или знака другому сигналу или событию), которое стало не принято отличать от меры количества информации по Шеннону (негэнтропия на символ), что равноценно, например, замене тонны угля тонной льда подтем п едлогом, [c.13]

    В качестве примеров сложности, а иногда и невозможности, определения КПД рассматривался транспорт, где КПД = О, так как главная задача - доставка груза, и поэтому полезная работа равна нулю. Такая же ситуация складывается и по отношению к понятию информация . [c.4]

    Понятие информации в эргономике используется в широком смысле. Оно охватывает не только сведения, которыми люди обмениваются между собой, но и сведения, которые существуют независимо от людей. Так же как в кибернетике, термин машина используется не только для определения уже созданной, но и несуществующей техники, так информация охватывает осмысленные и неосознанные свойства материи. Это означает, что при изучении эрготических систем (ЭС), их элементов, сущности информационных отношений этих элементов между собой, системой и окружа- [c.28]

    Понятие информации и информационной энтронии [c.20]

    На наш взгляд, ключевым для выяснения роли физического метода в химических исследованиях является понятие информации. Широко используя различную информацию в своих исследованиях, многие химики исходят при этом из чисто интуитивных соображений. Во многих случаях это приводит к постановке плохо продуманных и ничего не решающих экспериментов. Между тем существует специальная наука, теория информации, в которой понятие информации получило количественное содержание. Теория информации и ряд связанных с ней дисциплин (кибернетика, теория связи, информатика) в последние годы бурно внедряются в самые различные области науки и техники. В настоящей книге делается попытка развить теоретико-информационный подход в приложении к проблемам применения спектроскопии ЯЛ Р в органической химии (гл. 7). Этот подход позволяет с единых позиций рассмотреть весь комплекс процедур, связанных с применением ЯМР. При этом становятся осмысленными следующие вопросы. Как наиболее экономично провести эксперимент Нужно ли вообще измерять спектры ЯМР Что, собственно, требуется от спектра ЯМР Даже простое обдумывание этих вопросов позволяет уточнить формулировку задачи, что, как известно, представляет собой наиболеа ответственный и творческий этап научного исследования. [c.5]

    До создания теории информации понятие информация фактически не имело строгого научного смысла. В связи с потребностью в машинной переработке экспоненциально возрастающего потока информации и ее хранения вознигсли актуальные проблемы ко гачественного измерения [c.18]

    Не претендуя на строгое определение понятия информация , подчеркнем два необходимых ее атрибута 1) информация предполагает выбор одного (или нескольких) вариантов из многих возможных, 2) сделанный выбор должен быть запомнен. Подчеркнем второе условие — запоминание информации — является очень важным. Впервые на это обратил внимание Кастлер 1П261 в 1960. г. В процессах передачи информации запоминаемость играет меньшую роль, чем при рецепции, обработке и хранении информации. Действительно, передающая система обязана запомнить информацию лишь на время передачи, которое в принципе может быть коротким. В биологии условие запоминания на длительный срок, напротив, играет важную роль. [c.266]

    Определение понятий. Понятие информации (от латинского informatiо - разъяснение, изложение) в своем первоначальном смысле означало - сведения, передаваемые людьми устным или письменным способом. Затем (с середины XX в.) оно стало общенаучным понятием, включающим сведения, которьми обмениваются не только люди между со- [c.74]

    Известно, что вообще понятие информация есть понятие такого же уровня, как и энергия или материя. Ее определяют в общем виде как сообщение, уменьшающее неопределенность в какой-либо области. Информация обладает свойствами хранения, передачи на расстояние и обработки. Целью обработки информации является снижение ее размерности для принятия реще-ния. [c.366]

    У гипотезы дискретности физического пространства сегодня достаточно много сторонников которые, если и спорят, то только о конкретных значениях квантовости пространства и времени [1,4-7]. Если же предположить, что физическое пространство непрерывно, то придем к бесконечно большим величинам и ряду других теоретических трудностей в описаний явлений природы [99]. Для нашей модели мироздания гипотеза о дискретности пространства является необходимым условием для введения основополагающих для дальнейшего изложения понятий "информация и "информационный ресурс . [c.20]


Смотреть страницы где упоминается термин Понятие информации: [c.152]    [c.15]    [c.114]    [c.7]   
Смотреть главы в:

Информатика для химиков-технологов -> Понятие информации




ПОИСК





Смотрите так же термины и статьи:

Информация



© 2025 chem21.info Реклама на сайте