Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Дискриминирующие функции

Рис. 6.13. Негауссовы распределения, кото< рые лучше всего обрабатываются с помощью логарифмической (дискриминирующей) функции. Рис. 6.13. Негауссовы распределения, кото< рые лучше всего обрабатываются с помощью логарифмической (дискриминирующей) функции.

    Для остальных данных рассчитывают следующее собственное значение и из компонент соответствующего собственного вектора получают вторую дискриминирующую функцию  [c.541]

    Эту процедуру повторяют до завершения построения всех дискриминирующих функций. Они обеспечивают наилучшее разделение объектов между классами. Если использовать векторы, задаваемые дискриминирующими функциями, в качестве направлений новых координатных осей, то разделение можно наблюдать визуально. Проекция объекта на разграничительную линию (или в общем случае на гиперплоскость) называется его нагрузкой по отношению к соответствующей дискриминирующей функции. [c.541]

    Здесь Sd — координата неизвестного объекта вдоль оси, задаваемой й-й дискриминирующей функцией, а вф- — координата центра тяжести з го класса. [c.542]

    Основываясь на этом предварительном описании методов распознавания образов, следует поставить несколько вопросов. Какие признаки должны быть выбраны Как Должны ли использоваться последовательные или одновременные измерения Могут ли служить признаками оценки переменных состояния или параметров Каким должен быть вид классификатора или дискриминирующей функции Существует небольшое количество практических ответов на первый [c.224]

    Диагностирование по дискриминирующим функциям [c.252]

    Уравнение (6.3.6) относится к линейным дискриминирующим функциям. Если имеется более чем два кластера, то требуется множественный линейный дискриминант. [Линейные дискриминанты редко отвечают требованиям диагностирования процессов, потому что кластеры обычно не являются однородно сферичными. Редко когда величины стандартных отклонений переменных не имеют различий между кластерами. Часто наблюдается пересечение кластеров, как на рис. 6.12. К тому же пики плотностей кластеров часто радикально различны. Наконец, даже в тех случаях, когда линейные дискриминанты могут быть рационально использованы, они дают меньше информации, чем квадратичные дискриминанты. Точка, лежащая далеко от ближайшего к ней кластера, и точка в его центре дают одну и ту же дискриминирующую величину. Такая ситуация не возникает при квадратичной дискриминации, когда значение дискриминанта само по себе указывает на положение точки внутри или вне соответствующего кластера. [c.254]

    Если мы возьмем логарифм функции плотности вероятности р (д ) [см. уравнение (6.3.1)], то определим логарифмическую дискриминирующую функцию  [c.254]

    Главное преимущество логарифмического дискриминанта состоит в том, что он позволяет обрабатывать распределения, плотность которых быстро падает по одну сторону от среднего и в то же время имеет длинный хвост по другую сторону, т. е. асимметричные распределения. Классификация точек по отношению к кластерам таких типов, как показанные на рис. 6.13, лучше всего может быть осуществлена с помощью логарифмической дискриминирующей функции. [c.254]


    Согласно Джурсу [5], любой спектр низкого разреще-ния из d элементов может быть представлен в многомерном пространстве (гиперпространстве) как вектор Х= xi- -X2,. .., + х,/), где каждое значение х, является соответствующим образом закодированной интенсивностью. Дополнительный член d-fl, значение которого равно Xj, добавляется к каждому вектору, с тем чтобы можно было сконструировать поверхность рещения, проходящую через начало координат и отделяющую разные скопления точек друг от друга. Поверхность рещения представляет собой гиперплоскость, которая аналогична обычной двухмерной плоскости в трехмерном пространстве. Ориентация гиперплоскости определяется нормальным вектором W= w, w ,. .., d+i), который ортогонален поверхности рещения. Этот вектор называется весовым . Дискриминирующая функция g x)=W-X, которая является произведением нормального и распознаваемого векторов, позволяет классифицировать любую точку в ii-пространстве относительно гиперплоскости. Это представляется следующим уравнением  [c.275]

    Энаков на один или более классов, после чего может быть проведен анализ неполадок. Простым примером может служить вектор признаков с двумя возможными образами 1) соответствующими нормальной работе 2) соответствующими ненормальной работе. Более полезным будет распознавание образов для обнаружения и диагностики неполадок на основе выборки, классифицируемой следующим образом нормальная работа, при наличии неполадок комбинация признаков № 1, при наличии неполадок комбинация признаков № 2 и т. д. Решающие правила могут быть выбраны априори или уста-новлены в ходе процесса обучения , как описано в разделах" 6.3.3 и 6.4.3. Задача распознавания образов, следовательно, может рассматриваться как задача конструирования функций системы конечных векторов признаков различных классов, так чтобы функции разбивали пространство классификации на области, каждая из которых содержит признаки одного класса. При конструировании функций, называемых дискриминирующими функциями, система образов, для которых известна принадлежность к классам, используется для тренировки классификатора. Как только классификатор обучен, он становиться частью системы распознавания образов, которая тогда становится способной обрабатывать вводимые измерения неизвестного образа и классифицировать этот образ, относя его к одному или нескольким известным классам. [c.224]

    Дискриминационный анализ [26] — преследует цель отыскать функцию, которая стремится разделить пространство наблюдений на области. Рассмотрите рис. 6.3. Сюда можно включить метод нелинейных, квадратичных и кусочно-линейных дискриминирующих функций [20, 32], метод потенциальных функций [1] и процедуры, с помощью которых стремятся оценить многопеременные плотности вероятности [38, 40]. Некоторые авторы предложили находить расстояние от нового неклассифицированного набора наблюдений до предварительно обозначенного ряда классифицированных точек, с тем чтобы установить в некотором смысле ближайшего соседа [13] (подробнее см. раздел 6.3). Во всех вышеуказанных процедурах аргументами дискриминирующих функций являются векторы признаков и подбираются коэффициенты функций для достижения удовлетворительного разделения классов. [c.225]


Смотреть страницы где упоминается термин Дискриминирующие функции: [c.542]    [c.95]   
Обнаружение и диагностика неполадок в химических и нефтехимических процессах (1983) -- [ c.224 , c.225 , c.252 ]




ПОИСК





Смотрите так же термины и статьи:

Логарифмическая дискриминирующая функция



© 2025 chem21.info Реклама на сайте