Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Решающие поверхности

    Признаки в пространстве признаков должны лучше группироваться, чем измерения в пространстве измерений, и, возможно, образовать более простые решающие поверхности. По существу, процесс выделения признаков — это удерживание класса дискриминирующей информации и отсеивание класса бесполезной информации из системы измерений различных классов. Благодаря процессу выделения признаков, вышеупомянутая информация может быть определена из фигур, образуемых векторами признаков. [c.223]


    Один из способов классификации точек образов заключается в нахождении групп, принадлежащих одному и тому же классу, и размещению между ними решающей поверхности (границы). В простом двумерном пространстве такая классификация сводится к проведению линий (не обязательно прямых) между точками разных классов (например, коров можно отделить от лошадей, отгородив их друг от друга забором). [c.21]

    В гиперпространстве точки образов, соответствующие соединениям с родственными характеристиками, должны, по-видимому, образовывать кластеры. Например, точки образов, представляющие масс-спектры спиртов, должны группироваться в какой-то ограниченной области гиперпространства, а точки образов, относящиеся к масс-спектрам алкенов, — в другой области этого пространства. Часто подобное предположение оказывается верным по отношению к совокупностям точек, отображающих химические данные, например масс-спектры. Если образуются кластеры, решающие поверхности удается располагать между ними. В простейшем таком случае решающая поверхность представляет гиперплоскость той же размерности, что и выбранное гиперпространство. [c.21]

    Такая гиперплоскость может и не быть линейной или плоской в соответствии с размерностью пространства, однако, когда решающая поверхность линейна и проходит через начало координат, математически задача значительно упрощается. В этом случае гиперплоскость можно охарактеризовать вектором нормали, исходящим из начала координат. Иными словами, формально всякий вектор, исходящий из начала координат, определяет плоскость. [c.21]

    Итак, задав вектор нормали к плоской решающей поверхности, мы определяем последнюю. Однако в подобной простой ситуации возникает еще одна важная особенность. Дело в том, что скалярное произведение вектора нормали W на вектор образа X определяет, по какую сторону от гиперплоскости лежит точка, характеризующая данный образ  [c.22]

    Хотя отнюдь не обязательно, чтобы решающие поверхности были линейными (плоскими), их линейность намного упрощает задачу. К тому же, как можно показать, более сложные решающие поверхности можно заменить линейными, если исходные данные должным образом преобразовать в препроцессоре. [c.22]

    Во многих случаях эффективное разбиение данных на два класса удается произвести при помощи линейной разделяющей функции. Однако отыскать подобную функцию для многомерных данных далеко не просто. Невозможно построить многомерный граф, наглядно изображающий точки. Более того, как правило, нецелесообразно вычислять все возможные решающие поверхности для того, чтобы выбрать одну из них, ведущую к нужному решению. Во многих случаях успех приносит эвристический подход. [c.24]

    Существует ряд приемов обучения с исправлением ошибки через обратную связь. Один способ, обеспечивающий, как можно показать, сходимость для любой линейно разделимой совокупности данных, исправляет решающую плоскость, заставляя ее как бы отразиться от неправильно классифицированной точки. Как уже говорилось, алгебраический знак скалярного произведения весового вектора на вектор образа указывает, с какой стороны от решающей поверхности расположена точка, представляющая образ  [c.25]


    Остается только выбрать подходящее значение а, чтобы завершить вывод. Хорошие результаты дает следующий выбор х = —я. Тогда решающая поверхность перемещается так, что после внесения [c.25]

    Таким образом, какую бы классификационную схему мы ни выбрали, она сама должна в той или иной форме оценивать распределение неизвестных масс-спектров на основе совокупности известных спектров. Линейный бинарный классификатор делает это при помощи решающей поверхности, эффективно делящей многомерное пространство изображений масс-спектров на два интересующих нас класса. Затем такой классификатор используется для классификации неизвестных спектров. Эту математическую процедуру химики обычно на практике не применяют, но по существу она сводится к предсказанию новых ответов на базе прошлой практики. Поэтому [c.47]

    В табл. 4.7 приведены результаты исследования характеристик бинарных классификаторов образов в зависимости от величины порога. Как и следовало ожидать, число коррекций через обратную связь, необходимых для правильной классификации всех образов из обучающей выборки, тем больше, чем выше порог Z. Одновременно возрастают прогнозирующая способность и надежность. В последнем столбце указано, сколько из исходных 132 положений mie, использованных при обучении, были исключены как неопределенные. По мере возрастания Z и сокращения объема, в который попадает решающая поверхность, число используемых классификатором образов положений mie возрастает. [c.66]

    Введение положительного порога 2 должно повышать прогнозирующую способность вектора W для линейно разделимых ситуаций благодаря более оптимальной решающей поверхности. В табл. 4.9 [c.68]

    Доверительный уровень (доля верных предсказаний) в зависимости от расстояния до решающей поверхности [c.70]

    Третье преимущество решающей поверхности с конечной толщиной выявляется при применении отрицательного порога 2 к линейно неразделимым категориям, что позволяет использовать те же алгоритмы, что и для линейно разделимых категорий. [c.70]

    Существует ряд правил выбора с. В рассматриваемом исследовании поправку выбирали по одному из вариантов правила частичной коррекции. Правило частичной коррекции предполагает, что поправку с всегда выбирают с таким расчетом, чтобы решающая поверхность, определяемая весовыми векторами и Шг, сместилась на заданную долю Я, своего обычного расстояния до точки образа X. Так, при А-=2 новая решающая поверхность, определяемая векторами и Ш/, лежит на прежнем расстоянии до точки образа X, но с другой стороны от нее, В случаях к>2 возникают трудности, связанные с вариациями длины весовых векторов. Поскольку от длины весовых векторов зависит величина решение смещается в сторону векторов большей длины. Подобного смещения можно избежать нормированием длины весовых векторов на единицу. Нормирование, естественно, налагает дополнительные ограничения. Таким образом, соотношения (4.23) преобразуются к виду [c.82]

    Решение о необходимости введения новой вспомогательной разделяющей функции принимают, руководствуясь следующим простым критерием такую функцию вводят, если где постоянная а удовлетворяет условию 0-<а< 1. Когда же Р < >-аЯ ь функцию не вводят. Параметры т и а определяют чувствительность функции Р к изменениям положения решающей поверхности их подбирают экспериментально. [c.84]

    Из всего массива в 630 спектров 300 спектров, взятых случайно, были включены в обучающую выборку, а остальные 330 — в контрольную. Максимальная величина отношения mie, соответствующая пику в спектре, оказалась равной 195. Таким образом, поскольку в этом случае d = 195, векторы X i Y имели размерность 195. Использование линейных решающих поверхностей предполагало независимость всех координат и отсутствие взаимодействия между слагаемыми. Для всех этих спектров нашлись 40 положений mie, которые не соответствовали пикам, и поэтому размерность удалось снизить до 155. Дальнейшее сокращение размерности было достигнуто путем исключения из всего массива спектров еще 36 положений mie с числом пиков менее 10. Всего из 17 137 исходных пиков при этом отборе было исключено 111 пиков, т. е. 0,6% общего числа, причем остальные пики распределялись по 119 положениям. Как показала последующая проверка, использование всех без исключения исходных пиков не могло существенным образом упростить задачу классификации. [c.112]

    Если известно какое-то решение для той или иной конкретной обучающей выборки, то каждой ее точке Х будет соответствовать расстояние di по нормали к решающей поверхности. Если точка расположена с правильной стороны от этой поверхности, то расстояние считается положительным в противном случае оно рассматривается как отрицательное. Тогда полутолщину решающей поверхности можно определить как минимальное для обучающей выборки значение d/, вычисляемое по формуле [c.125]

    Определенное таким образом значение t представляет максимальную полутолщину конкретной решающей поверхности, при которой все еще обеспечивается сходимость решения, т. е. правильная классификация всех объектов обучающей выборки. [c.125]

    Два первых этапа позволили легко исключить приблизительно /з дескрипторов. Затем на каждом этапе исключалось по одному дескриптору. Сначала многие компоненты весовых векторов имели близкие к нулю значения. А поскольку исключение дескрипторов было равноценно приписыванию соответствующей компоненте нулевого значения, отбрасывание такой компоненты почти не влияло на величину скалярного произведения и почти не изменяло решающую поверхность. Когда за первые два шага было исключено 34 дескриптора, оставшиеся дескрипторы все еще имели значительную вели- [c.127]

Рис. 6.4. Распределение 630 соединений как функция расстояния до решающей поверхности. Решающая поверхность отделяет соединения от соединений другого состава. Рис. 6.4. Распределение 630 соединений как <a href="/info/102256">функция расстояния</a> до решающей поверхности. Решающая поверхность <a href="/info/1828791">отделяет соединения</a> от <a href="/info/16133">соединений другого</a> состава.

    Т. е. от расстояния, до решающей поверхности. Несмотря на значительный уровень шума в случае небольших чисел, общая тенденция очевидна. Когда расстояние образов до решающей поверхности превосходит 2, доверительный уровень налшого выше, причем с уменьшением скалярного произведения он все более снижается. Следует обратить внимание на разницу между предсказаниями внутри разделяющей полосы и вне ее. Последние целесообразно сопоставить с результатами, даваемыми пороговыми логическими элементами (см. табл. 4.9). [c.70]

    При разработке рассматриваемого кусочно линейного классификатора преследовалась цель создания простого средства для внутреннего генерирования новых весовых векторов по мере необходимости непосредстЕенно в процессе обучения. Авторы исследования надеялись тем самым создать довольно простое классифицирующее устройство, уровень сложности которого обеспечивал бы только получение нужного решения. Любой классификатор заданной сложности, обучение которого производится по методу исправления ошибок через обратную связь, обнаруживает колеблющееся поведение, когда перед ним ставят неразрешимую задачу. Например, классификатор, использующий единстЕенную линейную разделяющую функцию, никогда не сможет решить задачу, представленную на рис. 4.1. В этом случае положение единственной решающей поверхности долго испытывало бы значительные колебания. Естественно поэтому искать пути обнаружения подобных колебаний, свидетельствующих о необходимости усложнения решающей поверхности. [c.83]

    Как отмечалось в гл. 1, цель любой процедуры распознавания образов — преобразование пространства образов в классифицирующее пространство, т. е. осуществление таких преобразований данных, которые переводят их в нужные категории. Эту задачу можно трактовать как отображение пространства (й + 1)-й размерности в пространство гораздо меньшей размерности, чаще всего в одномерное. Линейные классификаторы образов, оперирующие с каждым измерением независимо, были довольно подробно рассмотрены в предыдущих главах настоящей книги. Однако во многих случаях точки образов не обладают свойством линейной разделимости. Успешное решение задачи классификации образов в подобных ситуациях требует либо использования решающей поверхности более высокого порядка, либо такого преобразования исходных данных, которое превращает их в линейно разделимое множество. (Это утверждение предполагает, что неразделимость отражает истинную природу исходных данных, а не является просто следствием неадекватности дескрипторов и т. п.). [c.136]

    Как видно из формулы (6.18), чтобы применить разделяющую функцию, нужно вычислитьФ(х) и Преобразованные спектральные интенсивности могут принимать только 50 значений [см. соотношение (6.16)], поэтому эти интенсивности можно вычислить и хранить до использования в расчетах решающей поверхности, а не вычислять каждый раз для любого нового спектра. Таким путем достигается большая экономия машинного времени. Вектор вычисляют непосредственно по формуле (6.19). [c.167]

    Доля верных предсказаний может служить критерием доверия к отдельному прогнозу. Так, правдоподобность прогноза о наличии фенильной группы (96,8%) выше, чем правдоподобность прогноза о наличии азота (90,3%). Этот критерий можно дополнительно усовершенствовать. На рис. 6.4 показан график распределения соединений двух классов (соединений с формулой СпН п и всех других соединений) в зависимости от значения F x). Когда значение этой функции находится очень близко к решающей поверхности доверие к отдельному предсказанию минимально. По мере удале ния Р х) от решающей поверхности доверие к прогнозам возрастет Это обстоятельство особенно ценно в тех случаях, когда в отноше НИИ одного соединения составляются разнообразные прогнозы Возникающие при этом противоречия можно разрешить, взяв [c.169]


Смотреть страницы где упоминается термин Решающие поверхности: [c.20]    [c.25]    [c.26]    [c.64]    [c.69]    [c.84]    [c.114]    [c.127]    [c.128]   
Смотреть главы в:

Распознавание образом в химии -> Решающие поверхности




ПОИСК







© 2025 chem21.info Реклама на сайте