Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Случайные методы поиска оптимум

    Основная идея методов случайного поиска заключается в том, чтобы перебором случайных совокупностей значений независимых переменных найти оптимум целевой фуикции или паправление движеиия к нему. [c.521]

    Часто рекомендуется процесс оптимизации осуществлять в два этапа методом случайного поиска в области, далекой от минимума (максимума), и градиентным методом при приближении к зоне оптимума. [c.363]


    В системах автоматической оптимизации широко используется аппаратура вычислительной техники. В простейших системах, где не требуется высокая точность, применяются недорогие электронные устройства непрерывного действия, для сложных объектов — специализированные ЭВМ. Работа автоматического оптимизатора может быть основана на различных методах, чаще всего на рассмотренных нами поисковых методах оптимизации с той лишь разницей, что наличие модели объекта здесь необязательно. При этом стратегия поиска может быть случайная, симплексная, градиентная — на основе пробных экспериментальных шагов, осуществляемых оптимизатором. Подробно с автоматическими методами поиска оптимума можно ознакомиться в монографии [40]. [c.253]

    Согласно другой классификации, все методы нелинейного программирования можно разделить на методы локального поиска и методы нелокального (глобального) поиска. В процессе решения задачи одним из локальных методов значения оптимизируемых параметров непрерывно меняются в направлении минимизации (или максимизации) рассматриваемой функции. Тем самым эти методы гарантируют нахождение только локального оптимума. К группе локальных методов относятся методы градиентный, наискорейшего спуска, покоординатного спуска и др. Для методов глобального поиска характерно введение дискретности в процессе изменения оптимизируемых параметров, что способствует рассмотрению большей области изменения исследуемой функции и выявлению абсолютного оптимума среди локальных. К этой группе методов относятся метод случайного поиска, метод динамического программирования, а также сочетания для совместного использования ряда других методов. [c.122]

    Наличие ограничений на оптимизируемые параметры приводит к некоторому усложнению использования перечисленных выше методов. Наличие ограничений не сказывается на использовании для поиска оптимума методов слепого и случайного поиска, уменьшается только допустимая область параметров. Если оптимум функции находится внутри допустимой области изменения независимых переменных то задачу иногда можно решить перечисленными выше методами поиска. Если же оптимум расположен на границе области у, то для его отыскания приходится применять специальные методы [24] метод прямого поиска с возвратом, метод проектирования вектора градиента, метод обобщенного критерия. [c.363]

    Теоретически при применении такой стратегии и достаточно большом числе испытаний можно достигнуть сколь угодно высокой степени точности в определении положения оптимума. Однако на практике использование слепого метода поиска существенно ограничивается размерностью решаемой задачи и сложностью вычисления значений целевой функции. Так, например, если требуется найти положение оптимума с точностью А, определяемой как допустимое отклонение координат от истинной точки оптимума, то при выборе случайных точек необходимо хотя бы один раз попасть в А-окрестность точки оптимума. [c.520]


    Поиск минимума функционала (критерия идентификации) на ЦВМ ведут стандартными методами. Эта задача является типичной задачей нелинейного программирования и должна решаться соответствующими приемами. Для конкретных полимеризационных систем описано применение методов Гаусса — Зайделя, случайного поиска [37], наискорейшего спуска [35] и др. Специфика получающейся математической системы, характер ограничений и, наконец, наличие стандартных подпрограмм поиска оптимума определяют выбор метода. Идентификация с помощью ЦВМ существенно ускоряется при использовании прямых интегральных уравнений (при получении которых велика роль качественных методов анализа и различных вспомогательных предположений, в том числе допущение стационарности там, где это возможно). [c.76]

    Однако такие зависимости часто бывают очень сложны, и их исследование для определения оптимума является крайне трудной задачей. Экспериментаторы идут обычно другим путем вначале тем или иным способом находят оптимальную область, а затем описывают ее уравнением второго или третьего порядка. В настоящее время существует много различных методов поиска оптимальной области. Их можно разбить на две группы случайные [47] и направленные. Химики-технологи чаще пользуются направленными методами. [c.110]

    Эти результаты позволяют построить алгоритм решения задач нелинейного программирования высокой размерности, который представляет собой сочетание метода случайных направлений с градиентным методом. При этом на значительном расстоянии от оптимума поиск производится методом случайных направлений, а при приложении к оптимуму осуществляется переход к градиентному методу. [c.546]

    Кроме указанных методов для поиска глобального оптимума реализованы в виде программ и показали хорошие результаты еще три метода [5, 59] комбинация случайного и статистического градиентного поиска решения, поиск экстремума системой вероятностных автоматов Буша — Мостеллера, поиск экстремума с использованием направляющей сферы. [c.155]

    Другой важной проблемой машинной реализации линейной или нелинейной диаграммы связи является поиск констант элементов с линейными определяющими соотношениями. Обычно они неизвестны и определяются косвенно по экспериментальным данным. Здесь предлагается метод нахождения таких констант с помощью минимизации целевой функции. В качестве основного метода предлагается метод случайного поиска экстремума (71 как наиболее общий, но пользователь может заменить этот метод на свой, например метод локальных вариаций [7, 8], метод Ньютона [7] и т. д., не являющийся универсальным, т. е. не дающий оптимума наверняка даже в случае произвольно большого числа итераций. [c.201]

    Результат, получаемый методом статистических испытаний, характеризуется вероятностью р того, что при данном числе N случайных испытаний расположение точки оптимума будет определено с точностью до А, где Д —объем п-мерного кубика (по числу аргументов п), выраженный в долях от общего объема области поиска  [c.127]

    Поисковые методы оптимизации [107—112] используют математическую модель, полученную экспериментально-статистическими методами. Модель описывает исследуемый объект в некоторой локальной области изменения переменных. Область оптимума в общем случае не совпадает с областью математического описания, поэтому целевая функция служит лишь для выработки стратегии поиска оптимума. К числу основных поисковых методов относят метод Гаусса — Зейделя, метод случайного поиска, метод симплексов, метод градиента, метод наиско-рейшего спуска (крутого восхождения). [c.175]

    Из сказанного вытекает, что применение направленных методов оптимизации теплообменников не гарантирует нахождения глобального оптимума. Поиск же случайного локального минимума практически не интересен, так как невозможно даже приближенно оценить в каждом конкретном случае, насколько близко полученное решение к оптимальному, [c.310]

    Случайное ЭВОП представляет собой модификацию метода случайного поиска специально приспособленную к решению задач оптимизации сложных производственных объектов. Случайное ЭВОП является особенно полезным, когда имеется большое число управляемых факторов и, как утверждают, особенно эффективно в сложной ситуации. При этом не вычисляют отдельные эффекты и коэффициенты уравнения регрессии. Решения принимаются непосредственно на основе результатов эксперимента. В случайном ЭВОП число экспери ментов, необходимых для нахождения оптимума, почти не зависит от числа независимых переменных и сложности функциональной зависимости. [c.106]

    Представляет интерес сравнение градиентных методов с методами случайного поиска, поскольку последние относительно просто реализуются на вычислительных машинах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой функции, заданной в виде квадратичной формы, используются методы градиента и случайных направлений с одинаковыми размерами шагов [8]. Оказывается, что эти методы в смысле вычислительных затрат имеют примерно одинаковую эффективность при размерности задачи, равной 3, и достаточно большом [c.544]

    На рис. IX-36 показаны границы применимости указанных методов в зависимости от размерности задачи и удаления от оптимума, измеряемом в данном случае в единицах шага спуска. Область, расположенная над кривой, является областью более высокой эффективности метода случайного поиска и, наоборот, область под кривой — областью более высокой эффективности градиентного метода. [c.544]


    На первом этапе методом случайного баланса [3] устанавливалась незначимость факторов Xs и х . Значимые факторы условно разбивались на две группы. Факторы 1-й группы Х -f- Х4 влияют на процесс изготовления композиции, факторы 2-й группы Ху, Хв — на процесс создания адгезионного контакта системы модифицированный полиэтилен — сталь . На основании анализа реализованной матрицы дальнейшие поиски оптимума проводились варьированием параметров только первой группы, а факторы Xj и Хе, фиксировались на верхнем уровне. [c.85]

    Представляет интерес сравиеине градиентных методов с методами случайного поиска, поскольку последние относительно просто.реализуются па вычислительных маигииах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой фупкц [и, заданной в виде квадратичной формы, используются ме- [c.545]

    Метод случайного поиска (сканирования). Наиболее простой алгоритм реализации этого. метода, на.чывае.мый еще поиском на сетке переменных, заключается в том, что по каждой независимой переменной даются приращения в порядке, обеспечивающем заполненне всей области изменения этих переменных равномерной и достаточно густой сеткой. Для произвольного числа независимых переменных шаг по каждой следующей производится после того, как полностью завершен цикл по предыдущей. При достаточно густом расположении исследуемых точек гарантируется отыскание глобального оптимума, так как анализируется вся область изменения независимых переменных Другое достоинство — независимость поиска от вида оптимизируемой функции. В отличие от градиентных метод сканирования не связан с наличием локальных оптиму.мов целевой функции. [c.109]

    Поскольку зависимость (IV-37) является нелинейной, то, как показано в работе [ПО], задача становится многоэстремальной, и для нахождения глобального оптимума предлагается использовать метод случайного поиска с направляющим конусом. [c.140]

    Ефнщная идея методов случайного поиска заключается в том, э Перебором случайных совокупностей значений независимых переменных найти оптимум целевой функции или направление движения к нему. - [c.518]

    Этот метод случайного поиска по существу представляет собой улучшение алгоритма, рассмотренного выше. Отличительной его особенностью является то, что при неудачном шаге h № из точки tffe) сразу производится шаг в обратном направлении — Нс№ При достаточном удалении от оптимума такая стратегия поиска оказывается весьма эффективной. Если и обратный шаг оказывается неудачным, можно либо сделать новый случайный шаг из точки х№ либо, что более целесообразно, перейти к поиску с уменьшенным размером шага. В последнем случае, правда, существует опасность замедления поиска вдали от оптимума, особенно когда оптимизируемая функция имеет овраги . [c.522]


Смотреть страницы где упоминается термин Случайные методы поиска оптимум: [c.524]    [c.136]   
Методы оптимизации в химической технологии издание 2 (1975) -- [ c.518 , c.543 ]




ПОИСК





Смотрите так же термины и статьи:

Метод поиска

Оптимум

Шаг поиска



© 2025 chem21.info Реклама на сайте