Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Оптимум поиск,

    Основная идея методов случайного поиска заключается в том, чтобы перебором случайных совокупностей значений независимых переменных найти оптимум целевой фуикции или паправление движеиия к нему. [c.521]

    Нетрудно получить оценку вычислительных затрат при применении метода сканирования. Так, в случае поиска оптимума целевой функции при условии, что точность определения положения этого оптимума равна А, т. е. искомые значения нормализованных переменных не должны отличаться от истинного положения оптимума на величину, большую, чем А, число рассчитываемых значений целевой функции составит  [c.513]


    Особенностью рассмотренного метода шагов по оврагу является то, что если кривизна линии оврага небольшая, движение к оптимуму может происходить с весьма высокой скоростью. Если же кривизна линии оврага велика, то процесс поиска может замед-Л/1Т1.СЯ. [c.520]

    Эти результаты позволяют построить алгоритм решения задач нелинейного программирования высокой размерности, который представляет собой сочетание метода случайных направлений с градиентным методом. При этом на значительном расстоянии от оптимума поиск производится методом случайных направлений, а при приложении к оптимуму осуществляется переход к градиентному методу. [c.546]

    Из сказанного вытекает, что применение направленных методов оптимизации теплообменников не гарантирует нахождения глобального оптимума. Поиск же случайного локального минимума практически не интересен, так как невозможно даже приближенно оценить в каждом конкретном случае, насколько близко полученное решение к оптимальному, [c.310]

    Рпс. 1Х-25. Поиск оптимума методом градиента с постоянным шагом при наличии оврага . [c.519]

    Часто для оптимизации можно пользоваться графическими зависимостями равновесного состава и энергозатрат от температуры и давления. Анализируя кривые, устанавливают режимы, отвечающие экстремальным значениям показателей. Эта весьма трудоемкая работа не всегда дает возможность однозначно отыскать истинный оптимум процесса, так как искомая величина часто является функцией нескольких переменных. Планирование расчетного эксперимента позволяет значительно снизить число необходимых расчетов, найти и исследовать область оптимума. Поиск области оптимума осуществляют методом Бокса — Уилсона (восхождение по градиенту) [4, 5]. Этим методом желаемый результат получают при минимальном количестве опытов, экономя время и средства. [c.14]

    Для сравнения движения ио градиенту с классическим методом поиска оптимума на рис. 49 изображена ломаная линия ОР Q NKM. Вначале фиксируется одна переменная, а движение ведется по другой переменной, пока не будет достигнута точка Р, в которой прирост величины у прекращается. В этой точке фиксируется переменная и начинается движение в направлении переменной Х2 и т. д. При этом, чем больше переменных, тем сложнее такой поиск. [c.161]

    В основу градиентных методов поиска оптимума положены вычисление и анализ производных целевой функции / (дг). Поэтому, прежде чем перейти к описанию различных методов, необходимо рассмотреть вопрос о расчете производных [c.490]

    Поиск оптимума при известном аналитическом выражении градиента [c.500]

    Наличие коэффициента р (массы тяжелого шарика ) в уравнении (IX,73) обеспечивает определенную инер[],ионность процессу поиска оптимума, которая проявляется в том, что при применении этого алгоритма появляется возможность проскакивать небольшие [c.503]


    Существуют различные модификации метода сканирования, применяемые в основном для сокращения объема вычислений. Одна из таких модификаций заключается в том, что используется алгоритм с переменным, шагом сканирования. Вначале величина шага выбирается достаточио большой, по возможности значительно превышающей требуемую точность определения положения оптимума, и вьшолняется грубый поиск, который локализует область нахождения глобального оптиму.ма. После того как эта область определена, производится поиск с меньшим шагом только в пределах указанной области. Практически можно организовать целый ряд таких процедур последовательного уточнения положения оптимума. Необходимый [c.513]

    Например, при поиске оптимума функции двух переменных ( г = = 2) с точностью А = 10 , используя два этапа уточнения величины шага (г = 2) в й = 10 раз, т. е. с начальным шагом А = 0,1, необходимый объем вычислений составит [c.514]

    На рис. 1Х-20 показан поиск с переменным шагом для функции двух переменных. Кружком обозначено истинное положение оптимума, а крестом — приближение, найденное в результате грубого поиска. [c.514]

    Рнс. IX-26. Поиск оптимума методом шагов по оврагу . [c.519]

    Нижнего температурного предела можно не вводить, если при поиске оптимума учитывается стоимость едишщы времени контакта. — Прим. перев. [c.269]

    Рассмотренный вьнле алгоритм поиска оптимума без особого труда можно обобщить и на вариант, когда размерности вектора состояния и управления произвольны. Блок-схема алгоритма, реализую-н1,его поиск для этого общего случая, представлена на рис. У1-17. [c.270]

    Очепидио, что в с учае поиска оптимума, являющегося минимумом, для удачно выбранного шага должно выполняться условие [c.489]

    В этом смысле шаговые методы иопска оптимума могут быть названы итеративными, если иоследователыюе иримепение формулы (IX,28) I сю) обеспечивает нахождение оптимума (наблюдается сходимость поиска). [c.489]

    Пстественно, что алгоритмы поиска типа (IX,30) являются более общими и ирипциииалыю могут обеспечить более высокую скорость сходимости к оптимуму, так как используют больший объем информации о характере поведения оптимизируелюй функции. [c.490]

    Момент окончания поиска определяется по выполнении некоторых нредварнтельно заданных условий. Один из возможных вариантов окончания поиска для случая, когда оптимум находится внутри области X, заключается в проверке на каждом таге соотнонкшня (IX,38), [c.497]

    Соотношения (IX,28) и (IX,30) представляют собой дискретные алгоритмы поиска оптимума целевой функции. При достаточно малой величине шагов можпо также заиисать и иенрерывные аналоги [c.490]

    Критерием окончания поиска оптимума является достижение такой точки, ирн движении нз которой по любому осевому направлению дальнейи1е1 о убывания функции цели не происходит. На практике в качестве признака оптимума часто ирнмеияегся условие [c.492]

    Если, напротив, величина шага с самого начала спуска выбрана слишком большой, то вблизи оптимума может возникнуть рыска-П1те , так как при большой величине тнага мала вероятность попада-пия в окрестность оптимума, в которой выполняется условие окончания поиска (IX,38). Поэтому представляют интерес специальные приемы изменения величины шага в процессе поиска. [c.493]

    Характер поиска оптимума при малой и большой величинах шага псжазан па рис. IX-12. [c.496]

    Другой вариант определения момента окончания поиска заключается в следующем. После каждой серии с заданным числом 5 шагов запоминается значение целевой фуикции. Число шагов з в серии выбирается таким, чтобы при вьпюлнении серий на начальных этапах поиска происходило заметное изменение значения целевой функции. Если последующая серия шагов дает меньшее значение целевой функции, то поиск продолжается. Если же при выполнении следующей серии меньшее значение целевой функции не находится, то поиск нрекрангается и полученное наименьшее значение рассматривается как искомый оптимум. [c.497]

    Пр][ применении метода градиента на каждом шаге нужно определять значения всех частных производных оптимизируемой функции по всем независимым переменным. Е]сли расчет одного значения данной функции требует значптельг[ого объема вычислений, то время поиска оптимума, особенно при большом числе независимых переменных, может быть весьма большим. [c.497]

    Изложенный метод расчета величины шага в некоторых случаях значительно ускоряет поиск оптимума. Его можно также применять ц в методе релаксации прн поиске минимума для осевого наиравле-пия. [c.500]

    Если можно найти аналитически производные оптимизируемой функции, то задача поиска оптимума представляется как задача интегрированпя системы дифференциальных уравнений [c.500]

    До сих пор рассматривались методы поиска оптимума, и которых аля определения величины и направления шага попска ирименялс/- предварительный анализ производных оптимизируемой функции ио всем независимым переменным задачи. Нахождение производных при наличии трудновычислимого критерии оптимальности свя- ано с необходимостью выполнения большого объема вычислений, гто может привести к существенному увеличению времени поиска, особенно при большом числе независимых переменных. [c.504]

    Таким образом, число вычислений критерия оптимальности при определении положения оптимума методом сканирования возрастает в показательной зависимости от размерности решаемой задачи. Поэтому эффективное применение данного метода в основном 01 ра-ничивается задачами невысокой размерности я 2 — 3, если используется простейший алгоритм поиска, рассмотренный выше, для отыскания оптимума с невысокой точностью. [c.513]

    При использовании слепого поиска в допустимой области измерения независимых переменных, определенно)" неравенствами (IX,125), случайным образом выбирается точка, б которой вычисляется значение целевой функции. Далее аналогично выбирается другая точка, где также рассчитывается значение функции цели и сравнивается с полученным ранее. Если новое значение функции цели оказывается меньше (больиш) предыдущего, то это значение запоминается вместе с координатами точки, для которой оно было вычислено. Затем продолжается выборка случайных точек и сравнение значений целевой функции в этих точках с уже найденным. Каждый раз, когда получается меньнюе значеине целевой функции, оно запоминается вместе с соответствующими значениями координат, после чего продолжается поиск лучшего приближения к оптимуму. [c.522]


    Теоретически при применении такой стратегии и достаточно большом числе испытаний можно достигнуть сколь угодно высокой степени точности и определении положения оптимума. Однако на практике использоЕзание слепого поиска существенно ограничивается размерностью решаемой задачи и сложностью вычисления значений целевой функции. Так, иапример, если требуется найти положение оптимума с точностью А, определяемой как допустимое отклонение координат от истинной точки оптимума, то при выборке случайных точек необходимо хотя бы один раз попасть в А-окрестность точки оптимума. [c.522]


Смотреть страницы где упоминается термин Оптимум поиск,: [c.316]    [c.264]    [c.485]    [c.493]    [c.494]    [c.495]    [c.496]    [c.511]    [c.511]    [c.512]    [c.514]    [c.514]    [c.523]    [c.524]    [c.524]   
Методы оптимизации в химической технологии издание 2 (1975) -- [ c.0 ]




ПОИСК





Смотрите так же термины и статьи:

Оптимум

Шаг поиска



© 2024 chem21.info Реклама на сайте