Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Поиск оптимума спуска

Рис. 5.19. Фрагмент распечатки поиска оптимума методом покоординатного спуска Рис. 5.19. Фрагмент распечатки <a href="/info/41682">поиска оптимума методом</a> покоординатного спуска

    При большом числе оптимизируемых параметров X иногда применяют модифицированный метод покоординатного спуска. В этом случае полное число параметров X разбивается на некоторое число групп. Вначале одним из рассмотренных методов оптимизируются параметры первой группы при фиксированных значениях параметров остальных групп. Далее осуществляется поиск оптимума по параметрам второй группы и т. д. Таким образом, отличие этого метода от простого покоординатного спу- [c.134]

    Методы направленного поиска. Для оптимизации адсорбционных установок и их отдельных элементов с большим числом оптимизируемых параметров и варьируемых факторов могут быть применены методы направленного поиска оптимума градиентные, наискорейшего спуска, покоординатного спуска и др. Характерной чертой этих методов является использование в процессе решения задачи результатов каждого данного шага (иногда также и предыдущих шагов) поиска оптимальной точки для определения направления изменения оптимизируемых параметров на каждом следующем шаге. При этом значение минимизируемой функции систематически уменьшается. Тем самым вместо рассмотрения большого количества вариантов происходит направленный анализ относительно малого числа ва- [c.127]

    При реализации на. ЭВМ метода наискорейшего спуска можно достигнуть определенной экономии вычислительного времени за счет того, что направление антиградиента ищется не на каждом шаге поиска оптимума. Определив направление антиградиента, движутся далее в этом направлении до тех пор, пока функция цели продолжает убывать. После этого ищут новое направление антиградиента и т. д. [c.209]

    Направление шага спуска при применении этого метода выбирается без учета ограничений (IX, 2а). В выбранном направлении делается один или несколько шагов вплоть до нарушения условия (IX, 180), после чего производится возврат на поверхность ограничений по направлению ее нормали. Графическое изображение процесса поиска оптимума представлено на рис. IX-28. [c.534]

    Следовательно, если в процессе спуска сделан шаг, приводящий к значительному нарушению ограничений (IX, 2а), то последующие шаги приведут к автоматическому исправлению этого нарушения. Очевидно, что чем больше выбрано значение а, тем в более узкой окрестности гиперповерхности ограничений будет производиться поиск оптимума функции Q(x). Поскольку на самой гиперповерхности ограничений функция Q(x) совпадает с функцией R(x), положение минимума Q(x) при достаточно большом значении а совпадает с положением минимума R(x), определяемого с учетом ограничений (IX, 2а), с точностью до размеров е-окрестности, за пределами которой выполняется условие (IX, 195). [c.538]

    На рис. 5.19 показан фрагмент распечатки поиска оптимума по двум переменным. Поиск был начат с точки 01 = 0,03 02 = 0,013. Сначала осуществлялся спуск вдоль координаты 01 при фиксированном значении 02 = 0,013 и в точке 01 = 0,018 была достигнута граница выделенной области поиска. Затем спуск проводился вдоль координаты 02 при фиксированном значении 01 = 0,018. В точке 02 = 0,010 было достигнуто минимальное значение целевой функции 2 = 62 руб/ч. [c.223]


    Для нахождения локальных минимумов ф и ф2 предлагается релаксационная модификация метода быстрейшего спуска. Сущность метода заключается в последовательном движении по отдельным независимым переменным с некоторым шагом А (в обоих направлениях — положительном и отрицательном) до нарушения условий (У,16) — (У,20) или до получения положительного приращения функции ф. Когда указанные нарушения возникают по всем переменным, производится дробление шага движения А. Поиск оптимума заканчивается после достижения достаточно малого шага. Логическая схема поиска приведена на рис. 28. [c.144]

    Согласно другой классификации, все методы нелинейного программирования можно разделить на методы локального поиска и методы нелокального (глобального) поиска. В процессе решения задачи одним из локальных методов значения оптимизируемых параметров непрерывно меняются в направлении минимизации (или максимизации) рассматриваемой функции. Тем самым эти методы гарантируют нахождение только локального оптимума. К группе локальных методов относятся методы градиентный, наискорейшего спуска, покоординатного спуска и др. Для методов глобального поиска характерно введение дискретности в процессе изменения оптимизируемых параметров, что способствует рассмотрению большей области изменения исследуемой функции и выявлению абсолютного оптимума среди локальных. К этой группе методов относятся метод случайного поиска, метод динамического программирования, а также сочетания для совместного использования ряда других методов. [c.122]

    Согласно физическому смыслу задачи, оптимальная траектория (оптимальный набор У,) целиком лежит строго внутри ограничений. Это позволяет применить для решения задачи метод быстрейшего спуска без серьезных усложнений алгоритма, связанных с поиском оптимума на границе. Метод состоит [c.216]

    Рассмотренная задача является простейшим примером оп тимального проектирования по двум независимым переменным. При поиске оптимума по существу был использован принцип релаксационной модификации метода быстрейшего спуска, согласно которому движение в направлении оптимума функции (ф) осуществляется по отдельным переменным. Для подобных задач это наиболее простой и удобный способ определения фтш. В целом пример показывает, что в каждом конкретном случае оптимум можно найти одним из методов поиска экстремума, без знания общих количественных критериев. Однако если такой критерий может быть указан, то он позволяет исключить из рассмотрения переменную П],, что значительно упрощает задачу оптимизации. [c.227]

    Поиск минимума функционала (критерия идентификации) на ЦВМ ведут стандартными методами. Эта задача является типичной задачей нелинейного программирования и должна решаться соответствующими приемами. Для конкретных полимеризационных систем описано применение методов Гаусса — Зайделя, случайного поиска [37], наискорейшего спуска [35] и др. Специфика получающейся математической системы, характер ограничений и, наконец, наличие стандартных подпрограмм поиска оптимума определяют выбор метода. Идентификация с помощью ЦВМ существенно ускоряется при использовании прямых интегральных уравнений (при получении которых велика роль качественных методов анализа и различных вспомогательных предположений, в том числе допущение стационарности там, где это возможно). [c.76]

    Решение задачи поиска оптимума оказывается более простым, если использовать один из методов спуска. Этот метод можно использовать при расчете ОТА любых конструкций, причем совсем не обязательна запись П (Хи Х2,. . Хп) в явном виде. [c.251]

    Результаты анализа позволяют сделать вывод если при поиске оптимума теплообменника любой конструкции используется метод спуска, следует обеспечить нахождение наименьшего минимума, применяя метод спуска для различных подобластей функции П. [c.260]

    Проведенные эксперименты показали, что затраты времени при поиске оптимума предлагаемым методом значительно меньше чем при использовании традиционной методики. Кроме того, при этом значительно выше точность поиска, т.к. нет необходимости считывать значение с графиков. При построении графиков рис.2 и 4 из рис.1 и 2 приходится считывать точки пересечения семейства кривых с линией К2=1. Учитывая, что угол встречи кривых мал, а сами кривые строятся с невысокой точностью, точность считывания координат мала. В результате, как было отмечено выше, в оптимальной точке, найденной покоординатным спуском, хГ [c.92]

    По сравнению с рассмотренным выше методом прямого поиска с возвратом, для реализации которого требуется вычисление градиента только для целевой функции ири выполнении одного шага спуска, метод проектирования вектора-градиента зачастую оказывается все же более быстрым, поскольку в данном случае движение к оптимуму происходит вблизи от гиперповерхности ограничений и необходимость возврата на нее возникает значительно реже. [c.539]

    Прн использовании метода прямого поиска с возвратом, когда оптимум находится внутри допусти.мой области X и начальная точка спуска выбрана удачно (рис. 1Х-31, точка нарушений [c.541]

    Существует и другой вариант определения момента окончания поиска. После каждой серии спуска с заданным числом шагов запоминается значение функции Число шагов в серии выбирается таким, чтобы при выполнении серий на начальных этапах поиска происходило заметное изменение значения целевой функции Если последующая серия шагов дает меньшее (или большее в зависимости от вида экстремума) значение функции 5 , то поиск продолжается. Если же при выполнении следующей серии меньшее (большее) значение функции 5 не находится, то поиск прекращается и полученное значение рассматривается как искомый оптимум. [c.362]


    Метод покоординатного спуска (метод Гаусса-Зейделя) относится к методам многомерного поиска нулевого порядка. Суть метода заключается в поочередном нахождении оптимума целевой функции для каждой независимой переменной при условии, что остальные переменные фиксированы. [c.403]

    Если, напротив, величина шага с самого начала спуска выбрана слишком большой, вблизи оптимума может возникнуть рыскание , так как при большой величине шага мала вероятность попадания в окрестность оптимума, в которой выполняется условие окончания поиска (IX, 38). Поэтому представляют интерес специальные приемы изменения величины шага в процессе поиска. [c.489]

    Для расчета оптимальных параметров использована совокупность поисковых математических методов нелинейного программирования [6]. Так как на регулируемые параметры наложены ограничения типа неравенств, то расчет оптимума произведен методом прямого поиска с возвратом. Внутренней процедурой поиска без ограничений выбран градиентный метод наискорейшего спуска. Для нахождения глобального экстремума проведены два дополнительных контрольных спуска. Алгоритм программы поиска приведен на рис. 2. По данному алгоритму составлена программа на алгоритмическом языке Алгол , реализованная на ЭВМ. М-220. Результаты поиска оптимального технологического режима даны в таблице. [c.141]

    В результате использования такой стратегии шаг спуска по осевому направлению будет уменьшаться в районе минимума целевой функции и по этому направлению и поиск минимума можно прекратить, когда величина шага h станет меньше заданной точности определения минимум.а в в осевом направлении. Затем отыскивается новое осевое направление, в котором функция изменяется наиболее сильно. Начальный шаг в новом направлении уже можно выбрать не как заданную долю диапазона изменения независимой переменной, а как заданную долю расстояния, пройденного вдоль предыдущего осевого направления. Это позволяет автоматически уменьшать начальный шаг по каждому следующему осевому направлению при приближении к оптимуму целевой функции, в районе которого спуск по каждой оси происходит на небольшое расстояние. [c.489]

    В начале решения задачи поиска оптимума с ограничейиями типа равенств (IX, 2а) возникает задача выбора начальной точки поиска, удовлетворяющей системе ограничений. Кроме того, в процессе поиска при выполнении некоторых шагов спуска ограничения (IX, 2а) могут быть нарушены и для выполнения следующего шага это нарушение нужно скорректировать. Обе задачи по существу эквивалентны задаче решения системы уравнений (IX, 2а). Однако они отличаются тем, что если при отыскании начальной точки поиска ее положение в я-мерном пространстве совершенно не определено и ограничено лишь неравенствами- [c.527]

    При использовании метода прямого поиска с возвратом, когда оптимум находится внутри допустимой области X и начальная точка спуска выбрана удачно (рис. IX-31, точка 0)), нарушений ограничений в процессе спуска может не быть вообще. Если же [c.540]

    На рис. IX-36 показаны границы применимости указанных методов в зависимости от размерности задачи и удаления от оптимума, измеряемом в данном случае в единицах шага спуска. Область, расположенная над кривой, является областью более высокой эффективности метода случайного поиска и, наоборот, область под кривой — областью более высокой эффективности градиентного метода. [c.544]

    Покоординатный спуск. Этот метод сводится к следующему. Выбираются координаты начальной точки поиска хщ и хгв, т. е. те значения Х1 и Х2, от которых мы начнем искать оптимум. Выбираются единичные приращения обоих факторов (шаги) Н и Н2, а также малые приращения факторов б1 и 82. Выбор всех этих величин определяется физическим смыслом задачи и той информацией о ней, которой мы располагаем заранее. [c.267]

    У нормальных аппаратов число возможных комбинаций конструктивных независимых параметров (типоразмеров) сравнительно невелико, поэтому при поиске минимума и используется метод перебора. Если среди переменных имеются технологические параметры (например, температура) и есть необходимость нахождения оптимума с малым шагом по температуре, рациональна комбинация метода сеток и метода спуска, причем метод спуска по одной переменной (температуре) применяется для каждой комбинации конструктивных параметров. [c.257]

    Направление шага спуска при нрпмспеннн этого метода выбирается без учета ограничений (IX,2а). В выбранном направлеиии делается один илн несколько шагов вплоть до иарушетпгя условия (IX,180), иосле чего производится спуск на поверхность ограничений по направлению ее нормали. Графическое изображение процесса поиска оптимума представлено на р11С. 1Х-28. [c.536]

    Следующим достаточно эффективным методом направленного поиска оптимума функции (со. Го, Ию,. . . , с, Т, к f, v , Р,. . .) является метод покоординатного спуска (метод Гаусса—Зейделя). Суть этого метода заключается в минимизации (максимизации) функции сначала по одному параметру, затем по второму и т. д. Основное преимущество перечисленных методов направленного поиска заключается в направленности поиска оптимума, что позволяет заметно снизить число вариаптов перебора по сравнению с перебором вариантов в методах слепого поиска. Среди недостатков методов направленного поиска следует выделить один — основной— возможность нахождения только локального оптимума или особой точки типа седловой. [c.362]

    Поисковые методы оптимизации [107—112] используют математическую модель, полученную экспериментально-статистическими методами. Модель описывает исследуемый объект в некоторой локальной области изменения переменных. Область оптимума в общем случае не совпадает с областью математического описания, поэтому целевая функция служит лишь для выработки стратегии поиска оптимума. К числу основных поисковых методов относят метод Гаусса — Зейделя, метод случайного поиска, метод симплексов, метод градиента, метод наиско-рейшего спуска (крутого восхождения). [c.175]

    Здесь нам предстоит лишь обсудить возможности применения этих методов для практического решения задач оптимизации теп-лообыенной аппаратуры. Все методы оптимизации, подобные методу спуска (называемые также методами направленного поиска оптимума), обладают одной общей особенностью. Эффективность их применения существенным образом зависит от геометрии поверхности, которую описывает функция ф(л ), а также от начального приближения. [c.308]

    В заключение остановимся на поиске оптимального варианта конструкции теплообменника. В рассматриваемой задаче варьируют два параметра dl и гзкв (в программе — переменные В1 и 02). Соответственно поиск оптимума ведут по двум переменным. Одним из простейших методов многомерной оптимизации является метод покоординатного спуска. Его идея заключается в последовательном применении одномерного поиска для [c.222]

    В практической работе большинство задач решается приближенными методами поиска оптимума. Наибольшее значение среди них имеют методы упорядоченного поиска с анализом промежуточных результатов (Гаусса-Зейделя, релаксаций, градиента, наискореМего. спуска). [c.12]

    Приведенный обзор подтверждает, что уровень разработанности методов поиска абсолютного экстремума в многоэкстремальных задачах позволяет ориентироваться на практическое использование только приближенных методов. Некоторая компенсация этого недостатка и получение достаточно точных для инженерных целей результатов возможны за счет увеличения знаний о свойствах решаемой задачи. В связи с этим при решении задач оптимизации параметров и профиля адсорбционных установок необходимо проводить всестороннее и неоднократное изучение характера изменения минимизируемой функции и функций ограничения. Для исследования области оптимальных решений разработан и реализован на ЭВМ подход, базирующийся на использовании метода двупараметрических сечений. В результате таких исследований получаем сведения о структуре допустимой области изменения параметров, о местах, подозреваемых на оптимум, и т. п. Все это позволяет достаточно обоснованно установить рациональную организацию процесса спуска, в частности [c.155]

    Шаг изменения независимых переменных варьируется по мере спуска от 0,5 до 0,1 мин. Осевому направлению с наибыстрёйшим убыванием соответствует наибольшая по модулю производная. По направлению убывания целевой функции производятся шаги до тех пор, пока не будет получено минимальное значение по выбранному осевому направлению. После этого вновь определяются производные по всем переменным за исключением той, по которой осуществлялся спуск, и снова находится осевое направление наибыстрейшего убывания функции, по которому производятся дальнейшие шаги. Поиск заканчивается после достижения точки, при движении из которой по любому осевому направлению дальнейшего убывания функции не происходит. В качестве признака оптимума используется условие [c.114]


Смотреть страницы где упоминается термин Поиск оптимума спуска: [c.529]    [c.196]    [c.300]    [c.362]    [c.530]    [c.152]    [c.493]    [c.136]    [c.109]   
Методы оптимизации в химической технологии издание 2 (1975) -- [ c.527 ]




ПОИСК





Смотрите так же термины и статьи:

Оптимум

Шаг поиска



© 2025 chem21.info Реклама на сайте