Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Покоординатный спуск

Рис. 3.3. Определение точки минимума функции 3( ) методом покоординатного спуска Рис. 3.3. <a href="/info/95363">Определение точки</a> <a href="/info/826283">минимума функции</a> 3( ) <a href="/info/1541730">методом покоординатного</a> спуска

Рис. 5.19. Фрагмент распечатки поиска оптимума методом покоординатного спуска Рис. 5.19. Фрагмент распечатки <a href="/info/41647">поиска оптимума методом</a> покоординатного спуска
Рис. 9.18, Использование метода покоординатного спуска для решения задачи оптимизации функции двух переменных Рис. 9.18, Использование <a href="/info/1541730">метода покоординатного спуска</a> для <a href="/info/768761">решения задачи оптимизации</a> функции <a href="/info/1696521">двух</a> переменных
    Обхций циклический метод покоординатного спуска для минимизации F ( 1,. ...... Жй) состоит в следующем. При заданном приближении (xi,....... xs) отыскивается значение = xi, при [c.137]

    Такая задача оптимизации решается с помощью методов нелинейного математического программирования. Очень часто методы определения экстремума нелинейной функции при наличии ограничений на оптимизируемые параметры делят по признаку организации процесса поиска на методы слепого поиска и методы направленного поиска. К методам слепого поиска относятся [30] метод сплошного перебора вариантов (метод прямого упорядочения вариантов по критерию эффективности) и метод статистических испытаний (метод Монте-Карло) [24]. К методам направленного поиска относятся градиентный метод, метод наискорейшего спуска, метод покоординатного спуска и другие. [c.360]

    При большом числе оптимизируемых параметров X иногда применяют модифицированный метод покоординатного спуска. В этом случае полное число параметров X разбивается на некоторое число групп. Вначале одним из рассмотренных методов оптимизируются параметры первой группы при фиксированных значениях параметров остальных групп. Далее осуществляется поиск оптимума по параметрам второй группы и т. д. Таким образом, отличие этого метода от простого покоординатного спу- [c.134]

    Согласно другой классификации, все методы нелинейного программирования можно разделить на методы локального поиска и методы нелокального (глобального) поиска. В процессе решения задачи одним из локальных методов значения оптимизируемых параметров непрерывно меняются в направлении минимизации (или максимизации) рассматриваемой функции. Тем самым эти методы гарантируют нахождение только локального оптимума. К группе локальных методов относятся методы градиентный, наискорейшего спуска, покоординатного спуска и др. Для методов глобального поиска характерно введение дискретности в процессе изменения оптимизируемых параметров, что способствует рассмотрению большей области изменения исследуемой функции и выявлению абсолютного оптимума среди локальных. К этой группе методов относятся метод случайного поиска, метод динамического программирования, а также сочетания для совместного использования ряда других методов. [c.122]


Рис. 25.5. График движения в пространстве факторов при оптимизации методом покоординатного спуска Рис. 25.5. <a href="/info/746795">График движения</a> в <a href="/info/512614">пространстве факторов</a> при <a href="/info/25844">оптимизации методом</a> покоординатного спуска
    Следующим достаточно эффективным методом направленного поиска является метод покоординатного спуска (метод Гаусса — Зейделя). Суть этого метода заключается в минимизации. многопараметрической функции 3 = 3 (дс ,. ....где индекс О обозначает принадлежность параметра к исходной точке спуска, сначала по одному параметру хи затем по второму дсг и т. д. до последнего параметра Хп. На первом этапе решения задачи фиксируются значения всех параметров, кроме первого, и определяется оптимальное значение этого параметра, т. е. ищется минимум функции 3 = 3(д ,, дс ф, х ф)- Найденное оптимальное значение первого параметра обозначим д . Далее ищется минимум функции 3 (дг ф, х , х° ,. .., дг ф) при изменении только второго параметра хг- При этом первый параметр Х1 фиксируется при найденном выше оптимальном значении, т. е. д , = д ф. Цикл оптимизации заканчивается после определения минимума функции 3 = 3(х ф, д ф,. .., ДС( 1)ф, х ) при изменении параметра Хп, что соответствует установлению его оптимального значения. Один цикл поиска при использовании метода покоординатного пуска, т. е. однократная раздельная оптимизация значений всех параметров X, как правило, не позволяет найти состояние, соответствующее минимуму функции 3(Х) Поэтому необходимо повторение указанного цикла. [c.133]

    Методы направленного поиска. Для оптимизации адсорбционных установок и их отдельных элементов с большим числом оптимизируемых параметров и варьируемых факторов могут быть применены методы направленного поиска оптимума градиентные, наискорейшего спуска, покоординатного спуска и др. Характерной чертой этих методов является использование в процессе решения задачи результатов каждого данного шага (иногда также и предыдущих шагов) поиска оптимальной точки для определения направления изменения оптимизируемых параметров на каждом следующем шаге. При этом значение минимизируемой функции систематически уменьшается. Тем самым вместо рассмотрения большого количества вариантов происходит направленный анализ относительно малого числа ва- [c.127]

    Как было показано [32, 33], при решении задачи нелинейного программирования с дискретными аргументами методом покоординатного спуска процесс может окончиться в точке, далекой от оптимума. Для того, чтобы это не случилось, предусматривается ряд мер. [c.365]

    Способы выбора длины шага при покоординатном спуске совпадают со способами, рассмотренными применительно к градиентному методу. Последовательность, в которой выбираются координатные оси, может быть различной. Обычно они берутся в фиксированном циклическом порядке (чаще всего просто поочередно). Иногда вначале определяется, какие из переменных X,, Х2, хз,. .., х оказывают большее влияние на изменение функции цели 3, в соответствии с чем и строится последовательность спуска по отдельным параметрам. Такое предварительное исследование и расстановка параметров в порядке их значимо сти безусловно повышают эффективность метода, улучшая его сходимость. Однако указанное предварительное исследование в свою очередь требует определенного усложнения алгоритма оптимизации и дополнительного времени счета на ЭВМ. [c.134]

    Метод покоординатного спуска [c.403]

    Имеющийся опыт применения метода покоординатного спуска показывает, что по условию сходимости он при малом числе переменных может дать лучшие результаты, чем градиентный метод. Однако при решении задач с большим числом переменных и сложной системой ограничений метод покоординатного спуска существенно уступает градиентному методу. [c.134]

    Первый способ. Задача 1а решается методом группового покоординатного спуска. В отличие от обычного метода покоординатного спуска, в котором оптимизация ведется последовательно по каждой переменной, в групповом методе покоординатного спуска оптимизация осуществляется последовательно по группам переменных. В качестве отдельных групп переменных в данном случае берутся переменные, относящиеся к отдельным блокам. При применении данного способа на /-ом шаге проводится оптимизация /-го блока на множестве 0 по соответствующему критерию  [c.243]

    Следует остановиться еще на одной модификации метода, покоординатного спуска — методе грубого поиска минимума, также нашедшем применение для решения задач большой размерности. Согласно этому методу, первоначально производится спуск по всем переменным поочередно. Далее выбирается несколько координат, по которым спуск наиболее эффективен. Последующий спуск осуществляется только по этим координатам (все остальные не меняются). Время от времени выбор этих ведущих координат повторяется заново. [c.135]


    Как было показано в [60], при решении задачи нелинейного программирования с дискретными аргументами методом покоординатного спуска процесс может окончиться в точке, далекой от оптимума. В разработанном алгоритме для преодоления этого недостатка предусмотрен ряд мер. Во-первых, после окончания процесса спуска осуществляется произвольная перестановка [c.148]

    Для преодоления неглубоких локальных минимумов может быть использована одна из модификаций градиентного метода — метод тяжелого шарика [61], в котором при определении координат очередной точки в процессе спуска кроме вектора текущей точки и градиента минимизируемой функции в ней учитываются также значения этих величин в одной или нескольких предшествующих точках. Аналогичный результат обеспечивает применение метода сглаживания . В этом методе выражение минимизируемой функции 3 сглаживается таким образом, чтобы процесс дальнейшего поиска минимума функции 3 одним из обычных методов оказался малочувствительным к неглубоким локальным минимумам. Отыскание абсолютного минимума возможно также путем применения несколько видоизмененного метода покоординатного спуска. Модернизация состоит в том, что спуск по каждой координате производится не до локального, а до абсолютного минимума. Заметим, что определение абсолютного минимума одномерной функции — задача разрешимая. [c.154]

    Методы детерминированного прямого поиска. Методы оптимизации этого класса позволяют определять направление поиска непосредственно по одному или нескольким значениям целевой функции. Самые простые алгоритмы этих методов — прямое обобщение алгоритмов одномерного поиска на многомерный случай. Например, в основе метода покоординатного спуска лежит последовательная минимизация целевой функции по каждой координатной оси с помощью одного из методов, изложенных в разд. У.3.1. [c.204]

    Третий способ [127, с. 95—102]. Решение задачи 1а проводится методом группового покоординатного спуска, в котором все оптимизирующие переменные делятся на две группы. К первой группе относятся все управления, а ко второй — все входные промежуточные переменные. Процедура оптимизации [c.243]

    Данный метод можно получить из первого способа, если специальным образом организовать покоординатный спуск. С указанной целью группу блочных переменных Vj нужно обновлять не сразу после оптимизации/-го блока, а только после оптимизации всех блоков. Если при этом одновременно с обновлением у, увеличивать штрафной коэффициент к, то тем самым будет построена описанная двухуровневая процедура. [c.244]

    Из точки (лгь Уо) выполняется движение вдоль оси у (л-] фиксировано) с заданным шагом. И так далее, приближаясь к оптимуму путем покоординатного спуска. [c.28]

    К числу экспериментальных методов относится большое число методов, которыми широко пользуются исследователи,— этот метод покоординатного спуска, метод крутого восхождения, симплекс-метод и др. Здесь критерий качества определяется непосредственно на объекте и не требуется создания математической модели. [c.148]

    Метод покоординатного спуска (метод Гаусса-Зейделя) относится к методам многомерного поиска нулевого порядка. Суть метода заключается в поочередном нахождении оптимума целевой функции для каждой независимой переменной при условии, что остальные переменные фиксированы. [c.403]

    Данное предложение предполагает решение задачи максимизации Р (х) в области Ж е= (Л , 5 ) (1 = 1, п) при ограничениях 6 (х) = = О методом покоординатного спуска при заданном приближении [c.80]

    При оптимизации параметров модели в качестве критерия оптимальности принято среднеквадратичное отклонение Оу прогнозируемой величины показателя текучести расплава от измерения у. Оптимальные значения параметров модели вычислялись итерационным методом покоординатного спуска [1, 5]. [c.176]

    Итак, мы исследовали довольно обширный класс методов минимизации, называемых обычно градиентными. Рассмотрим еще одну группу методов, называемую нря-мыми так как эти методы не требуют вычисления производных. К таким методам относятся покоординатный спуск [81i метод конфигураций [И], метод Розенброка [121j 122 Jj симплекс-метод [11 28j 92 115] и методы случайного поиска [66]. [c.221]

    Достоинство метода покоординатного спуска — простота реализации. Сходимость процесса зависит от вида целевой функции и от выбора стартовой точки. Недостаток — медленная сходимость процесса при неудачном выборе стартовой точки и возможность получить локальный экстремум. Последнее обстоятельство относится к большинству методов оптимизации. Поэтому рекомендуется выполнить решение задачи оптимизации несколько раз из разных стартовых точек. [c.404]

    Алгоритм покоординатного спуска (пошаговый) [c.403]

    Для поиска X = x, x i,. . x d применим следующий итерационный алгоритм, по существу основанный на методе покоординатного спуска Гаусса — Зейделя. [c.304]

    Следующим достаточно эффективным методом направленного поиска оптимума функции (со. Го, Ию,. . . , с, Т, к f, v , Р,. . .) является метод покоординатного спуска (метод Гаусса—Зейделя). Суть этого метода заключается в минимизации (максимизации) функции сначала по одному параметру, затем по второму и т. д. Основное преимущество перечисленных методов направленного поиска заключается в направленности поиска оптимума, что позволяет заметно снизить число вариаптов перебора по сравнению с перебором вариантов в методах слепого поиска. Среди недостатков методов направленного поиска следует выделить один — основной— возможность нахождения только локального оптимума или особой точки типа седловой. [c.362]

    Графическая интерпретация метода покоординатного спуска для простейшего случая минимизации функции двух переменных показана нгг рис. 3.3. Как следует из этого рисунка, число необходимых циклов зависит, в частности, от удачного выбора первого направления спуска. Так, если начать покоординатный спуск из точки Ао с изменением параметра х>, то достижение зоны оптимума может быть достигнуто за один неполный цикл (линия Л0Л5). Если же вначале будет варьироваться параметр Х2, то для попадания в зону оптимума потребуется осуществить три цикла (ломаная линия Л0Л1Л2Л3Л4). [c.134]

    Не останавливаясь на деталях, отметим, что проверка работоспособности алгоритма управления показателем текучести расплава полиэтилена выполнялась с помощью имитационного моделирования на ЭВМ ЕС-1022. На рис. 4.10 показана блок-схема связей основных программных модулей, используемых при испытании. В качестве имитационной модели объекта управления применена квазидпнамическая полиномиальная модель. Параметры модели определялись на основе средних значений переменных, которые определены на стадии статистического анализа экспериментальных данных, а также с применением оптимизационного метода покоординатного спуска. Имитация возмущений осуществлялась изменением параметров модели объекта управления. [c.189]

    В заключение остановимся на поиске оптимального варианта конструкции теплообменника. В рассматриваемой задаче варьируют два параметра dl и гзкв (в программе — переменные В1 и 02). Соответственно поиск оптимума ведут по двум переменным. Одним из простейших методов многомерной оптимизации является метод покоординатного спуска. Его идея заключается в последовательном применении одномерного поиска для [c.222]

    Для определения оптимальных параметров установки была использована программа упрощенного проектного расчета, включающая блок расчета целевой функции в виде приведенных затрат. При оптимизации был использован метод покоординатного спуска. Отбор псевдокумола от потенциала в первой колонне изменяли в соответствии с требованиями к разделению в пределах 80,1—99,9, а концентрацию легких в продуктовом псевдокумоле — в пределах 0,1—1,9% (масс.). [c.284]

    Нахождение шшимума У осуществлялось в два этапа.На первом этапе с помощью простого алгоритма определялось начальное приближение для искомых параглетров.Затем модифицированным методом покоординатного спуска,приспособленным специально для решения данной задачи,за несколько циклов находился минимум Т. Применение данного метода было обусловлено тем, что параметры,являющиеся координатами излома ломаной,аппроксимирующей (6), в силу выбранной вычислительной схемы решения системы(1)+(4) могли принимать лишь дискретные значения,кратные шагу интегрирования. [c.213]

    Для минимизации функции Ф (ai, 2, , а,п) используются в основном поисковые методы оптимизации (метод сканирования, метод покоординатного спуска, метод градиента, метод наиско-рейшего спуска, метод Уилсона — Бокса и др., см. гл. X и [32]). [c.372]

    В третьем Олоке происходит окончательное формирование связывающей сети — определяются оптимальные для данной структуры дерева и для данного закона вычисления стоимостей расположения дополнительных точек и вычисляется значение функционала (>5,-). Это осуществляется процедурой циклического группового покоординатного спуска (рис. У1-49), причем если стоимости зависят от положения участка V, то, как указывалось выше, на каждом шаге происходит пересчет стоимостей. [c.148]


Библиография для Покоординатный спуск: [c.193]   
Смотреть страницы где упоминается термин Покоординатный спуск: [c.122]    [c.135]    [c.154]    [c.362]    [c.84]    [c.104]    [c.106]    [c.94]    [c.416]   
Введение в моделирование химико технологических процессов Издание 2 (1982) -- [ c.267 , c.268 ]




ПОИСК







© 2025 chem21.info Реклама на сайте