Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Гаусса оптимизация

    Пожалуй, самым очевидным методом оптимизации является метод Гаусса — Зейделя. Сущность его сводится к следующему. [c.28]

    Непосредств. эксперимент на объекте (без построения модели). Стратегия проведения опытов определяется выбранным методом оптимизации. При этом значение целевой ф-ции вычисляют не по модели, а находят непосредственно из опыта, выполненного в соответствующих условиях. Наиб, часто для поиска наилучшего значения целевой ф-ции используют последовательный симплексный метод, метод Гаусса-Зейделя и т.п. [c.560]


    Следующим достаточно эффективным методом направленного поиска является метод покоординатного спуска (метод Гаусса — Зейделя). Суть этого метода заключается в минимизации. многопараметрической функции 3 = 3 (дс ,. ....где индекс О обозначает принадлежность параметра к исходной точке спуска, сначала по одному параметру хи затем по второму дсг и т. д. до последнего параметра Хп. На первом этапе решения задачи фиксируются значения всех параметров, кроме первого, и определяется оптимальное значение этого параметра, т. е. ищется минимум функции 3 = 3(д ,, дс ф, х ф)- Найденное оптимальное значение первого параметра обозначим д . Далее ищется минимум функции 3 (дг ф, х , х° ,. .., дг ф) при изменении только второго параметра хг- При этом первый параметр Х1 фиксируется при найденном выше оптимальном значении, т. е. д , = д ф. Цикл оптимизации заканчивается после определения минимума функции 3 = 3(х ф, д ф,. .., ДС( 1)ф, х ) при изменении параметра Хп, что соответствует установлению его оптимального значения. Один цикл поиска при использовании метода покоординатного пуска, т. е. однократная раздельная оптимизация значений всех параметров X, как правило, не позволяет найти состояние, соответствующее минимуму функции 3(Х) Поэтому необходимо повторение указанного цикла. [c.133]

    Метод Гаусса — Зейделя хорош лишь для оптимизации простых функций. В более сложных ситуациях (рис. 1-9) он не работает. [c.29]

    В настоящей главе рассмотрен ряд методов поиска экстремума целевой функции, использованных в различных алгоритмах оптимизации теплообменных аппаратов метод случайного поиска, методы сеток и спуска, метод Гаусса — Зейделя, метод независимого спуска с ранжированием переменных (предложен автором). Разработаны структуры, реализующие эти методы. Проведено сопоставление методов по их алгоритмической сложности. Показаны преимущества предложенного автором метода при оптимизации сложных целевых функций многих пере менных. Приведенные в главе структуры поиска экстремума являются обязательным элементом любых алгоритмов оптимизации теплообменников (см. главу 3). Они служат исходными данными при синтезе систем оптимизации промышленного теплообменного оборудования. [c.280]

    Программа позволяет генерировать системы уравнений и допускает использование различных подпрограмм. Она состоит из трех основных блоков, которые используются последовательно один за другим. Первый блок формирует уравнения из структуры ХТС в форме / (д ) = 0. Второй блок определяет оптимальную совокупность выходных переменных с учетом одного из критериев минимального числа итерируемых переменных или критерия чувствительности. Третий блок предназначен для решения систем уравнений (в том числе и уравнений для элементов ХТС с распределенными параметрами) методами простой итерации с модификациями или методом Гаусса— Ньютона. В этом же блоке имеются подпрограммы для оптимизации ХТС и расчета ХТС с учетом неопределенности некоторых параметров математических описаний ХТС. [c.108]


    Задача оптимизации в этом случае формулируется следующим образом цифровая вычислительная машина должна при любой комбинации входных неуправляемых переменных и коэффициентов а найти такие значения управляющих переменных щ, при которых величина 2 приняла бы экстремальное значение. При этом должны выполняться ограничения (4). Нахождение оптимальных значений управляющих переменных щ обычно проводится при помощи методов спуска метода Гаусса — Зей-деля метода градиента, или метода наибыстрейшего спуска и др. [13—15]. Сущность всех этих методов состоит в том, что сначала в пространстве переменных щ выбирается точка, координаты которой удовлетворяют условиям (4), а затем по какому-либо закону отыскивается новая точка, координаты которой удовлетворяют условиям (4) и в которой функция г принимает большее значение (в предположении, что ищется максимум функции г). После этого процесс повторяется заново, пока не будет достигнут максимум. [c.27]

    Пример 3.2. Решение задач оптимизации модели на основе уравнения регрессии методами классического аналитического поиска экстремума и Гаусса-Зейделя [c.76]

    Метод Гаусса — Зейделя. При оптимизации методом Гаусса — Зейделя поиск оптимума исследуемого процесса осуществляется поочередным варьированием каждого входного параметра до достижения частного оптимума выходного параметра. Вначале достигается оптимум по направлению одной из координатных осей при фиксированных значениях входных параметров по другим координатным осям. Затем, зафиксировав найденное значение выходного параметра, переходят к варьированию другого входного параметра, где вновь достигается частное значение оптимума и т. д. На рис. 71 изображены линии равного выхода целевой функции при двух входных параметрах (х и х ) и общие представления о действии метода Гаусса — Зейделя. [c.250]

    В большинство общепринятых алгоритмов метода наименьших квадратов для расчета констант устойчивости входит уравнение (5.9) алгоритмы основаны на методах Ньютона — Гаусса — Рафсона. Эти методы подразделяются на две группы в зависимости от способа, которым обеспечивается уменьшение суммы квадратов 5 на каждой итерации. В первой группе масштабная корректировка или оптимизация поправочного вектора выполняется таким образом, чтобы обеспечить максимальное уменьшение S на каждой итерации. Это безусловно обеспечивает сходимость. [c.91]

    Минимизация функции оптимизации проводилась методом Зейделя-Гаусса [9] совместным решением уравнений (1—3) с шагом поиска по варьируемым факторам, равным 0,1. [c.40]

    Новый коэффициент оптимизации должен быть больше нуля. Можно также для каждого значения 13 в данной точке использовать свой собственный коэффициент оптимизации FG(I3). Этот метод известен в литературе как метод Гаусса — Ньютона. Если новый коэффициент оптимизации равен нулю, то метод Гаусса — Ньютона превращается в наш старый метод Ньютона. Хотя метод Гаусса — Ньютона надежнее, сходимость достигается обычно медленнее. [c.292]

    В. Конечные разложения Лаггера и оптимизация методом Гаусса [c.385]

    В табл. 26 приведены результаты сравнения двух способов вычисления производных целевой функции [критерий (IV, 147) ]. Использовались следующие три метода безусловной оптимизации без-градиентный Гаусса—Зейделя, наиекорейшего спуска и ОРР. Применение метода сопряженного процесса позволяет сократить число вычислений целевой функции приблизительно в четыре раза. Для учета ограничений использовался метод штрафов, при котором проводилась безусловная минимизация функции (IV, 47) для некоторой последовательности значений параметров а, где г —номер итерации метода штрафов (г = О, 1,2,. ..) а = да  [c.162]

    Можно сразу же возразить, что для такого выбора параметров а и я предварительно должны быть известными три первых момента Х1, хг, Хз. Но это не представляет серьезного препятствия, поскольку уже при небольшом опыте нетрудно подобрать соответствующие начальные приближения а и , рассчитать с их помощью три первых момента и затем воспользоваться полученными приближенными значениями моментов для более точного выбора величин а и 5 с помощью уравнений (14-56). Поскольку величины з ограничиваются приведенными в таблицах дискретными значениями, первое из уравнений (14-56) может выполняться лишь приближенно, но второе уравнение можно получить точно, коль скоро величина уже подобрана. Можно рекомендовать для первой итерации значение 5 = 1 и любое значение для величины а, которое не выводит выбранные точки за пределы экспериментальной области исследованных молекулярных весов. Если читатель проследит за всеми стадиями численного расчета в приведенном в разд. III,Д примере, то он более отчетливо уловит механизм процесса итераций, чем при ознакомлении с приведенным здесь описанием. Представление функции конечным разложением Лаггера, оптимизацию этого разложения по методу интегрирования Гаусса и выбор оптимальных значений пересчетных параметров можно провести до конца и получить оценки для пяти моментов экспериментальной кривой распределепия Л1,. . ., цз- Однако нулевой момент [c.387]


    Среди направленных методов поиска оптимальной области наиболее старым является метод Гаусса — Зейделя, при котором все факторы, кроме одного, поочередно фиксируются. Двигаясь параллельно одной из осей факторного пространства, технолог находит наилучшее для рассматриваемого разреза поверхности отклика значение параметра оптимизации, затем в этой наилучшей точке он поворачивается и двигается параллельно следующей оси факторного пространства. Последовательное прохождение всех осей факторного пространства составляет первый цикл исследования. Процедуру повторяют до получения оптимума. Распространенным недостатком проведения эксперимента по этому методу является прекращение работы после выполнения первого цикла. [c.110]

    Ний, перпендикулярных оси параметра оптимизации, называемых обычно двумерными сечениями, рассмотрены в работах [57, 58]. Для выбора оптимальных режимов можно также использовать методы поиска оптимальной области, заменив эксперимент вычислением значений параметра оптимизации по уравнению регрессии. При ручном счете удобно применять метод Гаусса — Зейделя, метод симплексов, метод Градиента при использовании ЭВМ — метод случайного поиска и др. В главе 6 приведен пример применения метода симплексов для поиска оптимальных режимов выщелачивания германия из зол слоевого сжигания угля. [c.121]

    Таким образом, если мы выбираем в качестве оптимизируюпщх переменных тип экстрагента (s = Л или В) и его массовый расход Щ, то для определения максимального значения целевой функции Р и численных значений базисных ИП нужно одновременно решать два уравнения математической модели подсистемы. По методу Гаусса, число вычислительных операций при решении двух уравнений математической модели v = п = 8. Величина v определяет трудоемкость вычислительных процедур решения задачи оптимизации. [c.71]

    Поисковые методы оптимизации [107—112] используют математическую модель, полученную экспериментально-статистическими методами. Модель описывает исследуемый объект в некоторой локальной области изменения переменных. Область оптимума в общем случае не совпадает с областью математического описания, поэтому целевая функция служит лишь для выработки стратегии поиска оптимума. К числу основных поисковых методов относят метод Гаусса — Зейделя, метод случайного поиска, метод симплексов, метод градиента, метод наиско-рейшего спуска (крутого восхождения). [c.175]

    Программа оптимизации по нескольким параметрам. Организуется перебор вариантов с изменением нескольких варьируемых параметров по градиенттшму методу или по методу Гаусса — Зейделя с целью минимизировать целевую функцию, зависящую от результатов расчета по методу конечных элементов. [c.242]

    Данный алгоритм реализует метод Гаусса — Зейделя нелинейного программирования с ограничениями типа неравенств на параметры оптимизации. Размерность оптимизируемого вектора Ут равна 2 для аппаратов типа А Ут = (Сх, ) или 1 для ап паратов типа В и С Ут = ((3х). П > решении аадачи статической оптимизации в качестве критерия оптимальности принимаются приведенные годовые затраты (Я), а при решении задачи приближения — разность между значениями длины трубчатки конденсатора, соответствующей набору Ук, УС, Ф, задаваемым технологическим параметрам X, текущему значению вектора Ут и значением нормализованной длины трубчатки,, к которому осуществляется приближение варьированием координат вектора Ут. Таким образом, в данной постановке алгоритм должен минимизировать выбранные критерии оптимизации. [c.136]

    Пример 3 2 Решение задач оптимизации модели на основе уравнения регрессии методами классического аналитического поиска экстремума и Гаусса-Зейделя 76 Пример 3. 3 Расчет оптимальных размеров слоя катализатора в реакторе термокаталитической очистки отходящих газов от пргшесей углеводородов методом неопределенных множителей Лагранжа 79 Пример 3.4. Выбор рациональной схемы взаимного расположения аппаратов на базе [c.162]

    Задача оптимизации действующей технологической системы деструктивной очистки высококонцентрированных стоков Вырицкой фабрики решена методом Гаусса — Зейделя [50, 92], т.е. покоординатного спуска . Найденные оптимальные статистические технологические параметры управления реализуются в процессе эксплуатации очистных сооружений [42]. Высокая и [c.77]

    В случае (СР-. СНШ и ( -). проведен неэмпирический расчет на базисе ST0-3G используя программу Гаусси-ан 82 с полной оптимизацией геометрии методом градиентов. [c.48]


Смотреть страницы где упоминается термин Гаусса оптимизация: [c.108]    [c.404]   
Фракционирование полимеров (1971) -- [ c.385 , c.386 ]




ПОИСК





Смотрите так же термины и статьи:

Гаусса



© 2025 chem21.info Реклама на сайте