Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Минимизация функции

Рис. У1-10. Минимизация функции Лагранжа для произвольного множителя А.1 Рис. У1-10. <a href="/info/26299">Минимизация функции</a> Лагранжа для произвольного множителя А.1

    Су, Сд минимизацией функции Р и те же значения коэффициентов найдены для к выборок, каждая из которых содержит г/к опытов, то точность описания можно характеризовать дисперсией величин Су,. . ., с д. [c.141]

    Проверку условий существования соответствующего значения R можно рассматривать как задачу минимизации функции Р = [c.108]

    В случае использования метода штрафных функций задачу минимизации функции 3(Х) при наличии ограничений в форме нелинейных неравенств можно заменить задачей нахождения минимума более сложной функции, но лишенной ограничений в виде неравенств. Это новая минимизируемая функция имеет вид [c.142]

    Минимизация функции (10—78) по каждому из коэффициентов Су,г путем приравнивания нулю соответствующих частных производных приводит к системе уравнений [c.280]

    Важным этапом в решении задач обработки экспериментальных данных является выбор метода отыскания наилучших значений параметров искомой зависимости. По существу задача определения наилучших значений параметров зависимости, минимизирующих определенную оценку, является задачей минимизации функции многих переменных. В тех случаях, когда искомая зависимость ищется в форме нелинейной функции, решение этой задачи может представить определенные трудности, поскольку приходится применять общие методы решения задач отыскания минимума функции лшогих переменных — методы нелинейного программирования [1]. Лишь когда искомая зависимость Р (х , а ,..., а ) является линейной функцией параметров aj (/ = 1, 2,..., з), например, при отыскании аппроксимирующего полинома, наилучшие значения параметров а ( = 1, 2,..., х), в особенности при использовании критерия оценки среднеквадратичного отклонения (11—8), могут быть найдены относительно просто, для чего используется метод, называемый методом наименьших квадратов (см, стр. 319). [c.299]

    Кроме минимизации функции (21) для решения обратных задач возможен подход, связанный с минимизацией взвешенной суммы квадратов разностей вычисленных и измеренных значений ЭДС или логарифмов активностей. Например, можно минимизировать функцию [c.45]

    В работе [21 предлагалось определять параметры моделей не по МНК, а методом максимума правдоподобия (ММП), используя его вместо нормального распределения Стьюдента [31. В этом случае параметры определяются минимизацией функции [c.111]

    В основе предлагаемого метода лежит принцип наименьших квадратов. Искомые параметры определяются путем минимизации функции F  [c.120]


    На рис. 3.1 показана графическая интерпретация процесса градиентного спуска для простейшего случая минимизации функции двух переменных, т. е. 3 = 3 Х, Х2) В исходной точке Ао градиент дЗ/дХ перпендикулярен к линии равного значе- ния функции 3 = Зб. Поиск экстремума функции 3 в случае ее минимизации осуществляется в направлении антиградиента. Для этого в каждой точке поиска А определяется вектор-градиент и делается шаг по направлению антиградиента. Поправка к вектору исходного приближения Х° = (х , х°, л ) определяется [c.128]

    Методы учета ограничений. До сих пор рассматривалось применение методов направленного и случайного поиска для простейшего случая оптимизации нелинейной функции 3(Х) при отсутствии каких-либо ограничений. Более общим случаем является задача минимизации функции многих переменных при наличии ограничений в виде равенств. Эта задача может быть сформулирована следующим образом. [c.136]

    Определенные возможности для движения по границам допустимой области представляет метод проектирования градиента. Рассмотрим основы этого метода на простейшем примере минимизации функции 3(Х) при наличии одного ограничения в виде неравенства на технологическую характеристику 1 (рис. 3.6).  [c.139]

    Задачу решения системы (III.1) можно]]заменить задачей минимизации функции Ф(лг) в п-мерном пространстве. При этом функция Ф (х) связывается с функциями fi (х) исходной системы соотношением  [c.72]

    Метод Гаусса — Ньютона. Воспользуемся методом Ньютона для минимизации функции F (х). Как показано в Приложении Б, для нахождения последующего приближения к минимуму на каждой итерации необходимо решить уравнение (Б.2). Заменим в этом уравнении Гессиан его аппроксимацией (111,14), а вместо градиента F (а ) подставим его значение (111,13). Тогда получим  [c.134]

    Следует отметить, что максимальное значение целевой функции соответствует одной из вершин многоугольника, ограничивающего область допустимых решений. Если бы задача состояла в минимизации функции 7, то, очевидно, ее решением была бы точка, соответствующая началу координат. [c.182]

    Начинают с решения (V.19) и находят точку, где все дополнительные переменные равны нулю. Это можно сделать путем минимизации функции [c.188]

    При минимизации функции Ф необходимо выполнять ограничения uj с Аг/ < bj, где bj —допустимые верхняя и нижняя границы изменения параметра У . [c.339]

    Рассмотрим вначале случай минимизации квадратичных функций. При построении алгоритмов минимизации функций многих переменных (ф. м. п.) необходимо обеспечить выполнение либо соотношений (11,21)—(11,23), либо соотношений (11,24)-(П,26), (11,27)-(П,29). [c.40]

    Результаты расчета оптимальных режимов. Задача нахождения максимума у (Т) сводилась к минимизации функции— у " Т). [c.51]

    Во всех используемых далее квадратичных алгоритмах минимизации функций многих переменных принят следующий (относительный) критерий окончания решения порядок отношения норм градиентов в конечной и начальной точках меньше некоторого заданного (отрицательного) числа е. Если же в процессе решения задачи требуемой точности достигнуть не удается, то окончание работы алгоритма минимизации определяется наперед заданной близостью точек минимума, найденных при линейном спуске вдоль каждого из двух последовательных направлений движения. [c.83]

    Перечень тестовых функций минимизации приведен в Приложении Г. Среди выбранных тестовых примеров содержатся менее трудные (№ 1, 7, 13, 16, 18) и более трудные (№ 12, 14, 15, 17, 19) для минимизации функции. Результаты решения тестовых задач с применением различных (квадратичных) алгоритмов минимизации даны в табл. 8—18 (с. 84 сл.). Параметр е в критерии окончания работы алгоритма принят равным —7 всюду, где это [c.83]

    Вместе с тем опыт показывает (см., например, работу [89]), что для минимизации функции F (111,8) часто наиболее эффективными оказываются алгоритмы, непосредственно использующие тот факт, что минимизируемая функция является суммой квадратов правых частей системы (111,6). В связи с этим ниже приведены различные алгоритмы решения системы >(1П,6) при условии, что в качестве критерия F выбирается критерий (III,8). [c.133]

    Здесь рассмотрены три группы методов решения системы (111,6). К первой группе относятся методы первого порядка минимизации функции F, ко второй — методы минимизации функции F нулевого порядка и к третьей — методы непосредственного решения системы (111,6). [c.133]

    Минимизация функций при наличии линейных ограничений [c.190]

    Эта задача распадается на N блочных задач минимизации функций Ф ) -f на соответствующих множествах o /.  [c.238]

    На третьем уровне проводится минимизация функции % (с)  [c.238]

    Тогда па нижнем уровне выполняется минимизация функции v. которая распадается в сумму блочных задач  [c.244]

    При таком подходе [И, с. 304—306] на первом уровне при фиксированных а минимизация функции F проводится по непрерывным переменным и. Ясно, что задача оптимизации F при фиксированных а соответствует задаче оптимизации некоторой схемы фиксированной структуры. Отсюда на первом уровне могут использоваться хорошо разработанные методы оптимизации схем фиксированной структуры. [c.247]


    Аналогичные трудности возникают и при любых других методах поиска для минимизации функции с оврагами . Поэтому ири решении оптимальных задач, целевые функции которых имеют особенности типа оврагов , разработаны специальные методы поиска. Один из таких м[етодов, называемый методом шагов по аоврагу и описьшается нйже. [c.519]

    Рассмотренные методы минимизации функции многих переменных имеют универсальный характер. Однако для минимизации функций вида (3.137) наиболее эффективны методы, учитывающие нх специфику. Так, можно получить разумное приближение к матрице вторых производных в цену вычисления лишь градиента. Рассмотрим такой подход на примере минимизации суммы квадратов. Пусть требуется минимизовать [c.222]

    Точность математического описания можно оценить и другилг методом. Если для широкой области начальных условий проведено к опытов, причем для г опытов определены коэффициенты с ,. .., минимизацией функции и те же значения коэффициентов найдены для т выборок, каждая из которых содержит к г опытов, то точность описания можно характеризовать дисперсией величин с ,. .., с . [c.154]

    Коэффициенты Рс ц Е подбирали для минимизации функции F, лли F., с этой целью использовали изменение иервоначально выбранных оценок ш Е в направлении частных градиентов F по feo и Е (см. главу VI). [c.360]

    В математическое описание входят 10 коэффициентов с и с, кот ые должны быть определены по экспериментальным данным. Для подбора коэффициентов используем минимизацию функции Р расхождевшя результатов расчета (р) и эксперимента (э), записанную в соответствии с уравнением У-8) в виде  [c.143]

    Изло/кеппый метод оценки обусловленности системы предполагает линейность либо возможность легкой линеаризации модели. Если же линеаризация приводит к большим ошибкам, то предпочтительнее для оценки параметров использовать поисковые методы минимизации функции нескольких переменных. При этом в процессе поиска получается обширная информация о поверхности критерия оценки, которую можно использовать для непосредственного вычисления матриц корреляции параметров. Так, в работе [12] предлагается поисковый метод, основанный на вычислении коэффициентов регрессии оцениваемых параметров. Покажем, как можно использовать матрицу коэффициентов регрессии для нахождения корреляционной и ковариационной матриц. Из матрицы коэффициентов регрессии образуем матрицу вида [c.448]

    Величины А г распределены по нормальному закону. В этом случае при L = I оценки с наилучши.ми статистическими свойствами получаются при минимизации функции [c.56]

    Графическая интерпретация метода покоординатного спуска для простейшего случая минимизации функции двух переменных показана нгг рис. 3.3. Как следует из этого рисунка, число необходимых циклов зависит, в частности, от удачного выбора первого направления спуска. Так, если начать покоординатный спуск из точки Ао с изменением параметра х>, то достижение зоны оптимума может быть достигнуто за один неполный цикл (линия Л0Л5). Если же вначале будет варьироваться параметр Х2, то для попадания в зону оптимума потребуется осуществить три цикла (ломаная линия Л0Л1Л2Л3Л4). [c.134]

    В случае численного определения значения д31дХ алгоритм решения рассматриваемой задачи имеет иной Вид. Здесь для каждой расчетной точки процесса минимизации функции цели 3 = 3[Х, У(Х)] прежде всего решается система балансовых уравнений (3.1.21), в результате чего получаем точные значения зависимых параметров У(Х). Тогда 3[Х, У(Х)] = 3(Х) в каждой точке градиентного спуска и для определения значения д31дХ можно использовать приемы, приведенные выше для случая минимизации функции 3 Х) без каких-либо ограничений. [c.137]

    Для решения задач минимизации функции многих переменных при наличии ограничений в виде нелинейных неравенств можно также применить весьма простой в части алгоритма и программы метод штрафов. Суть его заключается в том, что в случае нарушения указанных ограничений к минимизируемой функции прибавляется некоторая положительная величина, подсчитанная ка функция нарушенных ограничений. Тем самым такая система штрафов воздействует на направление изменения тех независимых переменных, которые привели к нарушению системы нелинейных неравенств. При выборе штрафной функции необходимо соблюдэть следующие условия 1) она должна быстро возрастать по мере нарушения ограничений в виде неравенства 2) она должна быть вогнутой, так как иначе могут появиться посторонние решения (локальные минимумы за пределами допустимой области изменения параметров). [c.141]

    Минимизация функции цели производилась с помощью метода Пауэлла [79]. При этом на каждом шаге решалась система нелинейных уравнений (V111.29). Ниже приведены результаты оптимизации ХТС при V = 12 759. [c.340]

    Авторы выражают благодарность сотрудникам НИФХИ им. Л. Я. Карпова и других институтов, совместно с которыми были написаны следующие разделы Оптимизация процесса получения окиси этилена (с Ю- М. Волиным), Определение вида матрицы И , Минимизация функций при наличии линейных ограничений (с Г. Н- Сальниковой), Моделирование и оптимизация производства стирола (с В. А. Приходаем) Синтез реакторной схемы. Первый пример (с А- Л. Шевченко), глава I (с М- Ю- Волиным) глава VI (с Л. М- Брусиловским). [c.8]

    Последовательная минимизация критериев [108. Вначале приводится минимизация функции F и, р), причем пусть щ — точка минимума. После этого ищется минимум второго критерия dFjdp в некоторой окрестности точки задаваемой следующим неравенством  [c.203]

    На верхнем подуровне проводится минимизация функции F х) m.mF х). Этот подход близок к общему методу, предлага- [c.243]


Библиография для Минимизация функции: [c.34]   
Смотреть страницы где упоминается термин Минимизация функции: [c.533]    [c.203]    [c.41]    [c.102]    [c.186]    [c.91]    [c.148]   
Равновесия в растворах (1983) -- [ c.90 ]




ПОИСК







© 2025 chem21.info Реклама на сайте