Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Минимизации методы

    При постановке любой задачи оптимизации часть переменных (I, 61) (в частном случае все) принимаются в качестве поисковых (независимых), а часть — в качестве зависимых. Поисковыми, или независимыми, называются переменные, в пространстве которых ведется поиск минимального значения критерия (I, 15). Зависимыми переменными являются те из переменных (I, 61), которые на каждом шаге процедуры оптимизации, т. е. при каждом вычислении критерия (1, 15), определяются с помощью систем (1, 53), (I, 54), (I, 56) или их частей для заданных значений независимых переменных. При этом та часть системы (I, 53), (I, 54), (I, 56), которая используется для определения зависимых переменных, будет автоматически удовлетворяться на каждом шаге оптимизации, уравнения же оставшейся части системы (I, 53), (I, 54), (I, 56) необходимо считать ограничениями типа равенств и учитывать с помощью методов условной минимизации. Метод решения задачи оптимизации ХТС существенно зависит от того, какие из переменных (I, 61) будут взяты в качестве поисковых, а какие — в качестве зависимых, какие из уравнений (I, 53), (I, 54), (I, 56), (I, 58) будут удовлетворяться автоматически на каждом шаге оптимизации, а какие необходимо считать ограничениями типа равенств в соответствующей задаче на условный экстремум. [c.21]


    До сих пор мы не останавливались на вопросе вычисления производных 5//39, полагая, что они могут быть вычислены точно. Однако при приближенном (численном) интегрировании исходной системы дифференциальных уравнений (3.141) вычисление производных — наиболее тонкое место во всей обратной задаче. Методы вы числения производных можно разделить на две группы. Первая группа — методы универсальные, не связанные со схемой интегрирования. Сюда относится метод конечных разностей (см. разд. 3.5), точность которого не всегда достаточна для успешного проведения минимизации. В работе [108] предлагается для оценки производных использовать план первого порядка в пространстве параметров около точки 0 . Применение этого метода требует, так же как и метод конечных разностей, (р—1) вычисления функции по крайне мере. Пауэлл [118, 119] предложил численный метод оценки градиента, в котором при каждой итерации переоцениваются компоненты лишь в направлении, задаваемом уравнением.(3.171) или G GS = —G h. Здесь 0 — решение уравнения, фиксирующее стационарную точку системы (3.171) h — вектор [t —/ (0 )], i = 1,.... .., N G — вектор 5/(0 )/39 , j = i,. . R. Симплекс-метод [12, 92, 115] не обладает быстрой сходимостью [117, 124], тем не менее он с успехом используется для оценки производных. [c.224]

    Существующие методы для решения нелинейной системы уравнений (1П.1) можно разделить на четыре основные группы итерационные методы методы минимизации методы дифференцирования по параметру и методы случайного поиска. [c.67]

    Отсюда для того, чтобы решение реальных задач оптимизации ХТС могло быть выполнено в приемлемые сроки, нужно использовать самые эффективные методы оптимизации. В Приложении описаны один из наиболее эффективных методов минимизации — метод Ньютона и некоторые его модификации. Итерации в методе Ньютона строятся на основе применения квадратичной аппроксимации минимизируемой функции. Основной недостаток метода Ньютона — это необходимость использования вторых производных минимизируемой функции, получение которых в реальных задачах чрезвычайно затруднено. [c.33]

    Этого нельзя сказать относительно других методов минимизации (методы спуска , принципа максимума). Видимо, уже при Ъ м. д. п. в том виде, в каком он здесь описан, значительно менее эффективен, чем методы спуска или принцип максимума. [c.278]

    В работе И предложено находить азеотропные точки в многокомпонентных системах с помощью минимизации методом сканирования функции [c.46]


    Для нелинейных уравнений трудно указать какие-либо эффективные методы поиска значения х - - А/), за исключением самого обш,его, который заключается в решении задачи минимизации рассогласования рассчитанного и заданного значений х (/< >). На практике поиск значения х Ь А/), кроме того, осложняется еще неустойчивостью решения, приводящей к значительным колебаниям рассчитанного значения х (/< ) при относительно малых изменениях величины X + At). [c.220]

    Очевидно, задача состоит в. нахождении минимума V при фиксированных значениях N и г па выходе из реактора. Для этого необходимо минимизировать интеграл, что достигается методом вариационного исчисления. Только в простейшем случае, рассмотренном в предыдущем параграфе, минимизация интеграла может быть сведена к максимизации г в зависимости от температуры. В более сложных реакциях, когда г является функцией как состава, так и температуры, необходимо воспользоваться более сложным вариационным методом. [c.150]

    Метод наименьших квадратов (МНК). Обычный вариант многомерного взвешенного МНК сводится к оты-сканию минимума суммы квадратов, т. е. минимизации ковариационной функции вида [c.198]

    Явная разностная схема при неустойчивости матрицы Гесса. В случае неположительно определенной или вырожденной квадратичной формы применение метода Ньютона — Рафсона невозможно. Для того чтобы это оказалось возможным в качестве М обычно используют такую матрицу, которая 1) являясь положительно определенной, обеспечивает уменьшение на траектории системы (3.161) 2) будучи неким аналогом матрицы обеспечивает хорошую сходимость минимизации. Рекомендуется [93, 101] опреде-р [c.216]

    Явная разностная схема и градиентный метод минимизации. Применение одношаговой явной разностной схемы к системе (3.158) в случае М = Е приводит к следующей системе уравнений 0=0 — иВ, где и — параметр, определяющий тра- [c.214]

    На практике при решении задачи минимизации шаг й выбирают так, чтобы на траектории 0(и) происходило уменьшение функции Ф(0). Однако и это пе приводит к суш,ественному уменьшению числа шагов. Сходимость такого метода определяется уравнением [12] [c.215]

    Для плохо обусловленной матрицы 5 1 величина е близка к единице и сходимость может быть чрезвычайно плохой. Однако если не очень велико, то подход к методу минимизации с точки зрения решения градиентных систем оказывается более эффективным, так как позволяет перейти от довольно неясной проблемы выбора шага А к более ясной проблеме выбора границы точности решения системы дифференциальных уравнений [27]. [c.215]

    Явная разностная схема и методы минимизации, обладаюш,ие сходимостью второго порядка. Можно добиться суш ественного улучшения сходимости явной схемы путем выбора матрицы М. При М = А применение явной разностной схемы к (3.158) опять приводит к уравнению типа (3.161) в виде 0=0 — кМВ. Для случая, когда матрица Гесса А положительно определена, выбор М = = А позволяет получить ограничения на шаг [c.215]

    Другой подход к задаче минимизации основан на преобразовании матрицы в процессе ее обращения. Предлагается [114] обращать матрицу А методом Гаусса со следующими изменениями  [c.216]

    Второй подход более удобен, так как не требует выбора констант Кроме того, различие в величинах констанг иногда составляет многие порядки и выбор 0 = ехр (з ) в ряде случаев уменьшает разброс собственных значений матрицы Гесса и ускоряет минимизацию. К сожалению, иногда наблюдается и обратная картина, поэтому можно организовать некий комбинированный метод, с помош ью которого для тех компонент вектора 0, для которых введение замены 0у = ехр (Zj) приводит к ухудшению организации поверхности, осуш ествляется замена лишь при попытке этой компоненты выйти за границу допустимой области. [c.226]

    Полагалось iV = 4, и длительность подачи каждого равна 30 с при линейной скорости газа-носителя 80 мл/мин и при Т = == 100° С. В качестве индикатора был выбран пропилен, а испытываемого катализатора — СКН-35. Полагали дополнительно, что каждый у( ) 7,5 мл и Ф (М v), Т) = det М (f) 4 Минимизацию Ф проводили методом случайного поиска по наилучшей пробе. Оптимизация входного индикаторного сигнала позволила на два порядка увеличить детерминант информационной матрицы для трех оцениваемых констант Кц, к , Одф. При этом существенно уменьшились и их дисперсии, что свидетельствует об эффективности излагаемой процедуры планирования адсорбционных экспериментов [75, 76]. [c.165]

    Если требуется, чтобы математическое описание обеспечивало наилучшее совпадение расчета и эксперимента по какой-либо одной величине п (например, ), то удобным методом подбора является минимизация суммы квадратов расхождений расчетных и экспериментальных величин п - [c.139]

    ПОТОК возвращаемый на вход схемы с выхода блока изомеризации. Рецикл можно учесть двумя способами на уровне расчета схемы при итерациях по Xi [см. задачу 1, выражения (I, 64)—(I, 66) ] и при оптимизации, рассматривая его как ограничение типа равенства на разрываемую переменную Xi [см. задачу 4, выражения (I, 79)— (1,81)]. При решении был применен второй способ. Оптимизация проводилась с применением методов последовательной безусловной минимизации метода модифицированной функции Лагранжа (AL) и штрафных функций (PEN), на нижнем уровне которых использовались квазиньютоновские алгоритмы DFP, SSVM. Расчет производных выполнялся разностным способом [см. выражение (1,49)]. В процессе оптимизации для удержания значений варьируемых переменных Xi (напомним, что лг — коэффициенты разделения газовых потоков) между нулем и единицей применялись замены переменных с использованием функции ar tg. Функции, участвующие в постановке задачи оптимизации, наиболее чувствительны (в окрестности л ) к изменению Xi, Xs, л ,. В связи с этим для повышения стабильности получаемых результатов применялось преобразование сжатия по осям л .,, Xi, Xj, Хв, что можно сравнить с процедурой [11, с. 82—83]. В табл. 23 приведены результаты решения рассматриваемой задачи [c.140]


    Подбор значений кинетических констант, наилучшим образом удовлетворяющих экспериментальным данным, — задача трудная во всех тех случаях, когда реальный процесс представляет собой систему нескольких или многих параллельно и последовательно текущих реакций. К сожалению, именно эти случаи наиболее типичны для процессов органического синтеза. Безусловно, надежнее и быстрее проводить подбор констант на цифровых вычислительных машинах путем минимизации суммы квадратов отклонений опытных и расчетных данных одним из методов направленного поиска при планировании эксперимента (см. книгу В. В. Налимова стр. 159). Следует отметить, что выбор кинетической схемы и значений кинетических констант должен производиться на основе химико-математического анализа системы. — Доп. ред. [c.36]

    Еще одним критерием суммарного отклонения экспериментальных значений [Х ] от ожидаемых может служить максимальное уклонение max I [Х ]г — F,, (k , [Х,,] , . Использование этого критерия означает, что, проведя расчет отклонений для каждой экспериментальной точки, выбирают из ннх наибольшее и используютего в качестве критерия суммарного отклонения. Максимальное уклонение также зависит от выбранного для расчета набора значений k , т. е. является функцией этого набора (естественно, что при разных ks максимальное уклонение может относиться к разным экспериментальным точкам). Эта функция kg также может быть подвергнута минимизации (метод выравнивания по Чебышеву). [c.239]

    Итак, мы исследовали довольно обширный класс методов минимизации, называемых обычно градиентными. Рассмотрим еще одну группу методов, называемую нря-мыми так как эти методы не требуют вычисления производных. К таким методам относятся покоординатный спуск [81i метод конфигураций [И], метод Розенброка [121j 122 Jj симплекс-метод [11 28j 92 115] и методы случайного поиска [66]. [c.221]

    Программирующая программа составляет подпрограммы, которые являются индивидуальными для каждого варианта механизма. Кроме того, имеется ряд стандартных блоков, которые объединяются в стандартную программу расчета функции отклонений и ее производных. С учетом последующей минимизации методом ИЗП первого или второго порядков СПРФ должна включать блоки, в функции которых входят  [c.194]

    K viR выбираются в результате анализа зависимости О (А,) =f R)), или путем сведения задачи к двухпараметровой, выбирая физически обоснованное значение R (чаще всего или бьеррумовское расстояние или сумму кристаллографических радиусов ионов плюс диаметра молекулы растворителя). Здесь следует отметить, что многие недостатки отсутствуют при решении задачи минимизации методами прямого поиска (Пауэла, деформированного многогранника, Розенброка, покоординатного спуска и др. [39]). Однако в отличие от МНК методы прямого поиска не позволяют найти стандартные ошибки искомых параметров. [c.103]

    Аналогичные трудности возникают и при любых других методах поиска для минимизации функции с оврагами . Поэтому ири решении оптимальных задач, целевые функции которых имеют особенности типа оврагов , разработаны специальные методы поиска. Один из таких м[етодов, называемый методом шагов по аоврагу и описьшается нйже. [c.519]

    Расчет по урЗЁнёнию, предложенному в. работе [И], ис пользован при разработке метода расчета всех узлов технологической схемы экстрактивной ректификации и оптимизации процесса на основе минимизации суммарных затрат на разделение [ 2]. [c.671]

    Активный эксперимент (эксперимент, в котором уровни факторов в каждом опыте заданы исследователем) основан на современных методах иланпроваиия эксперимента и предусматр 1вает минимизацию обп1,( го числа опытов, одновременное варьирование всеми факторами по специальным алгоритмам, использование математического [c.17]

    Для решения дифференциальных уравнений с помош ью неявной разностной схемы требуется, чтобы эта матрица была близка к единичной, для минимизации же достаточна лишь ее положительная определенность. Очевидно, что это требование выполняется для выпуклой поверхности Ф(0) при сколь угодно большом Т. В этом случае траектория, даваемая неявной разностной схемой, обеспечивает достижение инфинума. При Г —оо неявная разностная схема приводит к известному условию (3.159), и задача опять может быть сведена к решению системы нелинейных алгебраических уравнений. Известно довольно много методов минимизации, основанных на решении этой системы [8, 69]. Однако сходимость подхода обеспечивается далеко не всегда даже для выпуклой поверхности Ф(0). [c.218]

    В общем случае (матрица А положительно определена лишь в окрестности минимума) сходимость обеспечивается собственно неявной схемой. Так, в [120] для минимизации был использован метод предикции и коррекции. Преимущество методов этого типа состоит в том, что, во-пер-. вых, при устойчивых вариационных матрицах правых [c.218]

    Рассмотрим теперь метод [32], позволяющий достаточно эффективно находить минимум и не требующий ре-шенпя этой вспомогательной задачп. Мы уже отмечали, что вырождение минимума функции цели илп его плохая обусловленность проявляется в плохой обусловленности вариационной матрицы правой части системы (3.158). При интегрировании таких жестких систем лучшие результаты (но сравнению с разностными методами) дают методы, основанные на аппроксимации исходной градиентной системы более простыми и легко интегрируемыми системами. Такая аппроксилшция достигается за счет линеаризации правой части системы (3.158). Прп этом минимизация проводится на траектории спстемы [c.220]

    Рассмотренные методы минимизации функции многих переменных имеют универсальный характер. Однако для минимизации функций вида (3.137) наиболее эффективны методы, учитывающие нх специфику. Так, можно получить разумное приближение к матрице вторых производных в цену вычисления лишь градиента. Рассмотрим такой подход на примере минимизации суммы квадратов. Пусть требуется минимизовать [c.222]

    В заключение обзора методов минимизации еще раз отметим, что выбор того или иного метода связан с конкретной задачей. Для решения обратных задач, где приходится минимизовать функционалы вида (3.137), методы, учитывающие специфику минимизуемой функции, оказываются более эффективными, чем универсальные методы [16, 82]. При плохой обусловленности матрицы Гесса ( овражная ситуация) наилучшим образом зарекомендовали себя методы, основанные на применении неявной разностной схемы [113, 120] и линеаризации [31]. Если в результате минимизации найден минимум функционала (3.137) (т. е. матрица Гесса не вырождена), то значения параметров, соответствующие этому минимуму, являются оценками их математического ожидания. При этом остается лишь оценить точность найденных параметров по (3.133), и обратную задачу можно считать решенной. [c.229]

    Процедура, с помощью которой из пространства измерений отбираются наиболее информативные признаки, называется отбором признаков. Цель отбора признаков — добиться наибольшего эффекта распознавания при наименьшем числе признаков. Для этого используют такие методы, как максимизация кластери-зуемости, минимизация дивергенции, отбор наименьшего числа признаков при сохранении дисперсии распределения, просеивание — скрининг и др. [c.78]

    II — минимизации (4.19), III — минимизации полного отклонения но обоим экспериментам, приведены в табл. 4.5 вместе с потерями на поиск — числом итераций (под итерацией подразумевается одномерная минимизапия в ква-зиньютоновском методе Флетчера, обычно 2—3 вычисления целевой функции вместе с градиентом). [c.211]

    Для минимизации Р используют различные поисковые методы [5—9], но наибольшее распространение получили методы, основанные на градиентном поиске. Сходимость градиентного метода тем выше, чем ближе линии равного уровня к круговым, что определяется выбором масштабов по константам. Поэтому существенное ускорение поиска может быть достигнуто при удачном выборе масштабов. С этой целью используют процедуру преобразования констант к а =Хцкц, что уменьшает вытянутость линий равного уровня. Если вычислить в некоторой точке величины и выбрать .ij=Уд P дkJ, , можно показать, что в новых координатах (й(-/ ) линии равного уровня станут менее вытянутыми. В исходных координатах шаг по кц будет составлять теперь —аХц (др/дкц). [c.34]

    Точность математического описания можно оценить и другилг методом. Если для широкой области начальных условий проведено к опытов, причем для г опытов определены коэффициенты с ,. .., минимизацией функции и те же значения коэффициентов найдены для т выборок, каждая из которых содержит к г опытов, то точность описания можно характеризовать дисперсией величин с ,. .., с . [c.154]

    Метод минимизации суммы квадратов расхождений предложен Е. А. Фейгиным, И. В. Гирсановым и др. [19], И. И. Иоффе и Л. И. Письменом [20]. Г. М. Островский предложил [21] минимизировать сумму абсолютных разностей расчетных и экспериментальных величин. Указанные методы могут быть использованы только в том случае, если массы всех веществ примерно одинаковы, а также если расхождения по массам и температурам равнозначны. В последних работах Г. М. Островского и Ю. М. Волина [22] и В. В. Кафарова [23] при подборе коэффициентов рекомендуется минимизировать выражения типа (У-8). [c.140]


Смотреть страницы где упоминается термин Минимизации методы: [c.243]    [c.117]    [c.92]    [c.412]    [c.243]    [c.533]    [c.14]    [c.214]    [c.215]    [c.219]    [c.231]    [c.252]    [c.144]   
Конфирмации органических молекул (1974) -- [ c.123 ]




ПОИСК







© 2024 chem21.info Реклама на сайте