Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Градиентные методы градиенты

    Производится градиентный спуск к локальному минимуму суммы квадратов отклонений по подпрограмме, основанной на алгоритме модифицированного метода градиента, предложенном в работе [58]. При этом значение каждой константы на т - - 1) шаге спуска находится по формуле [c.103]

    Существует большое число модификаций градиентного метода поиска экстремума функций многих переменных, учитывающих искривление поверхности градиента или то, что при попадании на гребень ( овраг ) движение по градиенту оказывается медленным и неустойчивым. Данные о применении этих методов для расчетов равновесных составов имеются в обзорных работах [15—-17]. [c.110]


    Традиционный метод градиента основан на линейной аппроксимации поведения функции вблизи исходной точки. Существует большое число модификаций градиентного метода, в которых применяется нелинейная аппроксимация поведения функции вблизи исходной точки. В методах нелинейной аппроксимации поиск состоит из двух чередующихся этапов 1 — нелинейная аппроксимация вблизи исходной точки, аналитическое определение улучшенного решения по нелинейному параболическому уравнению 2 — перемещение для поиска в найденную улучшенную точку [4]. Такой метод использован, в частности, при определении 10 коэффициентов математического описания платформинга [51. [c.190]

    Метод градиента и его модификации. Как известно, направление наискорейшего убывания функции противоположно вектору градиента в данной точке. На этом основан классический метод градиента в текущей точке поиска вычисляется антиградиент функции и осуществляется продвижение вдоль этого направления с некоторым шагом. Затем снова осуществляется вычисление вектора антиградиента и т.д. Если функция имеет несколько локальных минимумов, то метод градиента обеспечивает сходимость к одному из них. Метод градиента имеет наибольшую скорость сходимости в случае, когда линии уровней минимизируемого функционала имеют вид, близкий к окружностям. В случае "овражного" рельефа метод градиента малоэффективен, так как происходит спуск в овраг и блуждание от одного его склона к другому без существенного продвижения по дну оврага. Вариант градиентного метода, когда на каждом шаге поиска производится одномерная минимизация вдоль выбранного направления, называется методом наискорейшего спуска [7]. [c.163]

    Возможны различные модификации градиентного метода, направленные на ускорение движения в окрестностях экстремальной точки. Одна из модификаций заключается в следующем. Перемещаясь в направлении градиента из исходной точки 2, находят наилучшую точку 2 (рис. У1-9), но дальнейшее движение проводим не из этой точки, а из точки 2, которая делит отрезок 1—2 в отношении, например, 9 1 или 8 2 и т. п. При этом удается избежать зигзагообразных движений по гребню . [c.194]

    В этой последовательности выбирается набор аргументов, при котором Ф оказывается минимальным, поскольку градиентный метод, как и вообще поисковые методы, устанавливает направление движения к оптимуму, но не положение оптимума в этом направлении. Лишь осуществив проверку ряда значений Ф в направлении градиента или антиградиента, определим наилучшую точку. В найденной наилучшей точке можно определить новое направление градиента и осуществить движение в этом направлении. [c.110]

    Градиентные методы основываются на движении в пространстве параметров в направлении градиента или антиградиента функции 55(0). Все градиентные методы являются итеративными. Имея вектор исходных оценок параметров (нулевое приближение) 0" и зная вектор-градиент функции 55(0) в данной точке, рассчитывают вектор оценок параметров следующего приближения 0 . Если полученная оценка удовлетворяет условию 55(0 )< <55( <" ) при поиске минимума 55(0), то переходят к определению вектора оценок параметров следующего приближения и т. д. до тех пор, пока точка минимума не будет достигнута. В большинстве градиентных методов, успешно используемых на практике, при отыскании минимума функции 55(0) применяется формула вида [c.324]


    Для преодоления неглубоких локальных минимумов может быть использована одна из модификаций градиентного метода — метод тяжелого шарика [61], в котором при определении координат очередной точки в процессе спуска кроме вектора текущей точки и градиента минимизируемой функции в ней учитываются также значения этих величин в одной или нескольких предшествующих точках. Аналогичный результат обеспечивает применение метода сглаживания . В этом методе выражение минимизируемой функции 3 сглаживается таким образом, чтобы процесс дальнейшего поиска минимума функции 3 одним из обычных методов оказался малочувствительным к неглубоким локальным минимумам. Отыскание абсолютного минимума возможно также путем применения несколько видоизмененного метода покоординатного спуска. Модернизация состоит в том, что спуск по каждой координате производится не до локального, а до абсолютного минимума. Заметим, что определение абсолютного минимума одномерной функции — задача разрешимая. [c.154]

    Методы направленного поиска позволяют избежать этого недостатка. Рассмотрим градиентный метод для определения экстремума функции 5 (с(жо), Т хо), и,(Хо), с х), Т(х), v,(x), f(r, х), Vi r, х), Р х)) при отсутствии каких-либо ограничений. Процесс оптимизации по методу градиента заключается в определении направления наискорейшего изменения функции и некотором перемещении по этому направлению в прямую или обратную сторону. Направление наискорейшего изменения функции определяется направлением вектор-градиента оптимизируемой функции. Существенной чертой определения наискорейшего изменения является численное вычисление производных функций д /дс ха), д 1дТ хо), d ldv, xa),. .., которое производится следующим способом д 1ду х ) = [ с хо),. .., yi(Xo)+At/i,. .., Ui(Xo), с(х), Т(х), u x), f r, х), Уг г, х), Р х),. . . ) с Хо), У Х ), , UiUo), с, Т, UJ, /, U2, -.. )]/A /j, где Ai/j— приращение по оптимизируемому параметру, шаг изменения у, у, может быть любым из (Xo), Т Хо), vJ Xa),. ... в качестве шага по оси у выбирают [c.361]

    Различные разновидности этого метода отличаются выбором направления движения от точки к точке [103]. Так, в градиентном методе движение осуществляется по направлению, обратному градиенту функции ф(х), т. е. в сторону наибольшего убывания, причем в каждой следующей точке вычисляется новое направление градиента. [c.308]

    Поисковые методы отличаются большим разнообразием с различными модификациями их насчитывают несколько десятков. К основным методам поиска можно отнести метод Гаусса—Зейделя, метод случайного поиска, метод симплексов (безградиентные методы) метод градиента, метод наискорейшего спуска и метод крутого восхождения (градиентные методы). [c.250]

    На каждом этапе движение к точке минимума осуществляется обычно за несколько шагов, которые делаются в одно.м и том же направлении — по линии градиента в исходной точке данного этапа. В отличие от этого в градиентном методе направление движения меняется на каждом шаге (на каждом шаге вычисляется новое значение градиента). [c.308]

    Метод градиента. В силу выражения (Х,14) приращения управляющих переменных для определения нового приближения при градиентной стратегии поиска находятся по формулам [c.212]

    Градиентный метод, в котором направление спуска на данном шаге формируется с использованием информации о направлении градиента на предыдущих шагах, получил название метода сопряженных градиентов [7]. [c.163]

    Нужно отметить еще одно очевидное свойство градиента целевой функции. Вектор градиента по направлению совпадает с направлением наискорейшего возрастания целевой функции. Именно это свойство и обусловило применение градиентных методов при решении задач нелинейного программирования. [c.484]

    Недостатком градиентного поиска является то, что при его.использовании можно обнаружить только локальный минимум целевой функции. Для того чтобы найти у функции другие локаль-. ные минимумы, необходимо производить поиск из других начальных точек. Таким образом, с помощью метода градиента каждый локальный минимум целевой функции можно охарактеризовать некоторой областью притяжения, обладающей тем свойством, что при задании начального состояния в границах этой области метод градиента всегда приводит в один и.тот же локальный минимум. [c.493]

    Доказано [5], что при применении правильных симплексов направление движения в симплексном методе совпадает с направлением градиента, если, естественно, симплекс достаточно мал. Вместе с тем, реализация данного метода не требует существенного увеличения вычислительных затрат с повышением размерности решаемой задачи, поскольку на каждом шаге рассчитывается только одно значение целевой функции независимо от числа переменных. В то же время при использовании градиентных методов поиска с возрастанием числа независимых переменных соответственно увеличивается число вычисляемых значений целевой функции при расчете производных по всем переменным. [c.515]

    Представляет интерес сравнение градиентных методов с методами случайного поиска, поскольку последние относительно просто реализуются на вычислительных машинах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой функции, заданной в виде квадратичной формы, используются методы градиента и случайных направлений с одинаковыми размерами шагов [8]. Оказывается, что эти методы в смысле вычислительных затрат имеют примерно одинаковую эффективность при размерности задачи, равной 3, и достаточно большом [c.544]

    Методы наискорейшего спуска (крутого восхождения) и градиента. Опишем принцип использования градиентных методов на примере функций двух переменных . [c.157]


    Метод градиента. При оптимизации градиентным методом поиск оптимума исследуемого объекта совершается в направлении наиболее быстрого возрастания (убывания) выходного параметра, т. е. в направлении градиента, который определяется либо по имеющейся модели (IX.6), либо по результатам п пробных движений в направлении координатных осей. В первом случае вычисления производятся по уравнению  [c.252]

    Интегрируя систему дифференциальных уравнений ( 11,10), получим траекторию, касательная к которой в каждой точке обладает заданным свойством. Например, для непрерывного аналога градиентного метода касательная к траектории в каждой точке совпадает с вектором градиента. Если в процессе поиска изменяется способ вычисления вектора я (0), траектория поиска состоит из нескольких участков. [c.179]

    Метод градиента предназначен для решения задач на безусловный экстремум в конечно-мерном пространстве, когда оптимизируемая функция является дифференцируемой и имеет единственный экстремум [46, 75, 106, 142, 144]. Если функция имеет несколько локальных экстремумов, то, как правило, метод градиента обеспечивает сходимость к одному из них. Это суш,ественно ограничивает эффективность градиентных методов при отыскании кинетических констант, так как в большинстве случаев функция [c.161]

    Выбор шага спуска производится автоматически, в зависимости от угла между последовательными направлениями движения (см. [58], а также стр. 103). Эта модификация метода градиента была использована для определения констант скоростей изомеризации и окислительного дегидрирования бутенов в дивинил [59, 60]. Она применялась также для осуществления градиентных спусков при изучении методом оврагов кинетики радиационного изотопного обмена дейтерия с гидроксильными группами силикагеля [c.95]

    Подробнее остановимся па методах оптимизации, связанных с нахождением по крайней мере первых производных, которые кажутся нам наиболее перспективными. Эти методы применимы для дифференцируемых функций и используют явные выражения для градиента, причелг в экстремальной точке градиент должен быть равен нулю. Это условие и дает систему уравнений, решение которой основано на методах onTHNiHsauHH. Заметим, что отличие одного градиентного метода оптимизации от другого может быть большим, чем от соответствующего метода решения с использованием уравнений ЗДМ. [c.24]

    Используя градиентный метод в функциональном пространстве в тех случаях, когда он пригоден, можно получить результаты быстрее, чем предыдущими методами. Он работает тем лучше, чем ближе к оптимуму исходные значения. Это понятно, поскольку аналитически градиент найти легче, чем численно. Если метод применяется далеко от оптимального распределения, то при не очень малых е он может быть неустойчивым. Как и в предыдущих методах, здесь существует затруднение в определении оптимума. [c.380]

    Рассмотрим градиентный метод для простейшего случая определения экстремума функции многих переменных 3(л ь Хг,..., Хп) при отсутствии каких-либо ограничений. Процесс оптимизации по методу градиента заключается в определении направления наискорейшего изменения функции 3 и в некотором перемешенин по этому направлению в прямую или обратную сторону. Направление наискорейшего изменения функции определяется направлением вектор-градиента оптимизируемой функции, которое всегда совпадает с направлением возрастания функции. Компонентами градиента дЗ/дХ° в какой-либо точке рассматриваемой области, заданной параметрами (л °, х°,. ... л °), являются частные производные функции д31дх°, дЗ дх, д31дх°. Отметим, что градиент дЗ/дХ° всегда перпендикулярен к поверхности равных значений функции 3 в рассматриваемой точке. [c.128]

    Методы второго типа — это методы градиента, наискорейшего спуска, Ньютона—Рафсона и их модификации. Методы третьего типа, связанные с вычислением вторых производных, не находят широкого применения из-за трудностей вычисления вторых производных. Здесь можно упомянуть лишь метод Флетчера—Пауэлла, который является методом первого порядка, но использует оригинальную аппроксимацию вторых производных Дэвидона, чем обеспечивает более высокую скорость сходимости, чем градиентные методы. [c.179]

    Прямыми поисковыми называют методы, не требующие вычисления частных производных (355(0)/( 05. Градиентные методы основываются на вычислении градиента функции 55(0). Среди прямых поисковых методов укажем прежде всего метод оврагов [122, 123], методы Розепброка [124] и Пауэлла [125, 126]. Метод оврагов , хорошо зарекомендовал себя при решении задач, связанных с оценкой кинетических параметров [107]. Эффективным оказывается также метод случайного поиска [127]. Кстати, методом случайного поиска пользовались при уточнении оценок параметров скорости зародышеобразования и роста кристаллов (см. выше). [c.324]

    Наименьшее число шагов при градиентном спуске обеспечивает разновидность градиентного метода, называемая иногда методом наискорейшего спуска. Суть этой модификации градиентного метода в следующем. После определения градиента функции 3(Х) производится движение по направлению антигра-диента до точки, в которой достигается минимальное значение функции 3(Х) на данном направлении. В найденной точке снова определяется градиент и движение совершается по прямой, соответствующей направлению нового антиградиента, и т. д. до нахождения экстремума функции 3(Х). [c.131]

    Основным вопросом, решаемым в методах градиента, наряду с определением направления градиентного вектора является выбор шага движения по градиенту. Выбор величины шага в направлении grad F в значительной степени зависит от вида поверхности. Если шаг слишком мал, это потребует продолжительных расчетов. Если наоборот размеры шага слишком велики, можно проскочить оптимум. Размер шага Ал ,-должен удовлетворять условию, чтобы все шаги от базисной точки лежали в том же самом направлении, как и направление градиента в базисной точке. Размеры шага но каждой переменной Xi вычисляются из значений частных производных в базовой (начальной) точке  [c.154]

    Приведенные уравнения действительны только в области небольших изменений pH. Для одновременного получения линейного градиента pH и градиента концентрации (практически во всем интервале pH)/ применяют так называемый последовательный градиентный метод элюирования (29, 30]. При использовании градиентного элюирования важно знать положение пика на хроматографической кривой. Шваб и др.[31] вывели уравнения, применимые к ионообменникам. Математические выра . ения, описывающие положение и ширину зон веществ, разделяемых хроматографическим методом, предложены Фрайлигом [32]. [c.66]

    Поскольку предлагаемый метод связан с последовательной оптимизацией по Х2, Хз-.. и т. д., его сходимость к минимуму не слабее, чем в релаксационном методе. Более того, при достаточно мелшй сетке характер движения приобретает некоторые черты градиентного метода. В определенных условиях трубка деформируется по направлению, близкому к направлению градиента функции Р. [c.207]

    Масштабирование рекуррентного уравнения. Значения шага найденные методом Гаусса — Ньютона [решение уравнения (111.83)] не зависят от масштаба пространства 7 (иI, и , щ) искомых констант, т. е. являются инвариантными относительно линейных преобразований этого пространства. И наоборот, значения А , найденные методом градиента, в значительной мере не инвариантны к масштабу пространства констант. Поскольку метод максимального приближения является комбинированным, объединяя в себе как свойства метода Гаусса — Ньютона, так и свойства градиентных методов, то желательно пространство II (и , и ,. . ., щ) промас-штабировать. [c.170]


Смотреть страницы где упоминается термин Градиентные методы градиенты: [c.417]    [c.144]    [c.325]    [c.13]    [c.106]    [c.76]    [c.5]    [c.5]    [c.117]    [c.330]    [c.373]   
Методы оптимизации в химической технологии издание 2 (1975) -- [ c.491 ]




ПОИСК





Смотрите так же термины и статьи:

Метод градиентов

Методы градиентные



© 2025 chem21.info Реклама на сайте