Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Градиент целевой функции

    Градиент целевой функции. Среди методов, применяемых для решения задач нелинейного программирования, значительное место занимают методы поиска решения, основанные на анализе производных оптимизируемой функции. Предполагая в-дальнейшем (там где это специально не оговорено), что анализируются только непрерывные дифференцируемые функции R(x), остановимся на свойствах этих функций, которые можно использовать для анализа их поведения. [c.481]


    Градиент целевой функции в точке х+Ах задается левой частью равенства (4.3.34), если х достаточно близко к х + Ах в том смысле, что квадратичная аппроксимация является адекватной. Для того чтобы X + Ах было точкой локального оптимума на текущем множестве активных ограничений, потребуем, чтобы градиент целевой функции был в этой точке ортогонален поверхности, образованной активными ограничениями. Это означает, что проекция вектора градиента на эту поверхность равна нулю и дальнейшие передвижения не приведут к улучшению. Для того чтобы вектор градиента был ортогонален поверхности, образованной ограничениями-неравенствами, он долл<ен представлять собой линейную комбинацию нормалей к этим ограничениям эти нормали задаются правой частью равенства (4.3.34), Я, и л называются множителями Лагранжа. [c.202]

    После того как определен шаг h по уравнению (13—17), определяются градиент целевой функции по уравнению (13—16) и новые значения концентраций по уравнению (13—15) — массив F. Если два последующих приближения отличаются на величину, превышающую EPS, то после коррекции значений массива С расчет повторяется с метки S Т. [c.398]

    Минимум целевой функции будем находить методом наискорейшего спуска, согласно которому после определения в начальной точке направления. противоположного градиенту целевой функции, двигаются в этом направлении до тех пор, пока целевая функция убывает, достигая таким образом минимума в некоторой точке. В этой точке вновь определяют направление спуска (с помощью градиента) и ищ т новую точку минимума и так далее. [c.161]

    Идея методов переменной метрики состоит в том, чтобы использовать информацию о градиенте целевой функции для приближенного вычисления гессиана. С этой целью формируется последовательность матриц Яь, обладающих свойством  [c.211]

    Нужно отметить еще одно очевидное свойство градиента целевой функции. Вектор градиента по направлению совпадает с направлением наискорейшего возрастания целевой функции. Именно это свойство и обусловило применение градиентных методов при решении задач нелинейного программирования. [c.484]

    Как уже говорит само название метода, в нем используется градиент целевой функции. В отличие от рассмотренного выше метода релаксации в методе градиента шаги совершаются на направлении наибыстрейшего уменьшения целевой функции, что, естественно, ускоряет процесс поиска оптимума. [c.491]

    В сопоставлении с методом градиента метод наискорейшего спуска оказывается более выгодным из-за сокращения объема вычислений. По существу метод наискорейшего спуска по вычислительным затратам эквивалентен методу релаксации, однако выгодно отличается от него тем, что по крайней мере первые шаги после определения градиента производятся в оптимальном направлении. Очевидно, что чем менее резко изменяется направление градиента целевой функции, тем выгоднее использовать метод наискорейшего спуска по сравнению с методом градиента, т. е. вдали от оптимума. Вблизи оптимума направление градиента меняется резко, поэтому указанный метод автоматически переходит в метод градиента, так как минимум по каждому направлению находится за небольшое число шагов. [c.494]


    При решении задачи отыскания минимума целевой функции ( ) при наличии ограничений (IX, 2а) (условный минимум) вектор и, характеризующий направление, вдоль которого производится движение по гиперповерхности ограничений, должен отвечать направлению наибыстрейшего убывания функции R(x). Это значит, что проекция вектора-градиента целевой функции VR(x) на направление вектора и должна иметь максимальное значение..  [c.535]

    С ростом а характер изменения FO (а) существенно зависит от вида Р (а, х). Если Р (а, х) — функция гладкая, то в общем случае FI (а) может быть равна /о (х ) лишь при а оо (рис. П.20, кривая i). Для негладких функций Р а, х), имеющих, например, вид выражения (П-42) или (П-46), равенство FI (а) и / (х ) может быть достигнуто при конечных значениях а (рис. П.20, кривая 2). Это обстоятельство связано с тем, что для гладких функций при любом ограниченном а на границе D выполняется равенство (а, х) = О, поскольку этот градиент равен нулю для внутренних точек множества D. Между тем градиент целевой функции /о (х) не равен нулю на границе D. Поэтому, если х — граничная точка Z), а при наличии связей типа равенств это всегда так, условие максимума Fq (х, а) в точке х  [c.81]

    Здесь Т — индекс транспортирования бг/ = 6( 1,. . . ) - вектор-строка приращений бг/Г вектор-столбец приращений бг/ / оу (2/ ) градиент целевой функции в точке г/  [c.149]

    Как и в методе покоординатного спуска, вначале выберем координаты исходной точки хщ и Х2В, шаги Я1 и Яг и малые приращения Б1 и 62. Движение к оптимуму начнем не вдоль какой-либо оси координат, а в направлении градиента целевой функции (или, если ищем минимум, то в противоположном градиенту направлении). Поскольку Нг и Нг приняты за единичные приращения координат, формула градиента получит вид  [c.268]

    Введем в рассмотрение градиент целевой функции 1Чч) Его компонентами являются частные производные /(я) по искомым параметрам [c.113]

    Весьма аффективен и метод Фельдбаума 16], если отсутствуют ограничения тина неравенств. Пусть двин<ение по градиенту выводит поиск из допустимой области. Для возвращения в нее можно совершить обратное движение (по антиградиенту) с более мелким шагом. Но это невыгодно, так как поиск прерывается. Было предложено возврат в допустимую область сочетать с поиском оптимума, учитывая градиенты как целевой функции г/, так и нарушенного ограничения ф. Выбор движения между градиентами целевой функции (быстрый поиск) и ограничения (быстрый возврат) в допустимую область может быть формализован, но [c.195]

    При использовании градиентной оптимизации величина шага Ax j в рекуррентном соотношении . t,y +1 = xij + AXjj для переменной i на 7 + 1 итерации вычисляется е использованием градиента целевой функции R(x), т. е. Дх,у =Xgrad R(x j, [c.385]

Рис. 11.16. Расположение градиентов целевой функции и ограничений в точке, являющейся решением задачи нелинейного програимирования Рис. 11.16. Расположение градиентов целевой функции и ограничений в точке, являющейся <a href="/info/24423">решением задачи</a> нелинейного програимирования

Смотреть страницы где упоминается термин Градиент целевой функции: [c.498]    [c.397]    [c.211]    [c.544]    [c.397]   
Введение в моделирование химико технологических процессов Издание 2 (1982) -- [ c.268 ]




ПОИСК





Смотрите так же термины и статьи:

Функция целевая



© 2024 chem21.info Реклама на сайте