Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Метод спуска

    Метод Гаусса — Зейделя (МГЗ) прост и удобен. В нем многомерный поиск превращается в последовательность одномерных и не делается никаких прощупываний с целью выбора таких одномерных движений, а только перебираются по очереди все направления коорди ат 1Ь Х осей. Ему свойственны недостатки, присущие другим методам спуска. [c.289]

    Описанный алгоритм пригоден лишь для минимизации унимодальных функций. Если же функция имеет несколько экстремумов, метод спуска применяется поочередно в подобластях, например в комбинации с методом сеток или методом случайного поиска. [c.283]


    Метод спуска (метод Гаусса — Зейделя). В практике часто можно встретить случаи, когда вид зависимости хорошо известен исследователю, но неизвестные коэффициенты входят в нее нелинейно и никакими подстановками зависимость нельзя сделать линейной относительно коэффициентов. В этом случае при использовании метода наименьших квадратов мы получим нелинейную систему уравнений, решение которой обычно сопряжено с большими математическими трудностями. Если исследователь хочет непременно сохранить нелинейный вид зависимости для вычисления коэффициентов можно поступить следующим образом. [c.284]

    Метод спуска с наказанием случайностью  [c.525]

    Если при использовании метода сеток первоначальный шаг сетки Дл не обеспечивает требуемую точность поиска По, можно перейти на более мелкий шаг. Однако при большом числе независимых переменных такое действие приведет к значительному росту числа узлов сетки и сделает невозможным перебор П во всех узлах в реальные сроки, чего можно избежать, если скомбинировать метод сеток и метод спуска. Суть комбинации состоит в следуюш,ем. [c.284]

    Алгоритм оптимизации ХТС с помощью методов первого порядка сводится к выполнению следующих шагов [54] задается начальное приближение по варьируемым переменным рассчитывается схема (решаются уравнения основного процесса) определяются частные производные (или решаются уравнения сопряженного процесса) с помощью некоторого метода спуска вычисляется новое приближение, проверяются критерии сходимости, а в случав их невыполнения осуществляется возврат ко второму шагу. [c.143]

    Анализ приведенных способов выбора шага в градиентном методе спуска к точке минимума не позволяет сделать однозначного заключения о безусловных преимуществах какого-либо одного из них. Причины этого достаточно очевидны. С одной стороны, от выбранного способа определения шага зависят сходимость вычислительного процесса, выражающаяся через число шагов, необходимых для достижения точки оптимума, и соответственно время счета на ЭВМ. С этой точки зрения более целесообразными являются два последних из рассмотренных способов, обеспечивающие решение задачи оптимизации за минимальное число шагов. Но, с другой стороны, эти последние способы определения шага весьма сложны и могут потребовать значительного времени для расчета на ЭВМ собственно шага. Поэтому выбор способа определения шага должен осуществляться в каждом конкретном случае решения той или иной задачи с учетом инженерной специфики объекта оптимизации, объема задачи, требований к точности решения, характеристик используемой ЭВМ и других факторов.  [c.133]


    Этот метод называется методом спуска, так как приближение к искомому решению производится по линии убывания величины среднеквадратичного отклонения. Существует несколько разновидностей этого метода, отличающихся друг от друга выбором пути движения к решению, но описанный метод является из них наиболее простым, легко реализуемым и может быть применен к нахождению коэффициентов весьма сложных нелинейных зависимостей. [c.285]

    В описанной ситуации единственно возможным выходом является применение одного из численных методов. Их известно, несколько. Большинство численных методов являются всевозможными модификациями метода спуска. [c.307]

    Интересным с практической точки зрения является, очевидно, отыскание не любого, а наиболее глубокого из локальных минимумов, называемого глобальным. Легко понять, что если в качестве начального приближения выбрана точка то процесс спуска, приведет нас в точку локального минимума. Поскольку в окрестности точки локального минимума значение функции возрастает при движении в любую сторону, то метод спуска не позволяет улучшить полученное решение. [c.308]

    Клименко и Каневец [79] высказали соображение, что в таком случае метод спуска можно применять не ко всей области изменения независимых переменных, а к отдельным подобластям, в каждой из которых содержится лишь по одному локальному минимуму. Однако разбить многомерное пространство на такие подобласти чрезвычайно сложно и какие-либо универсальные рекомендации на этот счет отсутствуют. [c.310]

    Если на каждом шаге метода спуска изменяется матрица Я и, значит, изменяются норма и метрика, соответствующий метод спуска относится к группе методов с переменной метрикой. Направление Sk, определяемое формулой (11,7), является направлением спуска. Действительно [c.34]

    Пусть требуется найти минимум функции /. Примем, что для поиска минимума используется один из методов спуска, при котором последовательные приближения подсчитываются с помощью формулы (1,39). Для определения направления р,- на i-ой итерации имеется какой-то алгоритм. Коэффициенты а,- на i-ой итерации в общем случае выбираются из условия (1,47) в частном случае, когда ищется минимум на каждом направлении поиска, выполняется условие (1,48). В последнем случае в точках смены направлений г (А = О, 1,. . п) справедливы соотношения [c.35]

    ЛОКАЛЬНЫЕ МЕТОДЫ СПУСКА  [c.65]

    В дальнейшем величины Ли/ будем называть шагами процесса поиска по г-ой переменной. Способы образования величин bui зависят от применяемого метода спуска (см. ниже). [c.65]

    Здесь будут рассмотрены наиболее распространенные методы спуска метод градиента и метод наибыстрейшего спуска. [c.66]

    ПРИМЕНЕНИЕ МЕТОДОВ СПУСКА  [c.82]

    При выборе того или иного метода спуска необходимо оценивать их с точки зрения удобства программирования, требуемой памяти и количества операций при реализации указанных методов на вычислительных машинах. Это имеет большое значение как при управлении процессами, так и при их проектировании. [c.82]

    При проектировании процессов правильный выбор метода спуска позволяет поставить и решить в реальное время более полную задачу с учетом большего числа факторов. [c.82]

    Проблемы уменьшения числа Р связаны с логикой того или иного метода спуска (см. выше). Уменьшение числа р обусловлено созданием эффективных методов вычислений, проводимых на каждой итерации. Рассмотрим этот вопрос подробнее. [c.83]

    Анализ описанных методов спуска показывает, что наиболее трудоемкой частью расчета при проведении спуска является определение производных функции f (и ,. . и . Эти производные вычисляют либо на каждом шагу, как в методе градиента, в задачах с ограничениями, либо через некоторое количество шагов, как в методе наискорейшего спуска. [c.83]

    Особенности применения методов спуска для определения констант в кинетических уравнениях. Как было показано выше (см. стр. 85), задача нахождения констант в кинетических уравнениях на основании экспериментальных данных сводится к минимизации функции 0 [см. уравнения (111,47) и (111,49)1. Полученную экстремальную задачу можно решать при помощи методов спуска  [c.87]

    Применение методов спуска для решения таких задач имеет следующие особенности  [c.87]

    Способ определения величин Ау/ зависит от выбранного метода спуска , наличия ограничений на варьируемые параметры и характера краевых условий. Методы спуска подробно описаны в главе III, поэтому в дальнейшем рассмотрим только влияние ограничений и краевых условий на способ вычисления величин Ayj.  [c.127]

    Управляющие переменные будем искать в виде кусочно-постоянных функций (IV, 14). Для решения задачи применим методы спуска . [c.133]

    В заключение отметим, что если при применении методов спуска уравнения (IV, 168) и (IV, 169) можно было решать раздельно, то в данном случае их необходимо решать совместно, поскольку они образуют совместную систему уравнений. Однако совместное решение этой системы на вычислительных машинах иногда затруднено из-за того, что она часто оказывается чрезвычайно чувствительной к различным погрешностям счета (подробнее см. главу VII). [c.142]


    Поэтому для ее максимизации можно применить методы спуска , разобранные в главе III. При этом необходимые производные вычисляют методами, изложенными выше. [c.158]

    Относительно применения методов спуска здесь можно повторить то же самое, что было сказано в главе IV для случая, когда работа реактора описывалась обыкновенными дифференциальными уравнениями. [c.158]

    Величина является функцией конечного числа варьируемых параметров, поэтому для максимизации интеграла (VI,59) воспользуемся одним из методов спуска , описанных в главе III. Необходимые производные будем вычислять по формулам (VI,28), (VI,29), (VI,42), (VI,43) или по формуле (VI,58) (в зависимости от рассматриваемого варианта оптимальной задачи). [c.175]

    Экстремум функции Q можно определять по переменным u при фиксированных. . ., 2 одним из методов спуска либо аналитически. Последний способ может оказаться полезным, если функция Q зависит от переменных и, как полином степени не выше второй. [c.200]

    Для оптимизации функции Q можно также применить один пз методов спуска . При этом производные дQ дz могут определяться как с помош,ью соответствуюш их разностей [c.200]

    Метод спуска [45, 84] заключается в следующем. В рассматриваемой области (подобласти) выбирается один набор параметров х°, х°,. .., х°п), т. е. одна точка, лежащая, как иредполагается, наиболее близко к оптимальной. После расчета П в этой точке берем следующую вершину (д + Дд 1,. 2,. .., х°п), если она находится в рассматриваемой области, и вновь вычисляем значение П. Если П(д 4-А ь х%,. .л °)<П(л , Х2,. . Хп), то новую точку (л ° + Д, , х°, х°п) принимаем за начальное приближение и проверяем новую точку по оси Х1-Если П(.Г1+Дхь Х2,. .., л )>П(л , х°,. .., л ), то делаем шаг по оси XI в отрицательном направлении, то есть вычисляем П в точке (х° — Да ,, х°,. . х ) и опять сравниваем его с П (х , Х2,. .., Хл). Если П(х° —Дх], х°,. .., х )<С.П(х°, х°, х ), то снова делаем шаг ио оси Х в отрицательно у1 напраБлснни и провсряс а значение П в точке х° — 2 хи Х2,. . х ).  [c.282]

    Методы спуска (МСп) также просты в реали ации, но совер шенно непригодны при поиске на поверхности отклика, имеющей овраги, так как не позволяют перемещаться вниз по склону из любой точки оврага, не имея возможности перемещаться по диагонали. В такой ситуации более удобны метод конфигураций и метод вращающихся координат 1241. Однако они не опробованы при оптимизации теплообменников, поэтому здесь не описываются. [c.289]

    Наиболее трудоемким является вычисление производных. Если они рассчитываются численно (а это для сложных схем часто единственный способ), то необходимо многократно пересчитывать схему. Помимо больших затрат времени численное определение производных имеет недостатком низкую точность и вследствие этого ошибки аппроксимации, особенно в окрестности экстремума. Применение же уравнений сопряженного процесса, по-видимому, э ктивно в случае явной функциональной зависимости между выходными и входными переменными. В реальных условиях эта зависимость обычно неявная. Что касается метода спуска для вычисления нового приближения, то здесь имеются достаточно эффективные методы [55, 56]. [c.143]

    Ркследование [120] показало, что ири числе переменных коэффициентов больше трех и начальном приближении, достаточно далеком от точки минимума, метод случайного поиска оказывается эффективнее, чем метод спуска Гаусса — Зейделя и даже градиентный метод. Кроме того, методы случайного поиска обладают важными преимуществами  [c.286]

    Здесь нам предстоит лишь обсудить возможности применения этих методов для практического решения задач оптимизации теп-лообыенной аппаратуры. Все методы оптимизации, подобные методу спуска (называемые также методами направленного поиска оптимума), обладают одной общей особенностью. Эффективность их применения существенным образом зависит от геометрии поверхности, которую описывает функция ф(л ), а также от начального приближения. [c.308]

    Поскольку отсутствуют какие-либо веские соображения по выбору первого приближения, которое с уверенностью находилось бы в районе глобального минимума критерия оптимальности, то приходится точку начала спуска назначать случайным образом. В связи с этим исследовался вопрос приводит ли процедура спуска из различных начальных точек к одному и тому же решению Этот вопрос не поддается теоретическому анализу, поэтому авторы избрали путь анализа, основанный на статистике практических расчетов. Была выполнена программа, осуществляющая нахождение минимума методом спуска. Для нескольких расчетных примеров многократно производился поиск оптимального решения при различных исхслных значениях независимых переменных Т, Од и о и путем сравнения полученных решений делался вывод о числе минимумов у критерия оптимальности. [c.309]

    Пусть в начальной точке С/ выполняются все неравества (111,3). Начнем минимизировать функцию / из точки 7 одним из методов спуска , не учитывающим ограничений. Примем для определенности, что это будет метод градиента. [c.81]


Смотреть страницы где упоминается термин Метод спуска: [c.512]    [c.525]    [c.541]    [c.282]    [c.286]    [c.25]    [c.130]    [c.132]    [c.194]   
Смотреть главы в:

Обобщенные методы расчета теплообменников -> Метод спуска




ПОИСК





Смотрите так же термины и статьи:

Градиентная оптимизация процессов, метод наискорейшего спуска крутого

Градиентные методы наискорейшего спуска

Комбинация методов сеток и спуска

Локальные методы спуска

Метод быстрейшего спуска

Метод независимого спуска с ранжированием переменных

Метод паискорейшего спуска

Метод покоординатного спуска

Методы наискорейшего спуска (крутого восхождения) и градиента

Методы наискорейшего спуска крутого

Наискорейшего спуска метод

Поляризуемости в методе наискорейшего спуска

Применение методов спуска

Расчет комплексного интеграла обращения методом наибыстрейшего спуска

Спуска метод с наказанием случайностью



© 2025 chem21.info Реклама на сайте