Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Поиск оптимума градиентные,

    Методы направленного поиска. Для оптимизации адсорбционных установок и их отдельных элементов с большим числом оптимизируемых параметров и варьируемых факторов могут быть применены методы направленного поиска оптимума градиентные, наискорейшего спуска, покоординатного спуска и др. Характерной чертой этих методов является использование в процессе решения задачи результатов каждого данного шага (иногда также и предыдущих шагов) поиска оптимальной точки для определения направления изменения оптимизируемых параметров на каждом следующем шаге. При этом значение минимизируемой функции систематически уменьшается. Тем самым вместо рассмотрения большого количества вариантов происходит направленный анализ относительно малого числа ва- [c.127]


    В основу градиентных методов поиска оптимума положены вычисление и анализ производных целевой функции / (дг). Поэтому, прежде чем перейти к описанию различных методов, необходимо рассмотреть вопрос о расчете производных [c.490]

    При градиентном поиске оптимума выбирается начальный предполагаемый состав равновесной смеси. Последующие операции поиска включают два этапа у [c.109]

    Несмотря на существующие между градиентными методами различия, последовательность операций при поиске оптимума в большинстве случаев одинакова и сводится к следующему а) выбирается базисная точка б) определяется направление движения от базисной точки в) находится размер шага г) определяется следующая точка поиска д) значение целевой функции в данной точке сравни-ч вается с ее значением в предыдущей точке е) вновь определяется направление движения и т. д. до достижения оптимального значения. [c.156]

    Метод градиента. При оптимизации градиентным методом поиск оптимума исследуемого объекта совершается в направлении наиболее быстрого возрастания (убывания) выходного параметра, т. е. в направлении градиента, который определяется либо по имеющейся модели (IX.6), либо по результатам п пробных движений в направлении координатных осей. В первом случае вычисления производятся по уравнению  [c.252]

    В системах автоматической оптимизации широко используется аппаратура вычислительной техники. В простейших системах, где не требуется высокая точность, применяются недорогие электронные устройства непрерывного действия, для сложных объектов — специализированные ЭВМ. Работа автоматического оптимизатора может быть основана на различных методах, чаще всего на рассмотренных нами поисковых методах оптимизации с той лишь разницей, что наличие модели объекта здесь необязательно. При этом стратегия поиска может быть случайная, симплексная, градиентная — на основе пробных экспериментальных шагов, осуществляемых оптимизатором. Подробно с автоматическими методами поиска оптимума можно ознакомиться в монографии [40]. [c.253]

    Автоматический поиск оптимума [107—112] осуществляется с помощью автоматического оптимизатора непосредственно на реальном объекте при использовании вычислительной техники. Для расчетов применяют различную стратегию поиска случайную, симплексную, градиентную и т. д. [c.176]

    Эти результаты позволяют построить алгоритм решения задач нелинейного программирования высокой размерности, который представляет собой сочетание метода случайных направлений с градиентным методом. При этом на значительном расстоянии от оптимума поиск производится методом случайных направлений, а при приложении к оптимуму осуществляется переход к градиентному методу. [c.546]


    Часто рекомендуется процесс оптимизации осуществлять в два этапа методом случайного поиска в области, далекой от минимума (максимума), и градиентным методом при приближении к зоне оптимума. [c.363]

    Согласно другой классификации, все методы нелинейного программирования можно разделить на методы локального поиска и методы нелокального (глобального) поиска. В процессе решения задачи одним из локальных методов значения оптимизируемых параметров непрерывно меняются в направлении минимизации (или максимизации) рассматриваемой функции. Тем самым эти методы гарантируют нахождение только локального оптимума. К группе локальных методов относятся методы градиентный, наискорейшего спуска, покоординатного спуска и др. Для методов глобального поиска характерно введение дискретности в процессе изменения оптимизируемых параметров, что способствует рассмотрению большей области изменения исследуемой функции и выявлению абсолютного оптимума среди локальных. К этой группе методов относятся метод случайного поиска, метод динамического программирования, а также сочетания для совместного использования ряда других методов. [c.122]

    Вообще задача выбора стратегии изменения величины шага в градиентном поиске более важна, чем в методе релаксации. Это объясняется тем, что после каждого шага здесь находятся производные целевой функции, расчет которых связан с вычислением п значений целевой функции. Если, с одной стороны размер шага слишком мал, то движение к оптимуму будет долгим из-за необходимости расчета целевой функции в очень многих точках. С другой стороны, если, например, в алгоритме (IX, 41) шаг № > выбран слишком большим, в районе оптимума может возникнуть рыскание , которое либо не затухает, либо затухает слишком медленно. [c.492]

    Представляет интерес сравнение градиентных методов с методами случайного поиска, поскольку последние относительно просто реализуются на вычислительных машинах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой функции, заданной в виде квадратичной формы, используются методы градиента и случайных направлений с одинаковыми размерами шагов [8]. Оказывается, что эти методы в смысле вычислительных затрат имеют примерно одинаковую эффективность при размерности задачи, равной 3, и достаточно большом [c.544]

    На рис. IX-36 показаны границы применимости указанных методов в зависимости от размерности задачи и удаления от оптимума, измеряемом в данном случае в единицах шага спуска. Область, расположенная над кривой, является областью более высокой эффективности метода случайного поиска и, наоборот, область под кривой — областью более высокой эффективности градиентного метода. [c.544]

    Для расчета оптимальных параметров использована совокупность поисковых математических методов нелинейного программирования [6]. Так как на регулируемые параметры наложены ограничения типа неравенств, то расчет оптимума произведен методом прямого поиска с возвратом. Внутренней процедурой поиска без ограничений выбран градиентный метод наискорейшего спуска. Для нахождения глобального экстремума проведены два дополнительных контрольных спуска. Алгоритм программы поиска приведен на рис. 2. По данному алгоритму составлена программа на алгоритмическом языке Алгол , реализованная на ЭВМ. М-220. Результаты поиска оптимального технологического режима даны в таблице. [c.141]

    Поиск глобального оптимума. Для этого из каждой точки О = йj , й как из центра организуется поиск локального оптимума любым известным методом условной оптимизации [17] с учетом функциональных ограничений (П3.1) по решающему правилу (П14) с использованием уравнения проектирования (П3.5). Можно, в частности, использовать градиентный метод. Числовым сравнением найденных из различных центров локальных оптимумов выявляется глобальный оптимум. [c.171]

    Принцип рототабельности предполагает минимум дисперсии предсказанного значения выходного параметра в любой точке факторного пространства при равенстве дисперсий в точках, расположенных на одинаковом расстоянии от центра плана [31 ]. Это требование эквивалентно независимости дисперсии выходного параметра от вращения координат в центре плана и оправдано при поиске оптимума градиентными методами. [c.218]

    Аналоговая схема, реализующая градиентный метод поиска оптимума для линейных функций цели, была предложена ПайномРассмотрим подробнее, как можно применить этот метод для нелинейных выпуклых функций [c.47]

    Представляет интерес сравиеине градиентных методов с методами случайного поиска, поскольку последние относительно просто.реализуются па вычислительных маигииах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой фупкц [и, заданной в виде квадратичной формы, используются ме- [c.545]

    Кроме указанных методов для поиска глобального оптимума реализованы в виде программ и показали хорошие результаты еще три метода [5, 59] комбинация случайного и статистического градиентного поиска решения, поиск экстремума системой вероятностных автоматов Буша — Мостеллера, поиск экстремума с использованием направляющей сферы. [c.155]

    Метод случайного поиска (сканирования). Наиболее простой алгоритм реализации этого. метода, на.чывае.мый еще поиском на сетке переменных, заключается в том, что по каждой независимой переменной даются приращения в порядке, обеспечивающем заполненне всей области изменения этих переменных равномерной и достаточно густой сеткой. Для произвольного числа независимых переменных шаг по каждой следующей производится после того, как полностью завершен цикл по предыдущей. При достаточно густом расположении исследуемых точек гарантируется отыскание глобального оптимума, так как анализируется вся область изменения независимых переменных Другое достоинство — независимость поиска от вида оптимизируемой функции. В отличие от градиентных метод сканирования не связан с наличием локальных оптиму.мов целевой функции. [c.109]



Смотреть страницы где упоминается термин Поиск оптимума градиентные,: [c.362]    [c.496]    [c.136]    [c.109]   
Методы оптимизации в химической технологии издание 2 (1975) -- [ c.0 ]




ПОИСК





Смотрите так же термины и статьи:

Оптимум

Шаг поиска



© 2024 chem21.info Реклама на сайте