Справочник химика 21

Химия и химическая технология

Статьи Рисунки Таблицы О сайте English

Метод случайного поиска

    Структура поиска экстремума методом случайного поиска. Шифр БС — МСП. [c.281]

    МЕТОД СЛУЧАЙНОГО ПОИСКА [c.281]

    Основная идея методов случайного поиска заключается в том, чтобы перебором случайных совокупностей значений независимых переменных найти оптимум целевой фуикции или паправление движеиия к нему. [c.521]


    Методом случайного поиска были подобраны кинетические коэффициенты математического описания (см. стр. 140). Оказалось, [c.141]

    Методы случайного поиска. [c.490]

    Часто рекомендуется процесс оптимизации осуществлять в два этапа методом случайного поиска в области, далекой от минимума (максимума), и градиентным методом при приближении к зоне оптимума. [c.363]

    Описанный алгоритм пригоден лишь для минимизации унимодальных функций. Если же функция имеет несколько экстремумов, метод спуска применяется поочередно в подобластях, например в комбинации с методом сеток или методом случайного поиска. [c.283]

    Метод случайного поиска (,МСП) применяется для поиска экстремума целевых функций практически любой сложности с неограниченным числом независимых переменных. Однако при поиске этим методом не используется информация о поведении функции, полученная на предыдущих шагах, и в конце поиска нельзя быть уверенными в том, что найден искомый экстремум [c.289]

    В настоящей главе рассмотрен ряд методов поиска экстремума целевой функции, использованных в различных алгоритмах оптимизации теплообменных аппаратов метод случайного поиска, методы сеток и спуска, метод Гаусса — Зейделя, метод независимого спуска с ранжированием переменных (предложен автором). Разработаны структуры, реализующие эти методы. Проведено сопоставление методов по их алгоритмической сложности. Показаны преимущества предложенного автором метода при оптимизации сложных целевых функций многих пере менных. Приведенные в главе структуры поиска экстремума являются обязательным элементом любых алгоритмов оптимизации теплообменников (см. главу 3). Они служат исходными данными при синтезе систем оптимизации промышленного теплообменного оборудования. [c.280]

    Практика решения задач идентификации показала, что среди существующих методов нелинейного [программирования для решения подобных задач предпочтительны методы случайного поиска, градиентный метод и его стохастический аналог — метод стохастической аппроксимации. Метод случайного поиска позволяет весьма эффективно исключать локальные экстремумы и находить решение при достаточно гладких помехах. Градиентные [c.437]

    Полагалось iV = 4, и длительность подачи каждого равна 30 с при линейной скорости газа-носителя 80 мл/мин и при Т = == 100° С. В качестве индикатора был выбран пропилен, а испытываемого катализатора — СКН-35. Полагали дополнительно, что каждый у( ) 7,5 мл и Ф (М v), Т) = det М (f) 4 Минимизацию Ф проводили методом случайного поиска по наилучшей пробе. Оптимизация входного индикаторного сигнала позволила на два порядка увеличить детерминант информационной матрицы для трех оцениваемых констант Кц, к , Одф. При этом существенно уменьшились и их дисперсии, что свидетельствует об эффективности излагаемой процедуры планирования адсорбционных экспериментов [75, 76]. [c.165]


    Согласно другой классификации, все методы нелинейного программирования можно разделить на методы локального поиска и методы нелокального (глобального) поиска. В процессе решения задачи одним из локальных методов значения оптимизируемых параметров непрерывно меняются в направлении минимизации (или максимизации) рассматриваемой функции. Тем самым эти методы гарантируют нахождение только локального оптимума. К группе локальных методов относятся методы градиентный, наискорейшего спуска, покоординатного спуска и др. Для методов глобального поиска характерно введение дискретности в процессе изменения оптимизируемых параметров, что способствует рассмотрению большей области изменения исследуемой функции и выявлению абсолютного оптимума среди локальных. К этой группе методов относятся метод случайного поиска, метод динамического программирования, а также сочетания для совместного использования ряда других методов. [c.122]

    Метод случайного поиска основан на применении последовательностей случайных чисел, с помощью которых в области изменения независимых переменных производится выборка случайных точек или определение случайных направлений. Ниже рассматривается одна из разновидностей случайного поиска — метод случайных направлений с обратным шагом. [c.388]

    Метод случайного поиска. Идея метода сводится к [c.199]

    Другой важной проблемой машинной реализации линейной или нелинейной диаграммы связи является поиск констант элементов с линейными определяющими соотношениями. Обычно они неизвестны и определяются косвенно по экспериментальным данным. Здесь предлагается метод нахождения таких констант с помощью минимизации целевой функции. В качестве основного метода предлагается метод случайного поиска экстремума (71 как наиболее общий, но пользователь может заменить этот метод на свой, например метод локальных вариаций [7, 8], метод Ньютона [7] и т. д., не являющийся универсальным, т. е. не дающий оптимума наверняка даже в случае произвольно большого числа итераций. [c.201]

    В заключение следует отмстить, что в данной монографии рассматриваются только детерминированные локальные методы поиск а. Методам случайного поиска посвящена книга [261. Методы глобального поиска обсуждаются в работе [27, с. 491—525]. [c.30]

    Преимущества градиентного метода оптимизации по сравнению с методом случайного поиска возрастают в случае организации процесса спуска с переменным рабочим шагом. Для этого случая в процессе случайного поиска среднее приращение функции 3(Х) на один расчет в 2л/(и + 1) раз меньше, чем при градиентном методе. Напомним, что п — число оптимизируемых параметров X. Указанные результаты сопоставления детерминированного и случайного способов поиска, естественно, полностью справедливы только для условий выполнения расчетов [56]. Тем не менее, они позволяют сделать вывод о нецелесообразности применения метода случайного поиска для оптимизации непрерывно изменяющихся параметров адсорбционных установок, т. е. там, где возможно использование детерминированных методов направленного поиска (градиентного и др.). Вместе с тем принцип случайного поиска обладает важными преимуществами во-первых, алгоритмы, его реализующие, менее чувствительны, чем детерминированные методы, к наличию неглубоких локальных минимумов, и, во-вторых, некоторые алгоритмы случайного поиска позволяют определить точку абсолютного минимума. [c.136]

    Решение многоэкстремальных задач можно производить и с помощью метода случайного поиска, так как случайный поиск более нечувствителен, чем детерминированные методы, к ловушкам всякого рода. Здесь также могут быть введены элементы обучения и самообучения. [c.155]

    Методы случайного поиска. Для нахождения численных значений коэффициентов, обращающих в минимум функцию среднеквадратичной погрешности, при решении нелинейных задач иногда удобно использовать методы случайного поиска. Общая идея этих методов состоит в следующем. В окрестности первого [c.285]

    Существующие методы для решения нелинейной системы уравнений (1П.1) можно разделить на четыре основные группы итерационные методы методы минимизации методы дифференцирования по параметру и методы случайного поиска. [c.67]

    Необходимо отметить, однако, что и метод оврагов, и метод случайного поиска позволяют найти глобальный минимум лишь в том случае, когда область поиска достаточно хорошо известна (т.е. из физико-химических соображений определены интервалы изменения параметров). К сожалению, на практике выделение такой области является достаточно сложной неформальной задачей. Пример применения нелокального метода поиска для решения обратной кинетической задачи дан в работе [80]- [c.166]


    В заключение следует отметить, что в книге рассматриваются только детерминированные локальные методы поиска. Методам случайного поиска посвящена книга [12 ]. Методы глобального поиска рассматриваются в работе [13, с. 491—525]. Таким образом, в дальнейшем предполагается, что либо множество 5 выпукло и / (х) выпукла на 5, т. е. / (х) имеет в 5 единственный минимум, либо начальное приближение выбрано достаточно близко от минимума. [c.20]

    Итак, мы исследовали довольно обширный класс методов минимизации, называемых обычно градиентными. Рассмотрим еще одну группу методов, называемую нря-мыми так как эти методы не требуют вычисления производных. К таким методам относятся покоординатный спуск [81i метод конфигураций [И], метод Розенброка [121j 122 Jj симплекс-метод [11 28j 92 115] и методы случайного поиска [66]. [c.221]

    Нелокальные методы. Градиентные методы и методы прямого поиска обеспечивают сходимость к одному из минимумов поверхности минимизируемого функционала, однако сравнительно часто возникает ситуация, когда таких минимумов оказывается несколько или поверхность имеет сильно выраженный "овражный" характер. В этом случае минимизация может быть осуществлена методом оврагов [36, 38] или методом случайного поиска [56, 162].  [c.165]

    Иден метода случайного поиска состоит в следующем. Пусть задача минимизации решается для некоторой ограниченной области параметров. Если это возможно, то эта область соответствующим преобразованием координат переводится в единичный гиперкуб. Если такое преобразование неосуществимо, то производится замена координат таким образом, чтобы область поиска лежала внутри единичного гиперкуба. В этом случае эффективность поиска будет сильно зависеть от соотношения объемов единичного гиперкуба и области поиска в нем. [c.165]

    Авторами [2] были разработаны алгоритм и программа поиска минимума функции цели Ф(а,%ст) методом случайного поиска, который не всегда давал достоверные значения. [c.90]

    Общих аналитических методов решения подобных задач не существует, поэтому для решения п )ставленной задачи был применен метод случайного поиска со следующим алгоритмом для каждого фиксированного Х1  [c.152]

    Ниже приведено несколько алгоритмов нолучения последова-гельностн случайн111Х чисел, которые можно применять для решения оптимальных задач методами случайного поиска на цифровых вычислительных машинах [c.526]

    Представляет интерес сравиеине градиентных методов с методами случайного поиска, поскольку последние относительно просто.реализуются па вычислительных маигииах. Такое сопоставление проведено для случая, когда в процессе отыскания оптимума целевой фупкц [и, заданной в виде квадратичной формы, используются ме- [c.545]

    Иа рпс. 1Х-36 показаны границы применимости указанных методов в зависимости от размерности задачи и удаления от оптимума, измеряемое в даипом случае в единицах шага спуска. Область, расположенная над кривой, является областью более высокой эффективности метода случайного поиска и, наоборот, область под кривой — областью более высокой эффективности градиентного метода. [c.546]

    Из методов этого класса наилучшим образом себя зарекомендовали некоторые модификации случайного поиска и метод Розенброка, хотя последний значительно уступает градиентным методам, например методу Ньютона или Дэвидона — Флетчера — Пауэлла [82, 95]. Самый большой недостаток прямых методов — их исключительная чувствительность к заданию начальных условий. Удачное задание начального приближения — это и есть такое задание, которое ведет к спуску именно в инфинум (3.157), а не к одному из локальных минимумов (3.156). В принципе это обстоятельство является отрицательным, затрудняя практическое решение, однако в методе случайного поиска именно оно используется для суждения о характере минимума. [c.221]

    Максимальные значения критериев дискриминацпи обычно находят методами нелинейного программирования градиентными, симплексными, а также методами случайного поиска. При этом рациональный поиск может быть выполнен только с применением вычислительных машин, обладающих высоким быстродействием и большой памятью. [c.28]

    Эта задача является частично-дискретной (частично-целочисленной) задачей нелинейного программирования и может быть решена либо методами случайного поиска, либо специальными эвристическими приемами, либо, если выполнить некоторые алгебраические преобразования, одним из алгоритмов сиг-номиального геометрического программирования (см. раздел 3.4.2). [c.219]

    Прямыми поисковыми называют методы, не требующие вычисления частных производных (355(0)/( 05. Градиентные методы основываются на вычислении градиента функции 55(0). Среди прямых поисковых методов укажем прежде всего метод оврагов [122, 123], методы Розепброка [124] и Пауэлла [125, 126]. Метод оврагов , хорошо зарекомендовал себя при решении задач, связанных с оценкой кинетических параметров [107]. Эффективным оказывается также метод случайного поиска [127]. Кстати, методом случайного поиска пользовались при уточнении оценок параметров скорости зародышеобразования и роста кристаллов (см. выше). [c.324]

    Иногда следует сочетать градиентные методы поиска экстремума функции с методами случайного поиска. Различные модификации метода случайного поиска дапы в [31]. Общая их идея заключается в следующем. В процессе минимизации в окрестности точки у Са То , vio, ) определяется значение функции 5 (г/ ,. ..), Затем производится шаг в случайном направлении, определяемом случайным вектором а Величина шага задается параметром К-В результате этого находится новая точка у " = у + Ка в которой вычисляется значение функции Если при выполнении случай- [c.362]

    Метод случайного поиска. Различны модификации метода случайного поиска даны в [52, 53]. Общая их идея заключается в следующем. В процессе минимизации в окрестностях точки X определяется одно или несколько значений функции 5(Х), для чего делаются соответствующие пробные шаги. Затем на основании полученных значений функции 3 (X) вычисляется новая точка Х + , т. е. делается рабочий шаг. Далее процесс йовто-ряется. При этом направления изменения компонент вектора X задаются случайными, причем все направления равновероятны, а движение к экстремуму будет осуществляться только в том случае, когда результат данного случайного движения приводит к уменьшению функции 3 (X). [c.135]

    В [55] проведено аналитическое сравнение эффективности градиентного метода и метода случайного поиска с постоянным одинаковым рабочим шагом для случаев, когда 3(Х) — линейная функция и 3(Х) — квадратичная функция. При этбм установлена предпочтительность метода случайного поиска при числе оптимизируемых параметров больше трех и расстоянии X исходной точки от цели, превышающем пятикратное значение [c.135]

    Ркследование [120] показало, что ири числе переменных коэффициентов больше трех и начальном приближении, достаточно далеком от точки минимума, метод случайного поиска оказывается эффективнее, чем метод спуска Гаусса — Зейделя и даже градиентный метод. Кроме того, методы случайного поиска обладают важными преимуществами  [c.286]

    Поскольку зависимость (IV-37) является нелинейной, то, как показано в работе [ПО], задача становится многоэстремальной, и для нахождения глобального оптимума предлагается использовать метод случайного поиска с направляющим конусом. [c.140]


Смотреть страницы где упоминается термин Метод случайного поиска: [c.521]    [c.524]    [c.194]    [c.336]    [c.437]    [c.307]    [c.308]    [c.136]   
Смотреть главы в:

Обобщенные методы расчета теплообменников -> Метод случайного поиска


Программирование и вычислительные методы в химии и химической технологии (1972) -- [ c.388 ]




ПОИСК





Смотрите так же термины и статьи:

Метод поиска

Шаг поиска



© 2025 chem21.info Реклама на сайте