ПОИСК Статьи Рисунки Таблицы Сравнение метода итераций в пространстве управлений и метода сведения задачи к решению систем нелинейных конечных уравнений из "Моделирование сложных химико-технологических схем" При обсуждении метода итераций существенно, является правый конец траектории свободным или закрепленным, поэтому указанные два случая мы рассмотрим отдельно. [c.109] В дальнейшем для краткости изложения этот процесс последовательных приближений будем называть Г-н роцедурой. Начальное приближение ц (1) для указанного процесса выбирается из физических соображений. [c.110] Здесь оператор Т — тот же самый, что и в соотношении (VI,15). При этом, чем больше а , тем более вероятно достигнуть сходимости, однако в данном случае уменьшается общая скорость сходимости. Поэтому лучше выбирать переменным, зависящим от номера итерации. Различные алгоритмы выбора и приведены в работе [3, с. 313-320]. [c.110] Порядок системы (VI, 17) равен М = Nr (г — число управлений N — число точек, в которых заданы ординаты управлений). [c.111] Формально описываемый метод сводится к решению системы нелинейных уравнений, поэтому для решения последней можно, вообще говоря, применять обычные методы решения систем нелинейных уравнений. Правда, следует иметь в виду, что поскольку порядок системы может быть велик (М может достигать нескольких десятков), целесообразно использовать не все методы. Вряд ли желателен, например, метод Ньютона, применение которого потребовало бы в данном случае на каждой итерации вычислять матрицу частных производных порядка М. По той же причине нецелесообразно использовать метод Вольфа, требующий предварительного построения [М + 1)-го приближения. С другой стороны, может оказаться полезным применение методов с памятью , у которых т М. [c.111] Специфика этой системы состоит в том, что для вычисления ев левых частей при фиксированных А, требуется провести Г-процедуру. [c.113] Для решения указанной системы можно использовать методы, описанные в главе III. В отличие от методов штрафов и метода уровней, где приходилось подбирать только один параметр, в данном случае подбирают п — р параметров по числу закрепленных на правом конце фазовых переменных. Вероятно такой подход целесообразно применять, когда число закрепленных переменных на правом конце мало. [c.113] По числу итераций трудно в общем случае сказать о достоинствах обоих методов. С точки зрения требуемой памяти преимущество имеет второй метод, так как для выполнения одной итерации он требует запоминания только га чисел гр, (0) (г = 1,. . ., га). Первый же метод требует запоминания на каждой итерации г функций и, (i) (i = 1,. . ., га) и га функций гс, (i) (i = 1,. . ., re). Правда, можно не запоминать д , (() и на каждой итерации интегрировать систему (VI,1) дважды — вперед и назад . Подробнее об этом см. в работе [8, с. 125]. [c.113] В методе спуска итерации также проводятся в пространстве управлений, так что для отличия метод итераций в пространстве управлений будем называть методом Черноусько и Крылова. [c.113] Однако, конечно, целесообразнее применять более эффективные методы [7]. [c.114] Как мы видим, первые два этапа для метода спуска и метода Черноусько и Крылова одинаковы. Различаются они только третьим этапом. [c.114] Если критерий в допустимой области и обладает одним максимумом, в общем случае трудно сказать, имеет ли один из этих методов преимущество перед другим с точки зрения скорости сходимости. По-видимому, дело обстоит иначе, когда критерий Q имеет в допустимой области несколько локальных максимумов. Здесь преимущество может оказаться на стороне метода Черноусько и Крылова. Действительно, если в методе спуска использовать какой-либо локальный метод, то он может застрять в локальном максимуме. Поэтому здесь надо применять глобальный метод. Таким образом, в данном случае приходится искать глобальный максимум функции Нг переменных. [c.114] Операция (VI,8) требует, чтобы в каждой точке траектории на /с-ой итерации искался глобальный максимум функции Н (а , и). Фактически ищется глобальный максимум функции г переменных в каждой точке iy(/ = 1,. . S). Таким образом, задача поиска глобального максимума функции rN переменных, сводится к решению N задач поиска глобального максимума функций г переменных. Последняя задача, конечно, более простая. Правда, во-первых, эту задачу приходится решать на каждой итерации. Во-вторых, уравнения принцип максимума дают только необходимые условия, поэтому нет, вообще говоря, гарантии, что процедура, основанная па использовании указанных уравнений, даст глобальный максимум. Однако во всяком случае можно ожидать, что процедура (VI,8) позволит исключить некоторые локальные максимумы. [c.116] Вернуться к основной статье