Основными методами оптимизации в САПР являются поисковые методы, которые основаны на пошаговом изменении управляемых параметров
Xk+1 = Xk + DXk+1, (2.5)
где в большинстве методов приращение DXk вектора управляемых параметров вычисляется по формуле
DXk = hg (Xk). (2.6)
Здесь Xk – значение вектора управляемых параметров на k-м шаге; h – шаг; g (Xk) – направление поиска. Следовательно, если выполняются условия сходимости, то реализуется пошаговое (итерационное) приближение к экстремуму.
Методы оптимизации классифицируют по ряду признаков.
В зависимости от числа управляемых параметров различают методы одномерной и многомерной оптимизации, в первых из них управляемый параметр – единственный, во вторых размер вектора X не менее двух. Реальные задачи в САПР многомерны, методы одномерной оптимизации играют вспомогательную роль на отдельных этапах многомерного поиска.
Различают методы условной и безусловной оптимизации по наличию или отсутствию ограничений. Для реальных задач характерно наличие ограничений, однако методы безусловной оптимизации также представляют интерес, поскольку задачи условной оптимизации с помощью специальных методов могут быть сведены к задачам без ограничений.
В зависимости от числа экстремумов различают задачи одно- и многоэкстремальные. Если метод ориентирован на определение какого-либо локального экстремума, то такой метод относится к локальным методам. Если же результатом является глобальный экстремум, то метод называют методом глобального поиска. Удовлетворительные по вычислительной эффективности методы глобального поиска для общего случая отсутствуют, и потому на практике в САПР используют методы поиска локальных экстремумов.
Наконец, в зависимости от того, используются при поиске производные целевой функции по управляемым параметрам или нет, различают методы нескольких порядков. Если производные не используются, то имеет место метод нулевого порядка, если используются первые или вторые производные, то соответственно метод первого или второго порядка. Методы первого порядка называют также градиентными, поскольку вектор первых производных F(X) по X есть градиент целевой функции
grad (F(X)) = (¶F /¶x1, …, ¶F /¶xn).
Конкретные методы определяются следующими факторами:
1) способом вычисления направления поиска g(Xk) в формуле (2.6);
2) способом выбора шага h;
3) способом определения окончания поиска.
Определяющим фактором является первый из перечисленных в этом списке, он подробно описан далее.
Шаг может или быть постоянным, или выбираться исходя из одномерной оптимизации – поиска минимума целевой функции в выбранном направлении g(Xk). В последнем случае шаг будем называть оптимальным.
Окончание поиска обычно осуществляют по правилу: если на протяжении k подряд идущих шагов траектория поиска остается в малой ε-окрестности текущей точки поиска Хk, то поиск заканчивается.