4.4.        Метод градиента

Как мы уже отметили, задача оптимизации – это задача отыскания таких значений факторов х1 = х1*, х2 = х2*, …, хk = хk*, при которых функция отклика (у) достигает экстремального значения  у = ext (оптимума).

Известны различные методы решения задачи оптимизации. Одним из наиболее широко применяемых является метод градиента, называемый также методом Бокса-Уилсона и методом крутого восхождения.

Рассмотрим сущность метода градиента на примере двухфакторной функции отклика y = f(x1, х2). На рис. 4.3 в фак­торном пространстве изо­бражены кривые равных значений функции отклика (кривые уровня). Точке с координатами х1*, х2* соответствует экстремаль­ное значение функции от­клика уext.

Если мы выбе­рем какую-либо точку фак­торного пространства в ка­честве исходной (х1 0, х2 0), то наикратчайший путь к вершине функции откли­ка из этой точки – это путь, по кривой, касательная к которой в каждой точке совпадает с нормалью к кривой уровня, т.е. это путь в направлении гради­ента функции отклика.

Градиент непрерывной однозначной функции          y  = f(x1, х2) – это вектор, определяемый по направлению градиентом с координатами:

где i, j – единичные векторы в направлении осей координат х1 и х2. Частные  производные  и  характеризуют  направление вектора.

Поскольку нам неизвестен вид зависимости             y = f(x1, х2), мы не можем найти частные производные ,  и опреде­лить истинное направление градиента.

Согласно методу градиента в какой-то части факторного пространства выбирается исходная точка (исходные уровни) х1 0, х2 0. Относительно этих исходных уровней строится сим­метричный двухуровневый план эксперимента. Причем интер­вал варьирования выбирается настолько малым, чтобы ли­нейная модель оказалась адекватной. Известно, что любая кривая на достаточно малом участке может быть аппрокси­мирована линейной моделью.

После построения симметричного двухуровневого плана решается интерполяционная задача, т.е. строится линейная модель:

и проверяется ее адекватность.

Если для выбранного интервала варьирования линейная мо­дель оказалась адекватной, то может быть определено на­правление градиента:

Таким образом, направление градиента функции отклика определяется значениями коэффициентов регрессии. Это означает, что мы будем двигаться в направлении градиента, если из  точки с координатами () перейдем   в   точку с координатами:

,

где m – положительное число, определяющее величину шага в на­правлении градиента.

Поскольку х1 0 = 0     и          х2 0 = 0,           то        .

Определив направление градиента () и выбрав ве­личину шага m, осуществляем опыт на исходном уровне х1 0, х2 0. Затем делаем шаг в направлении градиента, т.е. осу­ществляем опыт в точке с координатами . Если значе­ние функции отклика возросло по сравнению с ее значением в исходном уровне, делаем еще шаг в направлении градиен­та, т.е. осуществляем опыт в точке с координатами:

.

Движение по градиенту продолжаем до тех пор, пока функция отклика не начнет уменьшаться. На рис. 4.3 движение по градиенту соответствует прямой, вы­ходящей из точки (х1 0, х2 0). Она постепенно отклоняется от истинного направления градиента, показанного штриховой линией, вследствие нелинейности функции отклика.

Как только в очередном опыте значение функции отклика уменьшилось, движение по градиенту прекращают, прини­мают опыт с максимальным значением функции отклика за новый исходный уровень, составляют новый симметричный двухуровневый план и снова решают интерполяционную за­дачу.

Построив новую линейную модель , осуществляют регрессионный анализ. Если при этом провер­ка значимости факторов показывает, что хоть один коэф

фи­циент , значит, область экстремума функции откли­ка (область оптимума) еще не достигнута. Определяется новое направление градиента и начинается движение к обла­сти оптимума.

Уточнение направления градиента и движение по гради­енту продолжаются до тех пор, пока в процессе решения очередной интерполяционной задачи проверка значимости факторов не покажет, что все факторы незначимы, т.е. все . Это означает, что область оптимума достигнута. На этом решение оптимизационной задачи прекращают, и принимают опыт с максимальным значением функции отклика за оптимум.

В общем виде последовательность действий, необходимых для решения задачи оптимизации методом градиента, может быть представлена в виде блок-схемы (рис. 4.4).

В заключение приведем некоторые рекомендации выбо­ра исходного уровня, интервалов варьирования и значения шага при решении задачи оптимизации методом градиента:

1) исходные уровни факторов (хj 0) следует выбирать воз­можно ближе к точке оптимума, если есть какая-то априор­ная информация о ее положении;

2) интервалы варьирования (Δхj) надо выбирать такими, чтобы линейная модель наверняка оказалась адекватной. Границей снизу Δхj при этом является минимальное значе­ние интервала варьирования, при котором функция отклика остается значимой;

3) значение шага (т) при движении по градиенту выбирают таким образом, чтобы наибольшее из произведений  не превышало разности верхнего и нижнего уровней факто­ров в нормированном виде

.

Следовательно, . При меньшем значении т разность функции отклика в исходном уровне и в точке с координа­тами  может оказаться незначимой. При большем значении шага возникает опасность проскочить оптимум функ­ции отклика.