![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
Общий недостаток всех рассмотренных выше методов решения систем нелинейных уравнений – это сугубо локальный характер сходимости, затрудняющий их применение в случаях, когда имеются проблемы с выбором хороших начальных приближений. Чтобы решить такую задачу, нужно поставить задачу нахождения решений данной нелинейной системы как оптимизационную или, иначе, экстремальную задачу [1].
Из функций f и g системы образуем новую функцию
. (2.22)
Так как эта функция неотрицательна, то найдётся точка (и не единственная) такая, что
,
т.е. . Следовательно, если тем или иным способом удаётся получить точку
, минимизирующую функцию
, и если при этом окажется, что
, то
- искомое решение системы
, поскольку
.
Последовательность точек - приближёний к точке
минимума
- обычно получают по рекуррентной формуле
(2.23)
где - вектор, определяющий направление минимизации, а
- скалярная величина, характеризующая величину шага минимизации (шаговый множитель). Учитывая геометрический смысл задачи минимизации функции двух переменных
- «спуск на дно» поверхности z =
(см. лаб. раб. №7), итерационный метод (2.23) можно назвать методом спуска, если вектор
при каждом k является направлением спуска (т.е. существует такое α > 0, что
) и если множитель
подбирается так, чтобы выполнялось условие релаксации
, означающее переход на каждой итерации в точку с меньшим значением минимизируемой функции.
Итак, при построении численного метода вида (2.23) минимизации функции следует ответить на два главных вопроса: как выбирать направление спуска
и как регулировать длину шага в выбранном направлении с помощью скалярного параметра – шагового множителя
.
При выборе направления спуска естественным является выбор такого направления, в котором минимизируемая функция убывает наиболее быстро. Как известно из математического анализа функции нескольких переменных, направление наибольшего возрастания функции в данной точке показывает её градиент в этой точке. Поэтому примем за направление спуска вектор
- антиградиент функции . Таким образом, из семейства методов (2.23) выделяем градиентный метод
. (2.24)
Оптимальный шаг в направлении антиградиента – это такой шаг, при котором значение - наименьшее среди всех других значений
в этом фиксированном направлении, т.е. когда точка
является точкой условного минимума. Следовательно, можно рассчитывать на наиболее быструю сходимость метода (2.24), если полагать в нём
. (2.25)
Такой выбор шагового множителя, называемый исчерпывающим спуском, вместе с формулой (2.24) определяет метод наискорейшего спуска [1].
Дата публикования: 2014-11-04; Прочитано: 1056 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!