Методы Оптимизации Систем Автоматизированного Проектирования

Главная
Классификация задач
Безусловная оптимизация
Условная оптимизация
Глоссарий
Карта сайта

Метод Флетчера-Ривса (Метод сопряженных градиентов).

Стратегия поиска.Рассмотренные выше градиентные методы отыскивают точку минимума функции в общем случае лишь за бесконечное число итераций. Метод сопряженных градиентов формирует направления поиска, в большей мере соответствующие геометрии минимизируемой функции.
Определение. Два n-мерных вектора х и у называют сопряженными по отношению к матрице H (или H-сопряженными), если скалярное произведение (x, Ну) = 0. Здесь Н - симметрическая положительно определенная матрица размером пхп.
Стратегия метода Флетчера-Ривса состоит в построении последовательности точек , k=0, 1, 2, ... таких, что, k=0, 1, 2, ...
Точки последовательности вычисляются по правилу:

Величина шага выбирается из условия минимума функции f(х) по t в направлении движения, т. е. в результате решения задачи одномерной минимизации:

Отметим, что при данном выборев случае квадратичной функции f(x)= (х, Нх) + (b, х) + а направления будут H-сопряженными, т.е.
При этом в точках последовательности градиенты функции f(x) взаимно перпендикулярны, т.е.
При минимизации неквадратичных функций метод Флетчера-Ривса не является конечным. Для неквадратичных функций используется следующая модификация метод Флетчера-Ривса (метод Полака-Рибьера), когда величинавычисляется следующим образом:

Здесь I- множество индексов: I = {0, n, 2n, Зn, ...}, т. е. метод Полака-Рибьера предусматривает использование итерации наискорейшего градиентного спуска через каждые n шагов с заменой на.
Построение последовательностизаканчивается в точке, для которой .
Геометрический смысл метода сопряженных градиентов состоит в следующем. Из заданной начальной точки осуществляется спуск в направлении.В точке определяется вектор-градиент.Поскольку является точкой минимума функции в направлении , тоортогонален вектору . Затем отыскивается вектор , H-сопряженный к . Далее отыскивается минимум функции вдоль направления и т. д.

Стр.: ..., 2, 3, 4


Методы одномерной оптимизации:

-Основные определения
-Метод половинного деления
-Метод "Золотого сечения"
-Метод Фибоначчи
-Метод Пауэлла
-Метод секущих
-Метод касательной

Методы многомерной оптимизации:

Основные понятия и определения
-Основные определения
-Условия экстремума задачи безусловной оптимизации
-Принципы построения численных методов
-Классы функций
-Классификация методов

Методы нулевого порядка

-Метод конфигурации Хука-Дживса
-Метод деформированного многогранника

Методы первого порядка

-Метод градиентного спуска
-Метод наискорейшего спуска
-Метод наискорейшего покоординатного спуска
-Метод сопряженных градиентов

Методы второго порядка

-Метод Ньютона
-Метод Ньютона-Рафсона
-Метод Левенберга-Марквардта

Hosted by uCoz