Методы Оптимизации Систем Автоматизированного Проектирования

Главная
Классификация задач
Безусловная оптимизация
Условная оптимизация
Глоссарий
Карта сайта


Шаг 2. Проверить выполнение критерия останова
а) если критерий выполнен, расчет окончен,
б) если критерий не выполнен, то перейти к шагу 3.
Шаг 3. Вычислить величину шагаиз условия

Шаг 4. Вычислить
Шаг 5. Положить k= k +1 и перейти к шагу 1

Сходимость метода.

Теорема 2. Пусть функция f(x) дифференцируема и ограничена снизу на, а ее градиент удовлетворяет условию Липшица

Тогда при произвольной начальной точке для метода наискорейшего градиентного спуска с постоянным шагом имеем

Отметим, что теорема гарантирует сходимость последовательности к стационарной точке , где .Поэтому найденная точкануждается в дополнительном исследовании для ее классификации.
Оценка скорости сходимости получена только для сильно выпуклых функций, в этом случае последовательность сходится к точке минимума функции f(x) со скоростью геометрической прогрессии (линейная сходимость)

где M и m – оценки наибольшего и наименьшего собственных значений матрицы Гессе H(x) функции f(x).

Пример.

Решение.


Итерация 0.

Итерация 1.

Стр.: 1, ..., 3


Методы одномерной оптимизации:

-Основные определения
-Метод половинного деления
-Метод "Золотого сечения"
-Метод Фибоначчи
-Метод Пауэлла
-Метод секущих
-Метод касательной

Методы многомерной оптимизации:

Основные понятия и определения
-Основные определения
-Условия экстремума задачи безусловной оптимизации
-Принципы построения численных методов
-Классы функций
-Классификация методов

Методы нулевого порядка

-Метод конфигурации Хука-Дживса
-Метод деформированного многогранника

Методы первого порядка

-Метод градиентного спуска
-Метод наискорейшего спуска
-Метод наискорейшего покоординатного спуска
-Метод сопряженных градиентов

Методы второго порядка

-Метод Ньютона
-Метод Ньютона-Рафсона
-Метод Левенберга-Марквардта

Hosted by uCoz