Методы Оптимизации Систем Автоматизированного Проектирования

Главная
Классификация задач
Безусловная оптимизация
Условная оптимизация
Глоссарий
Карта сайта

Условия экстремума задачи безусловной минимизации.

Теорема1.

(Необходимое условие локальной оптимальности). Пусть- точка локального экстремума f(x), и f(x) дифференцируема в, тогда выполняется условие стационарности.
Не всякая из точек, удовлетворяющих условию стационарности, является точкой экстремума. Она может быть седловой точкой.
В случае функции многих переменных, характер стационарной точкисвязан со знакоопределенностью матрицы Гессе

Теорема2.

(Достаточное условие локальной оптимальности). Пусть в точкефункция f(x) дважды дифференцируема и выполнено условие стационарности. Тогда, если матрица Гессе является положительно (отрицательно) определенной, тоточка локального минимума (максимума); если матрицаявляется неопределенной, тоседловая точка.

Пример.

Решение.

Градиент функции есть:

Запишем необходимые условия экстремума:

Получена стационарная точка
Для определения характера стационарной точки составим матрицу Гессе:

Так как все диагональные миноры матрицы Гессе положительны, то она яв-ляется положительно-определенной матрицей и в соответствии с критерием Сильвестра точкаесть точка минимума.


Методы одномерной оптимизации:

-Основные определения
-Метод половинного деления
-Метод "Золотого сечения"
-Метод Фибоначчи
-Метод Пауэлла
-Метод секущих
-Метод касательной

Методы многомерной оптимизации:

Основные понятия и определения
-Основные определения
-Условия экстремума задачи безусловной оптимизации
-Принципы построения численных методов
-Классы функций
-Классификация методов

Методы нулевого порядка

-Метод конфигурации Хука-Дживса
-Метод деформированного многогранника

Методы первого порядка

-Метод градиентного спуска
-Метод наискорейшего спуска
-Метод наискорейшего покоординатного спуска
-Метод сопряженных градиентов

Методы второго порядка

-Метод Ньютона
-Метод Ньютона-Рафсона
-Метод Левенберга-Марквардта

Hosted by uCoz