RSS    

   Методы спуска - (реферат)

Методы спуска - (реферат)

Дата добавления: март 2006г.

    Методы спуска
    Общая схема.

Все методы спуска решения задачи безусловной минимизации различаются либо выбором направления спуска, либо способом движения вдоль направления спуска. Это позволяет написать общую схему методов спуска.

Решается задача минимизации функции j(x) на всём пространстве En. Методы спуска состоят в следующей процедуре построения последовательности {xk}. В качестве начального приближения выбирается любая точка x0ОEn. Последовательные приближения x1, x2, … строятся по следующей схеме: в точке xk выбирают направление спуска - Sk;

    находят (k+1)-е приближение по формуле xk+1=xk-pkSk.

Направление Sk выбирают таким образом, чтобы обеспечить неравенство j(xk+1)

Одним из самых распространённых методов минимизации, связанных с вычислением градиента, является метод спуска по направлению антиградиента минимизируемой функции. В пользу такого выбора направления спуска можно привести следующие соображения. Поскольку антиградиент, то естьj’(xk) в точке xkуказывает направление наискорейшего убывания функции, то естественным представляется сместиться из точки xk по этому направлению. Метод спуска, в котором Sk=j’(xk), называется методом градиентного спуска. Величина bkв методе градиентного спуска традиционно вычисляется путём применения одного из методов одномерной минимизации функцииy(b)=j(xk-bj’(xk)), что не исключает применение и других способов отыскания bk. Если в качестве bk выбирают точку одномерного минимума функции y(b)=j(xk-bSk) релаксационный процесс называется методом наискорейшего спуска: xk+1=xk-bkj’(xk), bk=arg min bі0. Метод покоординатного спуска.

Одним из наиболее простых способов определения направления спуска является выбор в качестве Sk одного из координатных векторов ±e1, ±e2, …, ±en, вследствие чего у xk на каждой итерации изменяется лишь одна из компонент. Существуют многочисленные варианты покоординатного спуска. Но в любом из этих методов выбирают в качестве -Sk то из двух направлений, +ej, -ej, которому соответствует неравенство [j’(xk), Sk] > 0.

В случае, если =0, полагают xk+1=xk и переходят к следующей итерации. Опишем первый цикл метода, состоящий из n итераций. В произвольной точке x0 выбирают S0=±e, и определяет величину b0 способом удвоения так, чтобы было j(x1)=j(x0-b0S0)
    Практическое задание

На практике нам нужно было найти минимум функции z(x)=x2+y2-xy-3y c точностью e, используя описанные выше методы. Нахождение минимума моей функции с помощью метода покоординатного спуска. Для нахождения минимума моей функции с помощью метода покоординатного спуска я использовал программу, представленную ниже. Входными параметрами этой программы являются координаты начальной точки (я взял х=10, y=10), начальный шаг по х и по y (я взялDх=0. 5 и Dy=0. 5), а так же точность (e=10-5; большую точность брать не имеет смысла, поскольку во время выполнения программы накапливается ошибка и искажает данные такой точности). Итак, взяв в качестве начальных условий эти значения я получил координаты точки минимума: х= 1, 00000977

    y= 1, 99999931
    z=-3, 00000142

Для получения результата программой было выполнено 24 итерации.

    Нахождение минимума с помощью метода градиентного спуска.

Программа, использованная мной для выполнения этой задачи представлена ниже. Поскольку входные параметры этой программы совпадают со входными параметрами задачи №1, то я взял их такие же, что и для первой задачи, чтобы, сравнив полученные результаты и количество итераций, необходимых для поиска минимума, я смог сделать какие-либо выводы о преимуществах и недостатках обеих задач из практики.

Итак, взяв те же начальные условия я получил следующие результаты: x= 1, 00000234

    y= 2, 00000119
    z=-3, 00000094

Количество итераций, которое потребовалось для нахождения точки минимума равно 20. Видно, что количество итераций, потребовавшееся первой программе больше, чем количество итераций, необходимых второй программе. Это следует из того, что антиградиент указывает направление наискорейшего убывания функции. Ниже также представлен график сходимости вышеописанного процесса для моей функции и моих начальных условий.

Необходимо также добавить несколько важных моментов. Во-первых, из того, что количество итераций, потребовавшееся для нахождения минимума в первой задаче больше, чем во второй не следует тот факт, что вторая программа работает быстрее, чем первая, поскольку для второй задачи необходимо вычислять не только значение функции в какой-либо точке, но и её производной в этой точке, которая может быть более громоздка, чем сама функция. Наконец, второй метод плох ещё и потому, что для произвольной функции производную вычислить невозможно; придётся сначала аппроксимировать её, а затем искать минимум (за счёт аппроксимации значительно вырастает время и погрешность измерений).


Новости


Быстрый поиск

Группа вКонтакте: новости

Пока нет

Новости в Twitter и Facebook

                   

Новости

© 2010.