Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Bezwarunkowe metody minimalizacji

    1. Reklama

    NIEKONDYCYJNE METODY MINIMALIZACJI, metody zaprojektowane w celu znalezienia minimum funkcji wielu zmiennych f (x) w przypadku, gdy dodatkowe ograniczenia nie są nakładane na wartości argumentu. Bezwarunkowe metody minimalizacji stanowią ważną klasę metod optymalizacji. Problem znalezienia maksimum poprzez zmianę znaku funkcji f (x) sprowadza się do problemu znalezienia minimum. W przypadku, gdy f zależy od pojedynczej zmiennej skalarnej x, minimalizacja funkcji f (x) jest zwykle nazywana jednowymiarową. Grupa metod minimalizacji jednowymiarowej obejmuje: pół-podział, wyszukiwanie losowe, metodę Fibonacciego, metodę złotej sekcji itp.

    W metodzie bezwarunkowej minimalizacji, w procesie minimalizacji, konstruowana jest pewna sekwencja punktów x1, x2 xk przestrzeni wielowymiarowej i, w zależności od wartości funkcji f, znajduje się nowy punkt xk + 1 w tych punktach.Zasada konstruowania sekwencji jest określona przez wybraną metodę minimalizacji.

    W bezwarunkowej metodzie minimalizacji istotną rolę odgrywa gładkość funkcji f. Zwiększenie gładkości zminimalizowanej funkcji f pozwala budować bardziej wydajne metody. Bezwarunkowe metody minimalizacji są podzielone na trzy główne klasy.

    Reklama

    Jedna klasa składa się z metod, które nie używają pochodnych funkcji f. Klasa ta obejmuje wyszukiwanie losowe, metodę spadku współrzędnych itp.

    Inna klasa składa się z metod gradientowych, w których zakłada się, że funkcja f jest kiedyś różniczkowalna. W metodzie zstępującego gradientu, po obliczeniu wartości funkcji f i jej gradientu fx w punkcie xk, nowy punkt znajduje się za pomocą wzoru

    W metodzie zstępującego gradientu, po obliczeniu wartości funkcji f i jej gradientu fx w punkcie xk, nowy punkt znajduje się za pomocą wzoru

    gdzie αk jest liczbą nieujemną (krok zniżania). W pewnych warunkach sekwencja x1, x2, ... zbiega się z lokalnym punktem minimalnym funkcji f (x). Jeśli dla każdego k wielkość αk jest określana na podstawie warunku jednowymiarowej minimalizacji funkcji f (xk + 1) przez αk, a następnie dochodzimy do metody najbardziej stromego zejścia. Istnieją również metody zwane s-step, w których nowy punkt xk jest określony przez poprzednie punkty. Jedną z najprostszych metod dwuetapowych jest metoda gradientu sprzężonego, w której

    Jedną z najprostszych metod dwuetapowych jest metoda gradientu sprzężonego, w której

    gdzie αk ≥ 0, βk ≥0 to parametry określone przez rozwiązanie problemu minimalizacji dwuwymiarowej f (xk + 1) przez αk i βk.

    Trzecia klasa to metoda Newtona i jej modyfikacje. Zakłada się, że funkcja f jest dwukrotnie różniczkowalna. Punkt xk + 1 jest obliczany według wzoru

    gdzie f-1xx (xk) jest macierzą odwrotną do macierzy drugich pochodnych fxx (xk). Gdy αk = 1, metoda ta nazywana jest metodą Newtona i jest często używana w rozwiązywaniu zastosowanych problemów. Wadą tej metody jest złożoność obliczeń i lokalny charakter zbieżności.

    Istnieją modyfikacje metody Newtona. W niektórych z nich, w celu skrócenia czasu obliczeń, macierz fxx (xk) jest ustalana w kilku kolejnych krokach. W innych przykładach wykonania krok αk jest wybierany z warunku minimalnej wartości funkcji f (xk + 1) lub normy jej gradientu.

    Wymienione metody minimalizacji bezwarunkowej mają na celu znalezienie lokalnych minimów funkcji f (x), a tylko dla funkcji wypukłych znalezione rozwiązania dają globalne minimum. Zadanie znalezienia minimum jest jeszcze bardziej skomplikowane w przypadku znalezienia warunkowego minimum, gdy dodatkowe ograniczenia są nakładane na wartości argumentu x.

    Oświetlone.: Himmelblau D. Zastosowane programowanie nieliniowe. M., 1975; Evtushenko Yu G. Metody rozwiązywania ekstremalnych problemów i ich zastosowanie w systemach optymalizacji. M., 1982; Polyak B. T. Wprowadzenie do optymalizacji. M., 1983; F. P. Vasiliev Metody optymalizacji. M., 2002.

    Yu G. Evtushenko.


     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»