[ Pobierz całość w formacie PDF ]
//-->TECHNIKIEKSPERYMENTULABORATORIUM5Globalne metody estymacjiparametrów modeli nieliniowychKatedra Metrologii Elektronicznej i FotonicznejWydział Elektroniki Politechniki Wrocławskiej5. Globalne metody estymacji parametrów modeli nieliniowych11. Cel ćwiczeniaCelem ćwiczenia jest zapoznanie się z problematyką estymacji parametrów modelinieliniowych względem parametrów oraz przykładami metod globalnych, w tym należących dogrupy metod „inteligentnych”.2. Program ćwiczenia3. Wprowadzenie teoretyczne3.1. Problematyka estymacji nieliniowejW przypadku modeli nieliniowych pod względem parametrów (NLP) nie da się wyznaczyćˆestymatora wektora parametrówθmetodami znanymi z identyfikacji modeli liniowych, gdyżwykorzystywana w nichmacierz eksperymentu(tożsama z macierzą wrażliwościX)jest terazzależna od poszukiwanego (nieznanego) wektora parametrów:X=X().Stąd konieczne jeststosowanie innych metod. Ich wspólną cechą jest poszukiwanie minimum pewnej funkcjikryterialnejV(),zwanej teżfunkcją celu(fc), której wartość zależy od różnicy między danymieksperymentalnymiyi wyjściem modeluym:Vθ�½fcyymθ,ˆθ�½arg minVθ.θ(1)(2)Podejście takie należy do kategorii zadań optymalizacji. Najczęściej funkcją celu jest błądśredniokwadratowy dopasowania modelu do danych empirycznych.Rys.1. Przykładowy kształt powierzchni funkcji celu w przestrzeni (dwóch) parametrów modelu.W wielu przypadkach kształt funkcji kryterialnej w przestrzeni parametrów modelu jestzłożony (Rys.1) i cechuje się kilkoma minimami lokalnymi (trzy minima widoczne na rysunku),z których jedno jest globalne – i to własno ono powinno zostać odnalezione (daje to najlepszedopasowanie modelu da danych empirycznych, co zazwyczaj związane jest z najdokładniejszymoszacowaniem wartości parametrów modelu). Ogólnie, metody poszukiwania minimum można5. Globalne metody estymacji parametrów modeli nieliniowych2podzielić na globalne (pozwalające zgrubnie oszacować wartości parametrów w pobliżuminimum globalnego) i lokalne (dające zazwyczaj dokładniejsze oszacowanie parametrówokreślających minimum lokalne). Często estymacja parametrów modeli NLP realizowana jest wdwóch etapach: na początku stosuje się metodę globalną, dającą przybliżone wartościestymatorów w sąsiedztwie minimum globalnego, a następnie używana jest metoda gradientowapozwalająca na precyzyjne oszacowanie wartości parametrów w tym minimum.3.2. Ekstensywne metody przeszukiwania przestrzeni parametrówPierwszą grupę metod globalnych stanowią metody ekstensywne, wymagające dużej liczbyoszacowań wartości modelu i funkcji kryterialnej. Zalicza się do nich m.in.metodęenumeryczną,a stochastycznym odpowiednikiem tej metody, z podobnymi ograniczeniami, jestprzeszukiwanie losowe.W klasycznej wersji metody przeszukiwania losowego na początku losowany jest startowywektor parametrów należący do obszaru przeszukiwania Ω (należy pamiętać, że w konkretnymobiekcie wartości jego cech fizycznych należą do ograniczonych przedziałów) i zapamiętywanyˆjako chwilowe oszacowanie optymalneθ, a następnie z rozkładu normalnegok-krotnie(k –duża liczba dobrana z uwzględnieniem czasu symulacji modelu) losowane jest niewielkiezaburzenie losowe δθ(k)(odchylenie standardowe typowo dobierane jest na poziomiepojedynczych % zakresu zmienności danego parametru). W przypadku stałej (a nie losowej)wartości |δθ(k)|, etap ten nazywany jest próbkowaniem hipersfery wokół aktualnego oszacowaniaˆθi. Następnie obliczane są zaburzone wartości wektora parametrówˆˆθik1�½θiθk:ˆθik1 ,(3)ˆtj. pod warunkami, że nowe testowane oszacowanieθik1należy do obszaru przeszukiwania Ω.Dla wszystkichkzaburzonych wektorów parametrów sprawdzane są wartości funkcji celu iwybierany ten z nich, dla którego wartość funkcji kryterialnejVjest najmniejsza (algorytm„schodzi w dół”):ˆˆθi1�½ arg minVθik1.k (4)Warunkiem zakończenie estymacji najczęściej jest brak poprawy dopasowania modelu dodanych (wartośćV)w wielu kolejnych krokach algorytmu.Jeżeli w kroku (3) wyznaczane jest tylko jedno zaburzenie (k = 1), to metoda przyjmujepostaćbłądzenia losowego.3.3. Algorytmy ewolucyjneInteligentną wersją przeszukiwania losowego są algorytmy ewolucyjne, czyli algorytmyoparte na dziedziczności oraz mechanizmach doboru naturalnego. Operują one na populacjiosobników (wektorach parametrów), odtwarzając podstawowe mechanizmy występujące wsystemach biologicznych. Możliwa jest więc wymiana informacji między osobnikami(krzyżowanie), przekazanie informacji przez najlepiej przystosowane osobniki swoich cechnastępnym pokoleniom (dziedziczenie) oraz wprowadzenie losowych zmian do populacji(mutacje). Kontrola algorytmu odbywa się poprzez manipulację jego parametrami, takimi jakwielkość populacji, częstość i sposób mutacji i krzyżowania.Wszystkie algorytmy ewolucyjne opierają się na tych samych konceptach, ale różnią sięsposobem kodowania wartości parametrów modelu oraz rodzajem operatorów używanych dotworzenia kolejnych pokoleń. Główne rodzaje algorytmów ewolucyjnych to:algorytmy genetyczne (GA),strategie ewolucyjne (ES),5. Globalne metody estymacji parametrów modeli nieliniowychprogramowanie genetyczne (GP),programowanie ewolucyjne (EP).33.4. Metoda symulowanego wyżarzaniaKolejną metodą naśladującą procesy zachodzące w naturze jest symulowane wyżarzanie.Metoda wzorowana jest na procesach termodynamicznych towarzyszących powolnemuschładzaniu podgrzanych wcześniej metali lub cieczy. Jej istotą jest analogia z procesemtworzenia się sieci krystalicznej. W wysokich temperaturach molekuły mogą się swobodnieprzemieszczać, mobilność ta jednak stopniowo maleje wraz z procesem powolnego stygnięcia iw końcu tworzą one strukturę sieci krystalicznej uporządkowaną we wszystkich kierunkach. Siećkrystaliczna jest stanem minimalnej energii. Ciekawym jest fakt, że ten stan minimalnej energiiosiągany jest tylko w procesie powolnego stygnięcia. W przypadku, gdy schładzanie następujeszybciej, powstają struktury amorficzne o wyższym stanie energetycznym.Prawdopodobieństwopprzejścia do nowego stanu energetycznego jest opisane rozkłademBoltzmanna:p�½expEi1EikT,(5)gdziekodpowiada stałej Boltzmanna, aTjest aktualną temperaturą medium (algorytmu).Algorytm symulowanego wyżarzania przechodzi w kolejnych krokach z poziomuenergetycznegoEidoEi+1(energia we wzorze odpowiada wartości minimalizowanej funkcjicelu). JeśliEi+1<Ei, zmiana stanu energetycznego następuje bezwarunkowo (krok jestakceptowany), w przeciwnym przypadku może wystąpić, ale z prawdopodobieństwemp.Probabilistyczny rozkład energii stwarza szansę, że algorytm znajdzie się na chwilę w wyższymstanie energetycznym (zwiększy wartość funkcji celu), opuści minimum lokalne i podąży doglobalnego.Algorytm powinien zawierać następujące elementy:funkcję kryterialnąE(analog energii), której minimalizacja jest istotą procedury,generator losowych zaburzeń w wektorze parametrów,parametr kontrolnyT(analog temperatury),funkcję schładzania opisującą sposób zmniejszaniaT.Rys.2. Schemat blokowy algorytmu symulowanego wyżarzania.5. Globalne metody estymacji parametrów modeli nieliniowych4Algorytm symulowanego wyżarzania jest jedną z najpopularniejszych metod optymalizacji, wszczególności w przypadkach, gdy ekstremum globalne jest otoczone wieloma lokalnymi.Algorytm ten nie tylko świetnie radzi sobie np. w rozwiązaniu tzw. problemu komiwojażera, alerównież jest z powodzeniem stosowany przy projektowaniu (optymalizacji) skomplikowanychukładów elektronicznych liczących setki tysięcy elementów.332211p2p2-2-1p1123-1-1-2-2-3-3-3-3-2-1p1123Rys.3. Przykładowe ilustracje działania algorytmu symulowanego wyżarzania dla funkcji kryterialnej z rys.1(wektor startowy oznaczony jest kółkiem, odnalezione minimum gwiazdką, kroki zmniejszające energię linią białą,a ze zwiększoną energią linią czerwoną).4. Uwagi do wykonania ćwiczeniaLiteratura uzupełniająca[1] L. Davis (ed.):Genetic Algorithms and Simulated Annealing.Pitman, London 1987.[2] D.E. Goldberg:Algorytmy genetyczne i ich zastosowania.WNT, Warszawa 2003.[3] Z. Michalewicz,Algorytmy genetyczne + struktury danych = programy ewolucyjne.WNT,Warszawa 2003.
[ Pobierz całość w formacie PDF ]