Приказ основних података о дисертацији

Metodi linijskog pretrazivanja sa promenljivom velicinom uzorka

dc.contributor.advisorKrejić, Nataša
dc.contributor.otherLužanin, Zorana
dc.contributor.otherKrejić, Nataša
dc.contributor.otherBellavia, Stefania
dc.contributor.otherSpalević, Miodrag
dc.creatorKrklec Jerinkić, Nataša
dc.date.accessioned2015-12-29T11:17:40Z
dc.date.available2015-12-29T11:17:40Z
dc.date.available2020-07-03T13:43:53Z
dc.date.issued2014-01-17
dc.identifier.urihttp://www.cris.uns.ac.rs/DownloadFileServlet/Disertacija139575009581751.pdf?controlNumber=(BISIS)85780&fileName=139575009581751.pdf&id=1644&source=NaRDuS&language=srsr
dc.identifier.urihttps://nardus.mpn.gov.rs/handle/123456789/1736
dc.identifier.urihttp://www.cris.uns.ac.rs/record.jsf?recordId=85780&source=NaRDuS&language=srsr
dc.identifier.urihttp://www.cris.uns.ac.rs/DownloadFileServlet/IzvestajKomisije139575010105634.pdf?controlNumber=(BISIS)85780&fileName=139575010105634.pdf&id=1645&source=NaRDuS&language=srsr
dc.description.abstractThe problem under consideration is an unconstrained optimization problem with the objective function in the form of mathematical ex-pectation. The expectation is with respect to the random variable that represents the uncertainty. Therefore, the objective  function is in fact deterministic. However, nding the analytical form of that objective function can be very dicult or even impossible. This is the reason why the sample average approximation is often used. In order to obtain reasonable good approximation of the objective function, we have to use relatively large sample size. We assume that the sample is generated at the beginning of the optimization process and therefore we can consider this sample average objective function as the deterministic one. However, applying some deterministic method on that sample average function from the start can be very costly. The number of evaluations of the function under expectation is a common way of measuring the cost of an algorithm. Therefore, methods that vary the sample size throughout the optimization process are developed. Most of them are trying to determine the optimal dynamics of increasing the sample size. The main goal of this thesis is to develop the clas of methods that can decrease the cost of an algorithm by decreasing the number of function evaluations. The idea is to decrease the sample size whenever it seems to be reasonable - roughly speaking, we do not want to impose a large precision, i.e. a large sample size when we are far away from the solution we search for. The detailed description of the new methods  is presented in Chapter 4 together with the convergence analysis. It is shown that the approximate solution is of the same quality as the one obtained by dealing with the full sample from the start. Another important characteristic of the methods that are proposed here is the line search technique which is used for obtaining the sub-sequent iterates. The idea is to nd a suitable direction and to search along it until we obtain a sucient decrease in the  function value. The sucient decrease is determined throughout the line search rule. In Chapter 4, that rule is supposed to be monotone, i.e. we are imposing strict decrease of the function value. In order to decrease the cost of the algorithm even more and to enlarge the set of suitable search directions, we use nonmonotone line search rules in Chapter 5. Within that chapter, these rules are modied to t the variable sample size framework. Moreover, the conditions for the global convergence and the R-linear rate are presented.  In Chapter 6, numerical results are presented. The test problems are various - some of them are academic and some of them are real world problems. The academic problems are here to give us more insight into the behavior of the algorithms. On the other hand, data that comes from the real world problems are here to test the real applicability of the proposed algorithms. In the rst part of that chapter, the focus is on the variable sample size techniques. Different implementations of the proposed algorithm are compared to each other and to the other sample schemes as well. The second part is mostly devoted to the comparison of the various line search rules combined with dierent search directions in the variable sample size framework. The overall numerical results show that using the variable sample size can improve the performance of the algorithms signicantly, especially when the nonmonotone line search rules are used. The rst chapter of this thesis provides the background material for the subsequent chapters. In Chapter 2, basics of the nonlinear optimization are presented and the focus is on the line search, while Chapter 3 deals with the stochastic framework. These chapters are here to provide the review of the relevant known results, while the rest of the thesis represents the original contribution. en
dc.description.abstractU okviru ove teze posmatra se problem optimizacije bez ograničenja pri čcemu je funkcija cilja u formi matematičkog očekivanja. Očekivanje se odnosi na slučajnu promenljivu koja predstavlja neizvesnost. Zbog toga je funkcija cilja, u stvari, deterministička veličina. Ipak, odredjivanje analitičkog oblika te funkcije cilja može biti vrlo komplikovano pa čak i nemoguće. Zbog toga se za aproksimaciju često koristi uzoračko očcekivanje. Da bi se postigla dobra aproksimacija, obično je neophodan obiman uzorak. Ako pretpostavimo da se uzorak realizuje pre početka procesa optimizacije, možemo posmatrati uzoračko očekivanje kao determinističku funkciju. Medjutim, primena nekog od determinističkih metoda direktno na tu funkciju  moze biti veoma skupa jer evaluacija funkcije pod ocekivanjem često predstavlja veliki trošak i uobičajeno je da se ukupan trošak optimizacije meri po broju izračcunavanja funkcije pod očekivanjem. Zbog toga su razvijeni metodi sa promenljivom veličinom uzorka. Većcina njih je bazirana na odredjivanju optimalne dinamike uvećanja uzorka. Glavni cilj ove teze je razvoj algoritma koji, kroz smanjenje broja izračcunavanja funkcije, smanjuje ukupne trošskove optimizacije. Ideja je da se veličina uzorka smanji kad god je to moguće. Grubo rečeno, izbegava se koriscenje velike preciznosti  (velikog uzorka) kada smo daleko od rešsenja. U čcetvrtom poglavlju ove teze opisana je nova klasa metoda i predstavljena je analiza konvergencije. Dokazano je da je aproksimacija rešenja koju dobijamo bar toliko dobra koliko i za metod koji radi sa celim uzorkom sve vreme. Još jedna bitna karakteristika metoda koji su ovde razmatrani je primena linijskog pretražzivanja u cilju odredjivanja naredne iteracije. Osnovna ideja je da se nadje odgovarajući pravac i da se duž njega vršsi pretraga za dužzinom koraka koja će dovoljno smanjiti vrednost funkcije. Dovoljno smanjenje je odredjeno pravilom linijskog pretraživanja. U čcetvrtom poglavlju to pravilo je monotono što znači da zahtevamo striktno smanjenje vrednosti funkcije. U cilju jos većeg smanjenja troškova optimizacije kao i proširenja skupa pogodnih pravaca, u petom poglavlju koristimo nemonotona pravila linijskog pretraživanja koja su modifikovana zbog promenljive velicine uzorka. Takodje, razmatrani su uslovi za globalnu konvergenciju i R-linearnu brzinu konvergencije. Numerički rezultati su predstavljeni u šestom poglavlju. Test problemi su razliciti - neki od njih su akademski, a neki su realni. Akademski problemi su tu da nam daju bolji uvid u ponašanje algoritama. Sa druge strane, podaci koji poticu od stvarnih problema služe kao pravi test za primenljivost pomenutih algoritama. U prvom delu tog poglavlja akcenat je na načinu ažuriranja veličine uzorka. Različite varijante metoda koji su ovde predloženi porede se medjusobno kao i sa drugim šemama za ažuriranje veličine uzorka. Drugi deo poglavlja pretežno je posvećen poredjenju različitih pravila linijskog pretraživanja sa različitim pravcima pretraživanja u okviru promenljive veličine uzorka. Uzimajuci sve postignute rezultate u obzir dolazi se do zaključcka da variranje veličine uzorka može značajno popraviti učinak algoritma, posebno ako se koriste nemonotone metode linijskog pretraživanja. U prvom poglavlju ove teze opisana je motivacija kao i osnovni pojmovi potrebni za praćenje preostalih poglavlja. U drugom poglavlju je iznet pregled osnova nelinearne optimizacije sa akcentom na metode linijskog pretraživanja, dok su u trećem poglavlju predstavljene osnove stohastičke optimizacije. Pomenuta poglavlja su tu radi pregleda dosadašnjih relevantnih rezultata dok je originalni doprinos ove teze predstavljen u poglavljima 4-6.sr
dc.languageen
dc.publisherУниверзитет у Новом Саду, Природно-математички факултетsr
dc.relationinfo:eu-repo/grantAgreement/MESTD/Basic Research (BR or ON)/179010/RS//
dc.rightsopenAccessen
dc.rights.urihttps://creativecommons.org/share-your-work/public-domain/cc0/
dc.sourceУниверзитет у Новом Садуsr
dc.subjectNonlinear optimizationen
dc.subjectNelinearna optimizacijasr
dc.subjectmetodi linijskog pretrazivanjasr
dc.subjectnemonotono linijsko pretrazivanjesr
dc.subjectuzoracko ocekivanjesr
dc.subjectpromenljiva velicina uzorkasr
dc.subjectstohasticka opti-mizacijasr
dc.subjectline search methodsen
dc.subjectnonmonotone line searchen
dc.subjectsample average approximationen
dc.subjectvariable sample sizeen
dc.subjectstochastic optimizationen
dc.titleLine search methods with variable sample sizeen
dc.titleMetodi linijskog pretrazivanja sa promenljivom velicinom uzorkasr
dc.typedoctoralThesisen
dc.rights.licenseCC0
dcterms.abstractКрејић Наташа; Спалевић Миодраг; Крејић Наташа; Беллавиа Стефаниа; Лужанин Зорана; Крклец Јеринкић Наташа; Методи линијског претразивања са променљивом велицином узорка; Методи линијског претразивања са променљивом велицином узорка;
dc.identifier.fulltexthttp://nardus.mpn.gov.rs/bitstream/id/38317/Disertacija.pdf
dc.identifier.fulltexthttp://nardus.mpn.gov.rs/bitstream/id/38318/IzvestajKomisije.pdf
dc.identifier.fulltexthttps://nardus.mpn.gov.rs/bitstream/id/38317/Disertacija.pdf
dc.identifier.fulltexthttps://nardus.mpn.gov.rs/bitstream/id/38318/IzvestajKomisije.pdf
dc.identifier.doi10.2298/ns20140117krklec
dc.identifier.rcubhttps://hdl.handle.net/21.15107/rcub_nardus_1736


Документи за докторску дисертацију

Thumbnail
Thumbnail

Ова дисертација се појављује у следећим колекцијама

Приказ основних података о дисертацији