Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
Dynamic Programming (DP) provides a powerful framework for modeling complex decision problems where uncertainty is resolved and decisions are made over time. But it is difficult to scale to complex problems. Monte Carlo simulation methods, however, typically scale well, but typically do not provide a good way to identify an optimal policy or provide a performance bound. To address these restrictions, the authors review the information relaxation approach which works by reducing a complex stochastic DP to a series of scenario-specific deterministic optimization problems solved within a Monte Carlo simulation. Written in a tutorial style, the authors summarize the key ideas of information relaxation methods for stochastic DPs and demonstrate their use in several examples. They provide a "one-stop-shop" for researchers seeking to learn the key ideas and tools for using information relaxation methods. This book provides the reader with a comprehensive overview of a powerful technique for use by students, researchers and practitioners.