Direkt zum Inhalt

Lexikon der Mathematik: stochastische Optimierung

stochastische Programmierung, Theorie zur Lösung von Optimierungsproblemen, bei deren Formulierung gewisse Parameter eine Rolle spielen, die Zufallsgrößen sind.

Solche probabilistischen Situationen treten beispielsweise auf, wenn man Meßfehler begeht oder Aussagen über zukünftige Prozesse macht. Die zugehörigen beschreibenden Parameter sind dann nur in einem statistischen Sinne verfügbar.

Eine typische Modellierung derartiger Probleme sieht wie folgt aus. Basierend auf einer ersten Beobachtung \({w}_{1}\in {{\mathbb{R}}}^{{k}_{1}}\) einer Zufallsgröße wird eine Entscheidung \({x}_{1}\in {{\mathbb{R}}}^{{n}_{1}}\) getroffen. Dies bewirkt Kosten der Größe f1 (x1, w1). Anschließend wird eine neue Beobachtung \({w}_{2}\in {{\mathbb{R}}}^{{k}_{2}}\) gemacht. Die neue Entscheidung \({x}_{2}\in {{\mathbb{R}}}^{{n}_{2}}\) kann jetzt von (w1, w2) abhängen und verursacht Kosten f2 (x1, x2, w1, w2). Dieser Prozeß wird, unter Umständen unendlich oft, fortgesetzt. Von größtem Interesse sind allerdings Prozesse mit lediglich zwei oder drei Stufen.

Ziel ist nunmehr das Auffinden sogenannter Rekursfunktionen x1 (w1), x2 (w1, w2), …, welche Entscheidungen liefern, die die erwarteten Kosten minimieren. Die xi können dabei zusätzlich weiteren Nebenbedingungen unterliegen.

Als Beispiel folgt die Formulierung eines linearen stochastischen Programms in zwei Stufen. Üblicherweise nimmt man zusätzlich an, daß die erste Entscheidung x1 nicht bereits durch Zufallsphänomene beeinflußt wird (d. h. w1 oben entfällt in diesem Fall). Ein derartiges Problem lautet dann \begin{eqnarray}\min {c}^{T}\cdot {x}_{1}+E[Z({x}_{1},{w}_{2})]\end{eqnarray}

unter den Nebenbedingungen A · x1 = b, x1 ≥ 0. Hierbei bezeichnet cT · x1 die direkten Kosten der ersten Entscheidung und E[Z(x1, w2)] die erwarteten Kosten der zweiten Entscheidung unter Beachtung der Nebenbedingungen für x1. Z selbst hat die Form Z(x1, w2) = min d(w2)T ·x2 unter den Nebenbedingungen W · x2 = p(w2) − T(w2) · x1, x2 ≥ 0. Dabei sind die Vektoren d und p sowie die Matrix T Zufallsgrößen. W ist i. allg. eine feste Matrix, kann aber ebenfalls von w2 abhängig gemacht werden. Die Rekurskosten hängen von der anfänglichen Entscheidung x1 und dem Zufallsergebnis w2 ab. Das zweite obige lineare Programm beschreibt dann, wie man die zweite Entscheidung x2 treffen muß. Die zugehörigen Nebenbedingungen können als Korrektur des Systems aufgefaßt werden, nachdem es durch ein Zufallsereignis verändert wurde.

[1] Birge, J.R.; Louveaux, F.: Introduction to Stochastic Programming. Springer Series in Operations Research, Springer, 1997.
[2] Dempster, M.: Stochastic Programming. Academic Press, London, 1980.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.