Read more
I. Grundlegende Begriffe und Sätze.- § 1. Praktische Beispiele für Kontrollprobleme.- § 2. Problemstellung und Voraussetzungen.- § 3. Stetigkeit des Zielfunktionais F(y).- § 4. Existenz und Eindeutigkeit optimaler Steuerungen.- II. Dynamische Optimierung.- § 5. Ermittlung einer Näherungslösung für Kontrollprobleme mit vorgegebenem Endzeitpunkt mit Hilfe der BELLMANschen Punktionalgleichung.- § 6. Sätze zur Theorie der dynamischen Optimierung.- § 7. Numerische Realisierung der Methode der dynamischen Optimierung.- III. Ermittlung optimaler Steuerungen mit Hilfe des Maximumprinzips.- § 8. Das Maximumprinzip und die Transversalitätsbedingung.- § 9. Zur Theorie der linearen Kontrollprobleme.- § 10. Optimale Steuerung linearer Eontrollprobleme mit vorgegebenem Endzeitpunkt.- § 11. Lineare zeitoptimale Probleme.- § 12. Lösung nichtlinearer Kontrollprobleme.- A1. Konvexe Mengen und Punktionen.- A2. LEBESGUE-integrable Punktionen.- A3. Funktionalanalysis.
List of contents
I. Grundlegende Begriffe und Sätze.-
1. Praktische Beispiele für Kontrollprobleme.-
2. Problemstellung und Voraussetzungen.-
3. Stetigkeit des Zielfunktionais F(y).-
4. Existenz und Eindeutigkeit optimaler Steuerungen.- II. Dynamische Optimierung.-
5. Ermittlung einer Näherungslösung für Kontrollprobleme mit vorgegebenem Endzeitpunkt mit Hilfe der BELLMANschen Punktionalgleichung.-
6. Sätze zur Theorie der dynamischen Optimierung.-
7. Numerische Realisierung der Methode der dynamischen Optimierung.- III. Ermittlung optimaler Steuerungen mit Hilfe des Maximumprinzips.-
8. Das Maximumprinzip und die Transversalitätsbedingung.-
9. Zur Theorie der linearen Kontrollprobleme.-
10. Optimale Steuerung linearer Eontrollprobleme mit vorgegebenem Endzeitpunkt.-
11. Lineare zeitoptimale Probleme.-
12. Lösung nichtlinearer Kontrollprobleme.- A1. Konvexe Mengen und Punktionen.- A2. LEBESGUE-integrable Punktionen.- A3. Funktionalanalysis.