skriptum methoden der optimierung und optimalen steuerung ... · c prof. dr.-ing. knut graichen,...

167
METHODEN DER OPTIMIERUNG UND OPTIMALEN STEUERUNG Wintersemester 2012/2013 Prof. Dr.-Ing. Knut Graichen Institut f¨ ur Mess–, Regel– und Mikrotechnik Fakult¨ at f¨ ur Ingenieurwissenschaften und Informatik Universit¨ at Ulm

Upload: phunghanh

Post on 05-Aug-2019

290 views

Category:

Documents


3 download

TRANSCRIPT

  • METHODEN DER OPTIMIERUNG

    UND OPTIMALEN STEUERUNG

    Wintersemester 2012/2013

    Prof. Dr.-Ing. Knut Graichen

    Institut fur Mess, Regel und Mikrotechnik

    Fakultat fur Ingenieurwissenschaften und Informatik

    Universitat Ulm

  • Cum enim mundi universi fabrica sit perfectissima atque a Creatoresapientissimo absoluta, nihil omnino in mundo contingit, in quo nonmaximi minimive ratio quaepiam eluceat; quamobrem dubium prorsusest nullum, quin omnes mundi effectus ex causis finalibus ope methodimaximorum et minimorum aeque feliciter determinari queant, atque exipsis causis efficientibus.

    Da namlich der Bau der gesamten Welt hochst vollkommen und vomweisesten Schopfer vollendet wurde, geschieht uberhaupt nichts in derWelt, bei dem nicht das Verhaltnis eines Maximums oder Minimumshervorleuchtet; deshalb gibt es durchaus keinen Zweifel, dass alleWirkungen der Welt, die auf Finalursachen beruhen, mit Hilfe derMethode der Maxima und Minima gleich erfolgreich bestimmt werdenkonnen wie aus den bewirkten Ursachen selbst.

    Leonhard Euler, Variationsrechnung, 1744.

  • Inhaltsverzeichnis

    1 Einleitung 1

    1.1 Statische Optimierungsprobleme . . . . . . . . . . . . . . . . . . . . . . . . 1

    1.1.1 Mathematische Formulierung . . . . . . . . . . . . . . . . . . . . . 2

    1.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

    1.2 Dynamische Optimierungsprobleme . . . . . . . . . . . . . . . . . . . . . . 6

    1.2.1 Mathematische Formulierung . . . . . . . . . . . . . . . . . . . . . 6

    1.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    1.3 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2 Grundlagen der Optimierung 11

    2.1 Lokale/globale Minima und zulassige Menge . . . . . . . . . . . . . . . . . 11

    2.2 Gradient und Hessematrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

    2.3 Konvexitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2.3.1 Konvexe Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2.3.2 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    2.3.3 Konvexe Optimierungsprobleme . . . . . . . . . . . . . . . . . . . . 18

    2.4 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    3 Statische Optimierung ohne Beschrankungen 21

    3.1 Notwendige Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . . 21

    3.2 Hinreichende Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . 23

    3.3 Numerische Losung mit Liniensuchverfahren . . . . . . . . . . . . . . . . . 24

    3.3.1 Bestimmung der Schrittweite . . . . . . . . . . . . . . . . . . . . . 26

    3.3.2 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    3.3.3 Konjugierte-Gradienten-Verfahren . . . . . . . . . . . . . . . . . . . 31

    3.3.4 Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    3.3.5 Quasi-Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 34

    3.4 Weitere numerische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.4.1 Methode der Vertrauensbereiche . . . . . . . . . . . . . . . . . . . . 35

    3.4.2 Direkte Suchverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 36

    3.5 Beispiel: Rosenbrocks Bananenfunktion . . . . . . . . . . . . . . . . . . . 39

    3.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    i

  • INHALTSVERZEICHNIS Seite ii

    4 Statische Optimierung mit Beschrankungen 45

    4.1 Einfuhrende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.1.1 Eine Gleichungsbeschrankung . . . . . . . . . . . . . . . . . . . . . 45

    4.1.2 Eine Ungleichungsbeschrankung . . . . . . . . . . . . . . . . . . . . 47

    4.1.3 Zwei Ungleichungsbeschrankungen . . . . . . . . . . . . . . . . . . 49

    4.2 Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

    4.2.1 Beschrankungsqualifikation . . . . . . . . . . . . . . . . . . . . . . . 50

    4.2.2 Optimalitatsbedingungen 1. Ordnung . . . . . . . . . . . . . . . . . 51

    4.2.3 Optimalitatsbedingungen 2. Ordnung . . . . . . . . . . . . . . . . . 54

    4.2.4 Interpretation der Lagrange-Multiplikatoren . . . . . . . . . . . . . 55

    4.3 Lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

    4.3.1 Standardform-Darstellung . . . . . . . . . . . . . . . . . . . . . . . 56

    4.3.2 Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . 57

    4.3.3 Simplex-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 58

    4.3.4 Interior-Point-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 63

    4.3.5 Beispiel: Transportnetz . . . . . . . . . . . . . . . . . . . . . . . . . 66

    4.4 Quadratische Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    4.4.1 Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . 68

    4.4.2 Gleichungsbeschrankte quadratische Probleme . . . . . . . . . . . . 69

    4.4.3 Aktive-Restriktionen-Verfahren . . . . . . . . . . . . . . . . . . . . 69

    4.4.4 Weitere numerische Verfahren . . . . . . . . . . . . . . . . . . . . . 73

    4.5 Nichtlineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

    4.5.1 Sequentielle quadratische Programmierung . . . . . . . . . . . . . . 74

    4.5.2 Weitere numerische Verfahren . . . . . . . . . . . . . . . . . . . . . 78

    4.6 Software-Ubersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    4.7 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

    5 Dynamische Optimierung 82

    5.1 Allgemeine Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . 82

    5.2 Einfuhrung in die Variationsrechnung . . . . . . . . . . . . . . . . . . . . . 84

    5.2.1 Euler-Lagrange-Gleichungen . . . . . . . . . . . . . . . . . . . . . . 84

    5.2.2 Beispiel: Galileos hangende Kette . . . . . . . . . . . . . . . . . . . 87

    5.3 Unbeschrankte Optimalsteuerungsprobleme . . . . . . . . . . . . . . . . . . 89

    5.3.1 Anwendung der Variationsrechnung . . . . . . . . . . . . . . . . . . 89

    5.3.2 Optimalitatsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . 92

    5.3.3 Beispiel zur Betrachtung einer freien Endzeit . . . . . . . . . . . . . 95

    5.3.4 Allgemeine Vorgehensweise und singularer Fall . . . . . . . . . . . . 98

    5.3.5 Interpretation der adjungierten Variablen . . . . . . . . . . . . . . . 99

    5.3.6 Erweiterung auf allgemeine Randbedingungen . . . . . . . . . . . . 101

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • INHALTSVERZEICHNIS Seite iii

    5.4 Optimierung linearer Systeme mit quadratischem Kostenfunktional . . . . 102

    5.4.1 Riccati-Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . 102

    5.4.2 Beispiel: 2FHG-Regelung zum Aufschwingen des Einfachpendels . . 103

    5.4.3 Algebraische Riccati-Gleichung (Sonderfall tf ) . . . . . . . . . 1085.5 Optimalsteuerungsprobleme mit Eingangsbeschrankungen . . . . . . . . . . 109

    5.5.1 Pontryagins Maximumprinzip . . . . . . . . . . . . . . . . . . . . . 110

    5.5.2 Allgemeine Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . 112

    5.5.3 Minimierung der Hamilton-Funktion . . . . . . . . . . . . . . . . . 113

    5.5.4 Beispiel: Doppelintegrator . . . . . . . . . . . . . . . . . . . . . . . 115

    5.5.5 Zustandsabhangige Eingangsbeschrankungen . . . . . . . . . . . . . 118

    5.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

    6 Numerische Losung von dynamischen Optimierungsproblemen 120

    6.1 Indirekte Verfahren: Losung der Optimalitatsbedingungen . . . . . . . . . 120

    6.1.1 Diskretisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . 120

    6.1.2 Schieverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

    6.1.3 Berucksichtigung allgemeiner Endbedingungen und freier Endzeit . 123

    6.1.4 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 124

    6.2 Direkte Verfahren: Reduktion auf statische Optimierungsprobleme . . . . . 126

    6.2.1 Teildiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    6.2.2 Volldiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

    6.3 Beispiel: Navigationsproblem in der Schifffahrt . . . . . . . . . . . . . . . . 129

    6.3.1 Indirekter Losungsweg . . . . . . . . . . . . . . . . . . . . . . . . . 130

    6.3.2 Direkter Losungsweg . . . . . . . . . . . . . . . . . . . . . . . . . . 134

    6.4 Software-Ubersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

    6.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

    7 Modellpradiktive Regelung (MPC) 139

    7.1 Grundprinzip der modellpradiktiven Regelung . . . . . . . . . . . . . . . . 139

    7.1.1 Dynamische Optimierung auf bewegtem Horizont . . . . . . . . . . 140

    7.1.2 Zeitkontinuierliche vs. zeitdiskrete MPC-Darstellung . . . . . . . . 142

    7.2 MPC-Formulierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

    7.2.1 Unendlicher Horizont . . . . . . . . . . . . . . . . . . . . . . . . . . 143

    7.2.2 Endlicher Horizont und Endbeschrankungen . . . . . . . . . . . . . 144

    7.2.3 Endlicher Horizont und Endregion . . . . . . . . . . . . . . . . . . . 145

    7.2.4 Endlicher Horizont und Endkostengewichtung . . . . . . . . . . . . 148

    7.2.5 Hinreichend langer Horizont . . . . . . . . . . . . . . . . . . . . . . 150

    7.3 Echtzeitfahige Implementierung . . . . . . . . . . . . . . . . . . . . . . . . 154

    7.3.1 Suboptimale Losungsstrategie . . . . . . . . . . . . . . . . . . . . . 155

    7.3.2 Stabilitat und inkrementelle Verbesserung . . . . . . . . . . . . . . 156

    7.3.3 Anwendungsbeispiel . . . . . . . . . . . . . . . . . . . . . . . . . . 158

    7.4 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • Kapitel 1

    Einleitung

    Unter dem Begriff der Optimierung wird im Allgemeinen das Suchen einer (in einem ge-wissen Sinne) optimalen Losung zu einem Problem verstanden. Das Feld der Optimierungist in vielen Feldern von Industrie und Wirtschaft vertreten. Einige Beispiele sind

    Wirtschaft und Finanzen: z.B. Portfolio-Optimierung oder Unternehmensentwick-lung (Maximierung des Gewinns durch optimale Verteilung von Investitionen, Aus-gaben, Anlagen, etc.).

    Prozess- und Produktoptimierung: z.B. Ablaufplanung von Prozessen, Minimierungvon Herstellungskosten, energieeffizienter Betrieb.

    Regelungstechnik allgemein: z.B. Berechnung optimaler Bahnen in der Robotik, Ent-wurf optimaler Steuerungen und Regelungen, Parameterschatzung, optimale Reg-lerauslegung.

    Die mathematische Formulierung dieser Probleme fuhrt auf ein Optimierungsproblem.Generell wird dabei zwischen statischen und dynamischen Optimierungsproblemen unter-schieden, deren Unterschied im Folgenden erlautert werden soll.

    Statisches Optimierungsproblem: Minimierung einer Funktion mit Optimierungsva-riablen, die Elemente des Euklidischen Raumes sind.

    Dynamisches Optimierungsproblem: Minimierung eines Funktionals, bei dem dieOptimierungsvariablen Elemente des Hilbert-Raumes sind (z.B. Zeitfunktionen).

    In diesem Kapitel soll zunachst an einigen Beispielen ein Eindruck sowie der prinzipielleUnterschied zwischen der statischen und dynamischen Optimierung vermittelt werden.

    1.1 Statische Optimierungsprobleme

    Unter einem statischen Optimierungsproblem wird das Minimieren einer Funktion f(x)unter Berucksichtigung gewisser Nebenbedingungen verstanden, bei dem die Optimie-rungsvariablen Elemente x des Euklidischen Raumes Rn sind.

    1

  • 1.1 Statische Optimierungsprobleme Seite 2

    1.1.1 Mathematische Formulierung

    Die Standardformulierung eines statischen Optimierungsproblems wird wie folgt angege-ben:

    minxRn

    f(x) Kostenfunktion (1.1)

    u.B.v. gi(x) = 0, i = 1, . . . , p Gleichungsbeschrankungen (1.2)

    hi(x) 0, i = 1, . . . , q Ungleichungsbeschrankungen (1.3)Ist ein Optimierungsproblem ohne die Ungleichungs- und Gleichungsbeschrankungen (1.3),(1.2) gegeben, spricht man von einem unbeschrankten Optimierungsproblem. Im allgemei-nen Fall, d.h. unter Berucksichtigung der Nebenbedingungen (1.2)-(1.3), handelt es sichum ein beschranktes Optimierungsproblem.

    Im Laufe der Jahrzehnte hat sich die Formulierung als Minimierungsproblem (1.1) stan-dardisiert. Analog dazu kann ein Maximierungsproblem ebenfalls in der Notation (1.1)geschrieben werden:

    maxxRn

    f(x) = minxRn

    f(x) .

    Neben der Bezeichnung statische Optimierung werden auch die Begriffe MathematischeProgrammierung oder Endlich-Dimensionale Optimierung verwendet.

    Die Bezeichnung Programmierung ist historisch begrundet. Die ersten Anwendungender Optimierung waren militarischer Natur, bei denen es um Aktionsplane ging:

    It is a word used by the military for a plan, a schedule, or in generalfor a program of actions. This is exactly what it means for computers:a program of actions for the computer to execute.

    George Danzig

    Begrunder der Linearen Programmierung

    Unterschieden werden bei statischen Optimierungsproblemen haufig folgende Klassen:

    Lineare Programmierung : Die Kostenfunktion und Beschrankungen sind linear.

    Quadratische Programmierung : Die Kostenfunktion ist quadratisch, wahrend dieBeschrankungen linear sind.

    Nichtlineare Programmierung : Die Kostenfunktion oder mindestens eine Beschran-kung ist nichtlinear.

    Integer-Programmierung : Alle Variablen sind diskret.

    Mixed-Integer-Programmierung : Kontinuierliche und diskrete Variablen treten auf.

    1.1.2 Beispiele

    Insbesondere die lineare Programmierung wird haufig bei wirtschaftlichen Fragestellungen,wie Produktions-, Planungs- oder Investitionsproblemen, eingesetzt. Das folgende Beispielist ein stark vereinfachtes Beispiel einer Portfolio-Optimierung.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.1 Statische Optimierungsprobleme Seite 3

    Beispiel 1.1 (Portfolio-Optimierung) Ein Anleger mochte 10.000 Euro gewinnbrin-gend investieren und hat die Auswahl zwischen drei Aktienfonds mit unterschiedlicherGewinnerwartungen und Risikoeinstufung:

    Fonds erwarteter Gewinn/Jahr Risikoeinstufung

    Fonds A 10% 4Fonds B 7% 2Fonds C 4% 1

    Der Anleger mochte nach einem Jahr mindestens 600 Euro Gewinn erzielen. Andererseitsmochte er sein Geld eher konservativ anlegen, d.h. er mochte mindestens 4.000 Euro inFonds C investieren und das Risiko minimieren. Wie muss der Anleger die 10.000 Euroverteilen, damit diese Kriterien erfullt werden?

    Zunachst werden die Optimierungsvariablen x1, x2, x3 eingefuhrt, die den prozentualenAnteil der investierten 10.000 Euro an den jeweiligen Fonds A, B, C kennzeichnen. Dabeikann x3 durch die Beziehung

    x3 = 1 x1 x2ersetzt werden. Der geforderte Mindestgewinn von 600 Euro lasst sich als die Beschran-kung

    10.000[0.1x1 + 0.07x2 + 0.04(1 x1 x2)

    ] 600 6x1 + 3x2 2 (1.4)

    ausdrucken. Die Mindestanlage von 4.000 Euro in Fonds C fuhrt zu

    10.000(1 x1 x2) 4.000 x1 + x2 0.6 (1.5)

    Des Weiteren muss x1, x2, x3 0 gelten. Das Ziel ist die Minimierung des Anlagerisikos,was sich durch die Funktion

    f(x) = 4x1 + 2x2 + (1 x1 x2) = 1 + 3x1 + x2 (1.6)

    ausdrucken lasst. Somit kann das statische Optimierungsproblem in der Form

    minxR2

    f(x) = 1 + 3x1 + x2 (1.7a)

    u.B.v. 6x1 + 3x2 2 (1.7b)x1 + x2 0.6 (1.7c)x1 + x2 1 (1.7d)x1, x2 0 (1.7e)

    geschrieben werden. Abbildung 1.1 stellt die einzelnen Beschrankungen sowie den zulas-sigen Bereich grafisch dar. Aus dem Verlauf der Hohenlinien f(x) = konst. der Kos-tenfunktion (1.7a) ist direkt ersichtlich, dass der Punkt x des zulassigen Bereiches mitdem niedrigsten Wert von f(x) an der Ecke x liegt. Somit ergibt sich fur die optimaleVerteilung der 10.000 Euro auf die einzelnen Fonds

    x1 =1

    15, x2 =

    8

    15, x3 =

    6

    15. (1.8)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.1 Statische Optimierungsprobleme Seite 4

    Optimum x

    6x1 + 3x = 2

    x1 + x2 = 1

    1 x1

    1

    x2

    zulassige Menge

    mit abnehmendem BetragHohenlinien f(x) = konst.

    1/2 2/31/3

    1/3

    1/2

    2/3

    x1 + x2 = 0.6

    Abbildung 1.1: Veranschaulichung der Portfolio-Optimierung in Beispiel 1.1.

    Das folgende (akademische) Beispiel der quadratischen Programmierung soll den Einflussvon Beschrankungen auf eine optimale Losung verdeutlichen.

    Beispiel 1.2 Betrachtet wird das (zunachst) unbeschrankte Problem

    minxR2

    f(x) = (x1 2)2 + (x2 1)2 . (1.9)

    Die Hohenlinien f(x) = konst. der Funktion f(x) sind in Abbildung 1.2 in Abhangigkeitder beiden Optimierungsvariablen x = [x1, x2]

    T dargestellt. Es ist direkt ersichtlich, dassdas Minimum f(x) = 0 an der Stelle x = [2, 1]T auftritt.

    Um den Einfluss verschiedener Beschrankungen zu untersuchen, wird zunachst eine zu-satzliche Gleichungsbeschrankung der Form (1.2) betrachtet:

    g(x) = x2 2x1 = 0 . (1.10)

    Die Gleichungsbeschrankung entspricht einer algebraischen Zwangsbedingung, wodurch le-diglich noch eine Optimierungsvariable frei wahlbar ist. Geometrisch interpretiert bedeutetdies, dass eine mogliche Losung auf der Gerade liegen muss, die durch (1.10) definiertwird, siehe Abbildung 1.3. Die optimale Losung liegt dabei auf dem Beruhrpunkt der Ge-raden g(x) = 0 mit der Hohenlinie f(x) = 1.8.

    Anstelle der Gleichungsbeschrankung (1.10) wird nun die Ungleichungsbeschrankung

    h1(x) = x1 + x2 2 0 (1.11)

    betrachtet, wodurch sich die Menge der zulassigen Punkte x = [x1, x2]T auf die Region

    unterhalb der Geraden h1(x) = 0 beschrankt (Abbildung 1.4). Das Optimum f(x) = 0.5

    an der Stelle x = [1.5, 0.5]T befindet sich an der Grenze des zulassigen Bereiches und liegt,wie im vorherigen Szenario, auf einer Hohenlinie, die die Gerade h1(x) = 0 tangentialberuhrt.

    Zusatzlich zur ersten Ungleichungsbeschrankung (1.11) soll eine weitere Ungleichung derForm

    h2(x) = x21 x2 0 , (1.12)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.1 Statische Optimierungsprobleme Seite 5

    betrachtet werden, durch die sich die Menge der zulassigen Punkte weiter verkleinert (Ab-bildung 1.5). Der optimale Punkt x = [1, 1]T mit dem Minimum f(x) = 1 liegt nun imSchnittpunkt der Kurven h1(x) = 0 und h2(x) = 0, d.h. beide Beschrankungen (1.11) und(1.12) sind aktiv.

    Das obige Beispiel 1.2 verdeutlicht den Einfluss von Gleichungs- und Ungleichungsbe-schrankungen auf die Losung (und Losbarkeit) des Optimierungsproblems (1.1)-(1.3). Fureine systematische Untersuchung von statischen OP sowie Verfahren zur numerischen Lo-sung von statischen OP sei auf die hinteren Kapitel verwiesen.

    f=2.25

    1 2 3 x1

    x2

    1

    2

    3Optimum: x = [2, 1]T, f(x) = 0

    f=0

    f=0.25

    f=1

    f=2.25

    1 2 3 x1

    x2

    1

    2

    3

    f=0

    f=0.25

    f=1

    Optimum: x = [0.8, 1.6]T, f(x) = 1.8

    g(x) = 0

    Abbildung 1.2: Geometrische Darstellungdes unbeschrankten OP (1.9).

    Abbildung 1.3: Geometrische Darstellungdes beschrankten OP (1.9), (1.10).

    x2

    f=1f=0.5

    Optimum: x = [1.5, 0.5]T, f(x) = 0.5

    h1(x) = 0

    1 2 3 x1

    1

    2

    3

    f=0

    zulassigeMenge

    2

    Optimum: x = [1, 1]T, f(x) = 1

    h2(x) = 0

    h1(x) = 0

    1 3 x1

    x2

    1

    2

    3

    f=0

    f=0.25

    f=1

    Mengezulassige

    Abbildung 1.4: Geometrische Darstellungdes beschrankten OP (1.9), (1.11).

    Abbildung 1.5: Geometrische Darstellungdes beschrankten OP (1.9), (1.11), (1.12).

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.2 Dynamische Optimierungsprobleme Seite 6

    1.2 Dynamische Optimierungsprobleme

    Bei den Problemstellungen der statischen Optimierung im vorherigen Abschnitt 1.1 stel-len die Optimierungsvariablen x Elemente aus dem Euklidischen Raum Rn dar. Bei derdynamischen Optimierung handelt es sich darum, Funktionen einer unabhangigen Varia-blen zu bestimmen. Da es sich bei der unabhangigen Variablen meistens um die Zeit thandelt, wird in diesem Zusammenhang von dynamischer Optimierung gesprochen.

    1.2.1 Mathematische Formulierung

    Die generelle Struktur eines dynamischen Optimierungsproblems lautet

    minu()

    J(u) = V (x(tf), tf) +

    tft0

    l(x(t),u(t), t) dt Kostenfunktional (1.13)

    u.B.v. x = f(x,u, t), x(t0) = x0 Systemdynamik & AB (1.14)

    g(x(tf), tf) = 0 Endbedingungen (EB) (1.15)

    hi(x,u) 0, i = 1, . . . , q Ungleichungsbeschr. (1.16)

    Dabei stellt u Rm die Eingangsgroe des nichtlinearen Systems (1.14) mit dem Zustandx Rn dar. Zusatzlich zu den Anfangsbedingungen in (1.14) sind haufig Endbedingungender Form (1.15) gegeben, um z.B. einen gewunschten Zustand xf zur Endzeit tf zu errei-chen (also g(x(tf), tf) = x(tf)xf). Ein haufiges Problem in der Praxis ist das Auftretenvon Ungleichungsbeschrankungen (1.16), die z.B. die Begrenzung einer Stellgroe oderSicherheitsschranken eines Zustandes darstellen konnen.

    Die Problemstellung der dynamischen Optimierung besteht nun darin, eine Eingangstra-jektorie u(t), t [t0, tf ] derart zu finden, dass die Zustandstrajektorie x(t), t [t0, tf ]des dynamischen Systems (1.14), die Endbedingungen (1.15) und Beschrankungen (1.16)erfullt und gleichzeitig das Kostenfunktional (1.13) minimiert wird. Abhangig davon, obtf vorgegeben oder unbekannt ist, spricht man von einer festen oder freien Endzeit tf .

    Neben der Bezeichnung dynamische Optimierung werden auch die Begriffe Unendlich-Dimensionale Optimierung, Optimalsteuerung oder Dynamische Programmierung verwen-det. Im Folgenden sind einige Beispiele angegeben, um die Problem- und Aufgabenstellungder dynamischen Optimierung zu erlautern.

    1.2.2 Beispiele

    Beispiel 1.3 (Inverses Pendel) Ein klassisches Problem in der Regelungstechnik istdas inverse Pendel, das an einem Wagen drehbar befestigt ist. Als Beispielproblem soll

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.2 Dynamische Optimierungsprobleme Seite 7

    0.5 0 0.5 1 1.5

    0 1 2 3 40.5

    00.5

    11.5

    Pos

    ition

    x

    0 1 2 3 4

    3

    3.5

    Win

    kel

    0 1 2 3 41

    0

    1

    Ein

    gang

    uZeit t

    c = 1c = 0.25c = 0

    Abbildung 1.6: Momentaufnahmendes Versetzens des inversen Pendels.

    Abbildung 1.7: Optimale Trajektorien fur dasVersetzen des inversen Pendels.

    das seitliche Versetzen des Pendels betrachtet werden:

    minu()

    J(u) =

    tf0

    1 + c u2 dt , (1.17)

    u.B.v.

    [1 cos

    cos 1

    ] [x

    ]=

    [2 sin + u sin

    ], = m/(M +m) (1.18)

    x(0) = [0, 0, 0, 0]T, x(tf) = [1, 0, 0, 0]T , (1.19)

    1 u 1 . (1.20)

    Die vereinfachten Bewegungsgleichungen (1.18) fur die Zustande x = [x, x, , ]T sindnormiert. Der Eingang u stellt die am Wagen angreifende Kraft dar und ist durch (1.20)beschrankt. Abbildung 1.6 zeigt exemplarisch das seitliche Versetzen des Pendels, um dieBewegung zu verdeutlichen.

    Das Kostenfunktional (1.17) und somit der Charakter des Optimierungsproblems hangtvon dem Parameter c ab. Fur c = 0 ergibt sich die Aufgabe, die Endzeit tf zu minimieren:

    J(u) =

    tf0

    1 dt = tf . (1.21)

    Fur c > 0 wird der Eingang u im Kostenfunktional und somit der Aspekt der Energie-optimalitat mit berucksichtigt.

    Abbildung 1.7 zeigt die optimalen Trajektorien fur die Werte c = 0, c = 0.25 und c = 1.Fur c = 0 weist der Eingang u ein Bang-bang-Verhalten auf, wahrend fur c > 0 dieSteueramplituden kleiner werden und die Versatzzeit tf zunimmt.

    Das inverse Pendel ist ein gutes Beispiel um zu verdeutlichen, dass nicht zu jedem Opti-mierungsproblem eine Losung existiert, insbesondere wenn die Endzeit tf nicht festgelegtist. Wie in Abbildung 1.7 dargestellt ist, vergroert sich die Endzeit tf bei zunehmender

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.2 Dynamische Optimierungsprobleme Seite 8

    Gewichtung von u2 im Vergleich zum zeitoptimalen Anteil in dem Kostenfunktional (1.17).Wenn reine Energieoptimalitat gefordert wurde, d.h.

    J(u) =

    tf0

    u2 dt , (1.22)

    hatte das Optimierungsproblem keine Losung, da das Versetzen des Pendels dann unend-lich langsam mit tf ablaufen wurde.

    Beispiel 1.4 (Goddard-Rakete [2, 1]) Ein klassisches Optimierungsproblem aus derRaumfahrt ist die Maximierung der Flughohe einer Rakete unter dem Einfluss von Luftrei-bung und Erdbeschleunigung. Dieses Problem wurde von dem amerikanischen Raketenpio-nier Robert H. Goddard im Jahr 1919 aufgestellt und kann wie folgt (normiert) geschriebenwerden:

    minu()

    h(tf) (1.23)

    u.B.v. h = v, v =uD(h, v)

    m 1h2, m = u

    c, (1.24)

    h(0) = 1, v(0) = 0, m(0) = 1, m(tf) = 0.6 , (1.25)

    0 u 3.5 . (1.26)

    Die Zustandsgroen sind die Flughohe h, die Geschwindigkeit v und die Masse m derRakete. Die Luftreibung D(h, v) hangt uber die Funktion

    D(h, v) = D0 v2 exp

    [(1 h)

    ](1.27)

    von den Zustanden h und v ab. Die Randbedingungen in (1.25) umfassen die normiertenAnfangsbedingungen sowie die Endbedingung fur m(tf), die dem Leergewicht der Raketeohne Treibstoff entspricht. Der Eingang des Systems ist der Schub u, der innerhalb derBeschrankungen (1.26) liegen muss.

    In Abbildung 1.8 sind die optimalen Trajektorien fur die Goddard-Rakete dargestellt. 1DerSchub u(t) ist am Anfang maximal und weist dann einen parabelformigen Verlauf auf, be-vor der Treibstoff verbraucht ist. Dieses Verhalten wird durch den Luftwiderstand D(h, v)hervorgerufen, der mit zunehmender Hohe abnimmt. Es ist somit optimaler, im Falleeines hohen Luftwiderstandes anfanglich nicht mit vollem Schub zu fliegen.

    Beispiel 1.5 (Okonomisches Modell [4, 3]) Ein weiterer Anwendungszweig der dy-namischen Optimierung sind wirtschaftliche Prozesse. Das folgende Beispiel beschreibtdas Verhalten eines typischen Konsumenten, der Konsum, Freizeit und Bildung uber dieLebensdauer maximieren will. Der Bildungsgrad B und das Kapital K eines durchschnitt-lichen Konsumenten lassen sich durch folgendes Modell beschreiben:

    B =

    Weiterbildung Bu2u3

    V ergessenB , B(0) = B0 (1.28)

    K = iKV erzinsung

    +Bu2g(u3) Einkommen

    u1Konsum

    , K(0) = K0 (1.29)

    1 Die verwendeten Parameterwerte sind c = 0.5, D0 = 310, = 500.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.2 Dynamische Optimierungsprobleme Seite 9

    0 0.05 0.1 0.15

    1

    1.005

    1.01

    Flu

    ghh

    e h

    Zeit t0 0.05 0.1 0.15

    0

    0.05

    0.1

    Ges

    chw

    indi

    gkei

    t v

    Zeit t

    0 0.05 0.1 0.15

    0.6

    0.7

    0.8

    0.9

    1

    Mas

    se m

    Zeit t0 0.05 0.1 0.15

    0

    1

    2

    3

    Sch

    ub u

    Zeit t

    Abbildung 1.8: Optimale Trajektorien fur die Goddard-Rakete in Beispiel 1.4.

    Die Eingangsgroen sind der Konsum u1, der Anteil der Arbeitszeit an der Gesamtzeitu2 sowie der Anteil der Fortbildungszeit an der Arbeitszeit u3. Die Eingange unterliegenden Beschrankungen

    u1 > 0, 0 u2 1, 0 u3 < 1. (1.30)Das Optimierungsziel des Konsumenten ist die Maximierung von Konsum, Freizeit undBildung uber die Lebensdauer von tf = 75 Jahren, was in dem folgenden (zu minimieren-den) Kostenfunktional ausgedruckt ist:

    J(u) = K(tf) tft0

    U(t, u1, u2, B)e t dt . (1.31)

    Der Integralanteil

    U(t, u1, u2, B) = 0u1 + 0(1 u2) + 0tB (1.32)

    gewichtet dabei den Konsum u1, die Freizeit 1u2 und den Bildungsgrad B, wahrend derEndwert K(tf) in (1.31) zusatzlich das Vererbungskapital berucksichtigt.Die optimalen Zeitverlaufe des Bildungsgrades B(t) und des Kapitals K(t) sind in Ab-bildung 1.9 dargestellt. 2Die ersten 17 Jahren stellen die Lernphase dar (d.h. u3 = 1).Daraufhin folgt eine lange Arbeitsphase von 34 Jahren mit einem hohen Ma an Weiter-bildung, bevor in den nachsten 10 Jahren (52.-61. Lebensjahr) eine reine Arbeitsphase mitzusatzlich reduzierter Arbeitszeit u2 stattfindet. Ab dem 62. Lebensjahr setzt der Ruhestandein. Der Bildungsgrad B ist besonders hoch im Alter von 30-60 Jahren. Das Kapital Kist negativ wahrend der ersten Lebenshalfte, was der Aufnahme eines Kredites entspricht.Im Laufe des Lebens wird dies aber durch das steigende Einkommen kompensiert.

    2Die verwendeten Parameterwerte sind = 1, 0 = 1, = 0.5, 0 = 1, = 0.2, 0 = 5, = 0.2, = 0.01, = 0.35, = 0.01, i = 0.04, H0 = 1, K0 = 30. Die Funktion g(u3) in (1.29) ist durchdie Parabel g(u3) = 1 (1 a)u3 au23 gegeben.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 1.3 Literatur Seite 10

    0 20 40 600

    10

    20

    30B

    ildun

    gsgr

    ad B

    Zeit t0 20 40 60

    0

    50

    100

    Kap

    ital

    K

    Zeit t

    0 20 40 60

    4

    6

    8

    Kon

    sum

    u1

    Zeit t0 20 40 60

    0

    0.2

    0.4

    0.6

    Arb

    eits

    ante

    il u

    2

    Zeit t0 20 40 60

    0

    0.5

    1

    Fort

    bild

    ungs

    ante

    il u

    3

    Zeit t

    Abbildung 1.9: Optimale Trajektorien fur das Konsumentenverhalten in Beispiel 1.5.

    1.3 Literatur

    [1] A.E. Bryson. Dynamic Optimization. Addison-Wesley, Menlo Park, CA, 1999.

    [2] R.H. Goddard. A method for reaching extreme altitudes. Smithsonian MiscellaneousCollections 71, 1919.

    [3] H.J. Oberle und R. Rosendahl. Numerical computation of a singular-state subarcin an economic optimal control model. Optimal Control Applications and Methods,27:211235, 2006.

    [4] K. Pohmer. Mikrookonomische Theorie der personellen Einkommens- und Vermo-gensverteilung. Studies in Contemporary Economics, Band 16. Springer, 1985.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • Kapitel 2

    Grundlagen der Optimierung

    In diesem Kapitel werden zunachst einige Begriffe und Eigenschaften statischer Optimie-rungsprobleme

    minxRn

    f(x) (2.1)

    u.B.v. gi(x) = 0, i = 1, . . . , p (2.2)

    hi(x) 0, i = 1, . . . , q (2.3)

    betrachtet, auf die in den folgenden Kapiteln Bezug genommen wird.

    2.1 Lokale/globale Minima und zulassige Menge

    Definition 2.1 (Globale und lokale Minima) Die Funktion f(x) mit f : X R undX Rn besitzt an der Stelle x X

    a) ein lokales Minimum, falls f(x) f(x) fur alle x in einer hinreichend kleinenUmgebung von x,

    b) ein striktes lokales Minimum, falls f(x) < f(x) fur alle x in einer hinreichendkleinen Umgebung von x,

    c) ein globales (absolutes) Minimum, falls f(x) f(x) fur alle x X ,c) ein eindeutiges globales Minimum, falls f(x) < f(x) fur alle x X .

    Aus der Definition ergibt sich, dass ein globales Minimum stets auch ein lokales Minimumist. Die unterschiedlichen Arten von Minima sind in Abbildung 2.1 skizziert.

    Definition 2.2 (Zulassige Menge) Die zulassige Menge Xad (Englisch: admissible set)des Optimierungsproblems (2.1)-(2.3) ist

    Xad ={x Rn : gi(x) = 0, i = 1, . . . , p

    hi(x) 0, i = 1, . . . , q}.

    11

  • 2.1 Lokale/globale Minima und zulassige Menge Seite 12

    lokal, strikt

    global, strikt

    lokal

    f(x)

    x

    Abbildung 2.1: Verschiedene Minima einer Funktion f(x) mit x R.

    Alle Punkte x Xad werden als zulassige Punkte bezeichnet und erfullen die Nebenbe-dingungen gi(x) = 0 und hi(x) 0. Somit lasst sich das statische OP (2.1)-(2.3) auch inder aquivalenten Form

    minxXad

    f(x) (2.4)

    angeben. Im Falle von unbeschrankten Problemen gilt Xad = Rn.

    Beispiel 2.1 Im eingangs erwahnten Beispiel 1.2 mit den beiden Ungleichungsbeschran-kungen (1.11) und (1.12) ist der zulassige Bereich durch

    Xad ={x Rn : h1(x) = x1 + x2 2 0, h2(x) = x21 x2 0

    }definiert. Dies entspricht der zwischen der Geraden h1(x) = 0 und der Parabel h2(x) = 0eingeschlossenen Flache, siehe Abbildung 1.5.

    Es ist direkt ersichtlich, dass Xad nicht die leere Menge sein darf, da das Optimierungs-problem (2.4) ansonsten keine Losung besitzt. Eine weitere notwendige Bedingung fur Xadkann aus den Gleichungsbedingungen (2.2) abgeleitet werden, da sich durch die algebrai-schen Restriktionen gi(x) = 0 die Anzahl der freien Optimierungsvariablen x Rn aufnp reduziert. Somit darf die Anzahl p der (unabhangigen) Gleichungsbedingungen (2.2)nicht groer als die Anzahl der Optimierungsvariablen x Rn sein, da die zulassige MengeXad ansonsten leer ware.

    Satz 2.1 (Weierstrass) Sei f : Xad R stetig und Xad eine kompakte nichtleere Menge.Dann besitzt das Problem

    minxXad

    f(x) (2.5)

    an mindestens einem Punkt x Xad ein Minimum.

    Beispiel 2.2 Betrachtet wird eine erweiterte Version des beschrankten Optimierungspro-blem aus Beispiel 1.2 bzw. Abbildung 1.5:

    minxR2

    (x1 2)2 + (x2 1)2 (2.6)

    u.B.v. x1 + x2 2 0 (2.7)x21 x2 0 , x1 0 . (2.8)

    Die Kostenfunktion ist stetig und die zulassige Menge Xad ist nicht-leer und kompakt.Somit folgt aus Satz 2.1 die Existenz einer Losung x.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.2 Gradient und Hessematrix Seite 13

    Der Satz von Weierstrass gilt nicht fur Probleme, die auf einer offenen, nicht kompaktenMenge definiert sind (z.B. Xad = Rn). Ein Beispiel ist

    minx(0,)

    1x . (2.9)

    Obwohl f(x) = 1/x auf dem offenen Intervall x (0,) stetig ist, existiert kein Minimum.Allerdings kann die Existenz einer Losung eines unbeschrankten Optimierungsproblemsgarantiert werden, wenn die Funktion f(x) die Bedingung lim||x|| f(x) = erfullt.

    2.2 Gradient und Hessematrix

    Die Berechnung von Ableitungen erster und zweiter Ordnung einer Kostenfunktion f(x)ist von fundamentaler Bedeutung in der Optimierung. Da im Falle von unstetigen Funk-tionen oder unstetigen Ableitungen haufig Probleme auftreten (sowohl numerischer alsauch theoretischer Natur), wird oft angenommen, dass alle Funktionen eines Optimie-rungsproblems stetig und hinreichend oft differenzierbar sind.

    Definition 2.3 (Gradient) Sei f : X R stetig differenzierbar. Dann bezeichnet 1

    f(x) = fx

    =

    fx1...fxn

    (2.10)den Gradienten (also die 1. partielle Ableitung) von f(x) an der Stelle x = [x1, . . . , xn]

    T.

    Der negative Gradient ist von besonderer Bedeutung zur Losung eines Optimierungspro-blems, da er die sogenannte maximale Abstiegsrichtung einer Kostenfunktion f(x) an derStelle x angibt, siehe Abbildung 2.2. Diese Eigenschaft wird im nachsten Kapitel naheruntersucht.

    Definition 2.4 (Hessematrix) Sei f : X R zweimal stetig differenzierbar. Dannbezeichnet

    2f(x) =

    2fx21

    . . . 2f

    x1xn...

    ...2fxnx1

    . . . 2fx2n

    (2.11)die Hessematrix (also die 2. partielle Ableitung) von f(x) an der Stelle x = [x1, . . . , xn]

    T.

    Im Falle von ein-dimensionalen Funktionen f(x) wird die-Notation normalerweise durchf (x) und f (x) ersetzt. Nach dem Satz von Schwarz folgt aus der Stetigkeit der 2. parti-ellen Ableitungen Kommutativitat, d.h.

    2f

    xixj=

    2f

    xjxi.

    1In der Vorlesung wird der Einfachheit halber eine partielle Ableitung fx als Spaltenvektor definiert,im Gegensatz zur in der Mathematik ublichen Notation als Zeilenvektor.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.2 Gradient und Hessematrix Seite 14

    Hohenlinien f(x) = const.

    f(x)

    x

    x1

    x2

    f(x)

    Abbildung 2.2: Maximale Abstiegsrichtung f(x) fur eine Funktion f(x) mit zwei Va-riablen x = [x1, x2]

    T.

    Somit ist die Hessematrix symmetrisch (2f(x) = 2f(x)T) und hat stets reelle Eigen-werte. In der Optimierung ist oft von Bedeutung, ob Hessematrizen positiv (semi)definitsind. Diese Eigenschaft kann wie folgt untersucht werden:

    Satz 2.2 (Definitheit) Die Definitheit einer symmetrischen Matrix A Rnn lasst sichdurch folgende Bedingungen charakterisieren:

    Matrix A ist (1):fur alle p Rnmit p 6= 0 gilt

    (2): alle n Eigen-werte i sind

    (3): fur alle n Haupt-unterdet. Di gilt

    positiv semidefinit: pTAp 0 reell und 0positiv definit: pTAp > 0 reell und > 0 Di > 0negativ semidefinit: pTAp 0 reell und 0negativ definit: pTAp < 0 reell und < 0 (1)i+1Di < 0

    Die Eigenwerte i, i = 1, . . . , n der Matrix A sind die Losungen der Gleichung

    det(I A) = 0 ,

    wobei I die Einheitsmatrix der Dimension n darstellt. Die Hauptunterdeterminanten Disind die Determinanten der linken oberen Untermatrizen von A:

    D1 = |a11|, D2 =a11 a12a21 a22

    Dn =a11 . . . a1n...

    . . ....

    an1 . . . ann

    ,wobei die Elemente aij die Elemente der Matrix A darstellen. Um die Definitheit einersymmetrischen Matrix A zu bestimmen, reicht es eine der drei Bedingungen (1)-(3) aus-zuwerten, da jede fur sich notwendig und hinreichend ist. Das Kriterium (3) wird auchSylvester-Kriterium genannt, das allerdings nur fur (positiv oder negativ) definite Matri-zen gilt. Zur Anwendung der drei Kriterien zur Bestimmung der Definitheit einer Matrixsei auf Aufgabe 2.1 verwiesen.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.3 Konvexitat Seite 15

    2.3 Konvexitat

    Die Eigenschaft der Konvexitat ist von fundamentaler Bedeutung in der Optimierung undfuhrt im Allgemeinen zu einer einfacheren numerischen Losung des Optimierungsproblems.Zudem ist Konvexitat notwendig, um eine Aussage uber eine eindeutige Losung einesOptimierungsproblems treffen zu konnen. Der Begriff konvex kann sowohl auf Mengen alsauch auf Funktionen und Optimierungsprobleme angewendet werden.

    2.3.1 Konvexe Mengen

    Definition 2.5 (Konvexe Menge) Eine Menge X Rn ist konvex, falls die folgendeBedingung fur beliebige Punkte x,y X erfullt ist:

    z = k x+ (1 k)y X fur alle k [0, 1] . (2.12)

    Eine geometrische Interpretation dieser Definition ist, dass eine Menge X Rn genaudann konvex ist, falls die Verbindungslinie zwischen zwei beliebigen Punkten x,y Xkomplett in X enthalten ist. Abbildung 2.3 zeigt einige Beispiele konvexer und nicht-konvexer Mengen.

    Eine bekannte Eigenschaft konvexer Mengen ist, dass ihre Schnittmenge ebenfalls einekonvexe Menge darstellt. Diese Eigenschaft ist von Bedeutung zur Charakterisierung derKonvexitat der zulassigen Menge Xad von Optimierungsproblemen (siehe Satz 2.4).

    2.3.2 Konvexe Funktionen

    Definition 2.6 (Konvexe und konkave Funktionen) Sei X Rn eine konvexeMenge. Eine Funktion f : X R ist konvex auf X , falls die folgende Bedingung furbeliebige Punkte x,y X und z = k x+ (1 k)y erfullt ist:

    f(z) k f(x) + (1 k) f(y) k [0, 1] . (2.13)

    Die Funktion f ist strikt konvex, falls

    f(z) < k f(x) + (1 k) f(y) k (0, 1) . (2.14)

    Die Funktion ist f (strikt) konkav, falls f (strikt) konvex ist.

    Die Definition 2.6 kann wie folgt geometrisch interpretiert werden: eine Funktion f ist kon-vex (konkav), falls alle Funktionswerte f(z) mit z = k x+ (1 k)y unterhalb (oberhalb)der Verbindungslinie zwischen f(x) und f(y) liegen. Abbildung 2.4 zeigt einige Bespie-le konvexer und konkaver Funktionen. Es ist direkt ersichtlich, dass lineare Funktionensowohl konkav als auch konvex sind.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.3 Konvexitat Seite 16

    (a) konvex

    x

    y

    x

    xy

    yy

    x

    (b) konvex (c) nicht konvex (d) nicht konvex

    Abbildung 2.3: Beispiele von konvexen Mengen.

    Konvexe Funktionen besitzen einige interessante Eigenschaften, die im Folgenden darge-stellt sind:

    a) Die Summenfunktion

    f(x) =ki=1

    ai fi(x) (2.15)

    von konvexen Funktionen fi(x), i = 1, . . . , k mit den Koeffizienten ai 0, i =1 . . . , k ist konvex.

    b) Ist die Funktion f(x) konvex, so ist die Menge

    S = {x Rn : f(x) k} (2.16)

    mit k > 0 stets konvex, siehe Abbildung 2.5.

    c) Eine stetig differenzierbare Funktion f(x) ist konvex auf X , wenn fur alle x,y Xdie Ungleichung

    f(y) f(x) + (y x)Tf(x) (2.17)erfullt ist. Dies kann als eine Alternative zu Definition 2.6 angesehen werden undist in Abbildung 2.6 veranschaulicht. Die geometrische Interpretation der Unglei-chung (2.17) ist, dass an jedem Punkt x einer konvexen Funktion f(x) eine soge-nannte stutzende Hyperebene (skalarer Fall: stutzende Tangente) existieren muss,oberhalb der f(x) verlauft.

    y

    (a) strikt konvex (c) konkav (d) weder konvex noch konkav

    f f f f

    xx y yx yx

    (b) konvex (nicht strikt)

    Abbildung 2.4: Beispiele von konvexen und konkaven Funktionen.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.3 Konvexitat Seite 17

    S = {x R2 : f(x) k}konvexe Schnittmenge

    Schnittebenef(x) = k

    x1

    f Konvexe Funktion f(x)

    x2

    f(x) + (y x)f (x)

    y

    f(x) f(y)

    f

    x

    Abbildung 2.5: Konvexe Menge S, die durchden Schnitt einer konvexen Funktion f(x) mitder Ebene f(x) = konst. entsteht.

    Abbildung 2.6: Stutzende Tangente ei-ner konvexen Funktion f(x).

    Beispiel 2.3 Gegeben ist die Funktion

    minxR2

    f(x) = 100(x1 1)2 + (x2 1)2 + 1

    200(x1 + 1)2 + (x2 + 2)2 + 1

    . (2.18)

    die in Abbildung 2.7 dargestellt ist. Es ist leicht zu sehen, dass die Funktion (2.18) auf R2nicht konvex ist. Dies ist auch anhand der Hohenlinien in Abbildung 2.7 ersichtlich, diedie Schnittmengen (2.16) definieren: es ist offensichtlich, dass Schnittmengen existieren,die nicht konvex sind.

    32

    10

    12

    3

    32

    10

    12

    3

    x1x

    2

    Abbildung 2.7: Profil und Hohenlinien der Funktion (2.18).

    Der folgende Satz charakterisiert die Konvexitat einer Funktion anhand der Definitheitihrer Hessematrix (siehe auch Satz 2.2):

    Satz 2.3 Sei X Rn konvex und f : X R zweimal stetig differenzierbar. Dann gilt:

    a) f ist konvex, falls 2f(x) fur alle x X positiv semidefinit ist,b) f ist strikt konvex, falls 2f(x) fur alle x X positiv definit ist,c) f ist konkav, falls 2f(x) fur alle x X negativ semidefinit ist,d) f ist strikt konkav, falls 2f(x) fur alle x X negativ definit ist.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.3 Konvexitat Seite 18

    An dieser Stelle sei allerdings angemerkt, dass die strikte Konvexitat einer Funktion f(x)nicht die Positiv-Definitheit der Hessematrix gewahrleistet. Ein Beispiel ist die strikt kon-vexe Funktion f(x) = x4 mit der zweiten Ableitung f (0) = 0 am Punkt x = 0.

    Aufgabe 2.1 Untersuchen Sie, ob die folgenden Funktionen auf Ihrem Definitionsbereichkonvex sind, indem Sie die Definitheit der Hessematrix 2f(x) mittels der Kriterien (1)-(3) in Satz 2.2 uberprufen:

    f(x) = x41 + x21 2x1x2 + x22 , x R2 (2.19)

    f(x) = x2 +1

    x1x2, x1,2 > 0. (2.20)

    Aufgabe 2.2 Untersuchen Sie, ob die folgenden Funktionen auf Ihrem Definitionsbereichkonvex bzw. konkav sind und stellen Sie die Funktionen grafisch (z.B. unter Matlab) dar:

    f(x) = ex 1 , x R (2.21)f(x) = x1x

    12 , x1, x2 > 0 , [0, 1] . (2.22)

    2.3.3 Konvexe Optimierungsprobleme

    Der Begriff der Konvexitat von Mengen und Funktionen lasst sich ebenfalls auf Optimie-rungsprobleme erweitern:

    Definition 2.7 Das statisches Optimierungsproblem

    minxXad

    f(x)

    ist (strikt) konvex, falls die zulassige Menge Xad konvex und die Kostenfunktion f (strikt)konvex auf Xad ist.

    Die Konvexitat einer zulassigen Menge Xad kann wie folgt untersucht werden:

    Satz 2.4 Falls die Funktionen gi : Rn R, i = 1, . . . , p linear und die Funktionenhi : Rn R, i = 1, . . . , q konvex sind, dann ist die zulassige Menge

    Xad ={x Rn : gi(x) = 0, i = 1, . . . , p

    hi(x) 0, i = 1, . . . , q}.

    konvex.

    Dieser Satz ergibt sich aus der bereits erwahnten Eigenschaft, dass der Schnitt zweierkonvexer Mengen wiederum eine konvexe Menge ergibt. Fur lineare (und somit konvexe)Gleichungsbedingungen gi(x) = 0 und konvexe Ungleichungsnebenbedingungen hi(x) 0

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.3 Konvexitat Seite 19

    sind die zugehorigen Untermengen stets konvex (siehe auch Punkt b) auf Seite 16 und Ab-bildung 2.5). Somit ist die gesamte Schnittmenge, also der zulassige Bereich Xad, ebenfallseine konvexe Menge.

    Mit den vorherigen Ergebnissen konnen nun hinreichende Bedingungen fur die Konvexitatvon statischen Optimierungsproblemen angegeben werden:

    Satz 2.5 Das statische Optimierungsproblem

    minxRn

    f(x)

    u.B.v. gi(x) = 0, i = 1, . . . , p

    hi(x) 0, i = 1, . . . , q

    ist (strikt) konvex, falls

    a) die Funktionen gi : Rn R, i = 1, . . . , p linear sind,b) die Funktionen hi : Rn R, i = 1, . . . , q konvex sind,c) die Kostenfunktion f (strikt) konvex auf Xad Rn ist.

    Einige wichtige Eigenschaften konvexer Optimierungsprobleme sind:

    a) Jedes lokale Minimum ist ein globales Minimum.

    b) Falls ein striktes lokales Minimum existiert, dann ist dieses eindeutig und global.

    c) Ein strikt konvexes Optimierungsproblem kann nicht mehr als eine Losung besitzen:falls ein lokales Minimum existiert, ist dieses das eindeutige globale Minimum.

    Es sei an dieser Stelle angemerkt, dass strikte Konvexitat eines Optimierungsproblemsnicht die Existenz einer Losung impliziert. Als Beispiel dient wieder das Problem (2.9)

    minx(0,)

    1x . (2.23)

    Die erste und zweite Ableitung der Funktion f(x) = 1x

    lauten f (x) = 1x2

    und f (x) =2x3> 0. Somit ist f (x) > 0 fur alle x X = (0,) und das Optimierungsproblem (2.23)

    ist strikt konvex. Allerdings ist direkt ersichtlich, dass kein Minimum existiert. 2

    Aus den oben angegebenen Eigenschaften konvexer Optimierungsprobleme ist ersicht-lich, dass Konvexitat die Analyse von Optimierungsproblemen erheblich vereinfacht. Diemeisten theoretischen Untersuchungen von Optimierungsproblemen und Konvergenzei-genschaften numerischer Verfahren basieren auf dieser Annahme. Da die meisten nume-rischen Verfahren zu einem lokalen Minimum konvergieren, impliziert dies im Falle von(strikter) Konvexitat automatisch eine (eindeutige) globale Losung.

    2 Es sei an dieser Stelle auch daran erinnert, dass der Satz 2.1 von Weierstrass nur dann die Existenzeiner Losung garantiert, wenn die zulassige Menge X (bzw. Xad) kompakt ist.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 2.4 Literatur Seite 20

    Beispiel 2.4 Betrachtet wird das Problem aus Beispiel 2.2. Die Kostenfunktion (2.6)und die Beschrankungen (2.7), (2.8) sind konvex. Somit ist das Optimierungsproblem(2.6)-(2.8) konvex und die lokale Losung x = [1, 1]T (siehe Abbildung 1.5) ist die globaleLosung.

    2.4 Literatur

    [1] S. Boyd und L. Vandenberghe. Convex Optimization. Cambridge University Press,Cambridge, 2004. http://www.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf.

    [2] J. Nocedal und S.J. Wright. Numerical Optimization. Springer, New York, 2006.

    [3] M. Papageorgiou. Optimierung. Oldenbourg Verlag, Munchen, 1991.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

    http://www.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf
  • Kapitel 3

    Statische Optimierung ohneBeschrankungen

    In diesem Kapitel werden unbeschrankte statische Optimierungsprobleme der Form

    minxRn

    f(x) (3.1)

    betrachtet sowie notwendige und hinreichende Optimalitatsbedingungen hergeleitet. ImAnschluss werden einige bekannte numerische Verfahren vorgestellt, um einen Eindruck zuvermitteln, wie unbeschrankte Optimierungsprobleme numerisch gelost werden konnen.

    3.1 Notwendige Optimalitatsbedingungen

    Die Optimalitatsbedingungen fur unbeschrankte Probleme (3.1) dienen einerseits zumAuffinden von (lokalen) Extremwerten x als auch zum Uberprufen, ob es sich tatsachlichum ein Minimum handelt, dass also

    f(x) f(x) (3.2)

    fur alle x in einer hinreichend kleinen Umgebung von x (siehe Definition 2.1) gilt.

    Unter der Annahme, dass f(x) mindestens zweimal stetig differenzierbar ist, lasst sichf(x) an der Stelle x in eine Taylorreihe entwickeln:

    f(x + x) = f(x) +f(x)Tx+ 12xT2f(x) x+O(||x||3) . (3.3)

    Falls der Punkt x ein lokales Minimum darstellt, muss (3.2) mit x = x + x fur allehinreichend kleinen x erfullt sein. Einsetzen von (3.3) in (3.2) fuhrt auf die Ungleichung

    f(x)Tx+ 12xT2f(x) x+O(||x||3) 0 . (3.4)

    Fur hinreichend kleine x ist der erste Term f(x)Tx dominant und bestimmt dasVorzeichen der gesamten linken Seite in (3.4). Es muss also f(x)Tx 0 erfullt sein.

    21

  • 3.1 Notwendige Optimalitatsbedingungen Seite 22

    a): f

    Maximum

    Minimum

    x

    Sattelpunkt

    uSattelpunkt

    Hohenlinienx1

    b): f

    x2

    Abbildung 3.1: Beispiele von stationaren Punkten im ein- und zwei-dimensionalen Fall.

    Da x nur ein lokales Minimum ist, wenn die Ungleichung (3.4) fur alle (hinreichendkleinen) x erfullt ist, ergibt sich direkt, dass

    f(x) = 0 (3.5)

    gelten muss. Allerdings sagt diese Bedingung 1. Ordnung lediglich aus, dass x ein Extrem-punkt von f ist, da f(x) = 0 auch von Maxima oder Sattelpunkten erfullt wird, wie inAbbildung 3.1 dargestellt ist. In der Optimierung spricht man in diesem Zusammenhangoft von einem stationaren Punkt.

    Eine strengere Bedingung 2. Ordnung fur ein lokales Minimum x ergibt sich aus (3.4):

    xT2f(x) x 0. (3.6)

    Da diese Bedingung fur alle hinreichend kleinen x in einer Umgebung von x gelten soll,muss die Hessematrix 2f(x) folglich positiv semidefinit sein, wie sich aus Satz 2.2 leichtablesen lasst. Die notwendigen Bedingungen fur ein lokales Minimum sind im folgendenSatz zusammengefasst:

    Satz 3.1 (Notwendige Optimalitatsbedingungen)Sei f : Rn R eine zweimal stetig differenzierbare Funktion und x ein lokales Minimumvon f . Dann gelten die folgenden Optimalitatsbedingungen 1. und 2. Ordnung:

    f(x) = 0 (3.7)2f(x) 0 (positiv semidefinit) . (3.8)

    Allerdings stellen diese Optimalitatsbedingungen keine hinreichenden Bedingungen darund sind somit nicht umkehrbar. Ein Beispiel ist die Funktion f(x) = x3, die an der Stellex = 0 einen Extrempunkt besitzt, wie man anhand der ersten Ableitung f (x) = 3x2

    leicht erkennen kann. Obwohl die zweite Ableitung f (x) = 3x = 0 positiv semidefinitist, ist x = 0 kein Minimum, sondern ein Sattelpunkt (siehe Abbildung 3.1).

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.2 Hinreichende Optimalitatsbedingungen Seite 23

    3.2 Hinreichende Optimalitatsbedingungen

    Eine hinreichende Bedingung, die die Existenz eines lokalen Minimums x garantiert, kannaus der Ungleichung (3.4) abgelesen werden. Falls f(x) = 0 gilt und der quadratischeTerm in (3.4) strikt positiv ist, d.h.

    xT2f(x) x > 0 , (3.9)dann ist garantiert, dass fur alle hinreichend kleinen x die Ungleichung (3.4) strikt er-fullt ist und somit x ein lokales Minimum darstellt. Man spricht in diesem Fall vonhinreichenden Optimalitatsbedingungen, die im folgenden Satz zusammengefasst sind:

    Satz 3.2 (Hinreichende Optimalitatsbedingungen)Sei f : Rn R eine zweimal stetig differenzierbare Funktion und x X . Falls f(x) dieBedingungen

    f(x) = 0 (3.10)2f(x) > 0 (positiv definit) (3.11)

    erfullt, dann ist x ein striktes lokales Minimum von f .

    An dieser Stelle sei angemerkt, dass ein striktes Minimum x nicht automatisch diePositiv-Definitheit der Hessematrix 2f(x) impliziert. Ein Beispiel ist die Funktionf(x) = x4, die offensichtlich ein striktes Minimum an der Stelle x = 0 besitzt. Aller-dings verschwindet die zweite Ableitung f (x) = 12x2 an der Stelle x = 0 und ist somitnicht positiv definit.

    Die Optimalitatsbedingungen erster Ordnung, f(x) = 0, stellen ein nichtlineares Glei-chungssystem der Ordnung n dar, das gelost werden kann, um einen stationaren Punkt x

    zu bestimmen. Die Positiv-Definitheit der Hessematrix 2f(x) kann dann mit Hilfe derMethoden in Satz 2.2 untersucht werden, um zu uberprufen, ob x ein striktes Minimumist.

    Beispiel 3.1 Fur das Optimierungsproblem

    minxR2

    x21 + ax22 x1x2 , (3.12)

    sollen die stationaren Werte x in Abhangigkeit des Parameters a charakterisiert werden.Der Gradient und die Hessematrix von f(x) ergeben sich zu

    f(x) =[

    2x1 x22ax2 x1

    ], 2f(x) =

    [2 11 2a

    ]. (3.13)

    Aus f(x) = 0 folgt x = [0, 0]T als einziger stationarer Punkt fur a 6= 1/4. DieDefinitheit der Hessematrix 2f(x) an der Stelle x lasst sich mit Hilfe der Hauptunter-determinanten (Sylvesterkriterium, siehe (3) in Satz 2.2) untersuchen:

    D1 = 2, D2 = 4a 1 . (3.14)

    Somit ist 2f(x) positiv definit fur a > 1/4 und x = [0, 0]T stellt ein striktes Minimumdar. Fur a < 1/4 ist D1 > 0 und D2 < 0 und 2f(x) somit indefinit. In diesem Fall istx = [0, 0]T ein Sattelpunkt, wie er in Abbildung 3.1b) fur a = 1 dargestellt ist.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 24

    Falls die Kostenfunktion f(x) konvex (bzw. strikt konvex) ist, lassen sich starkere Aussa-gen treffen als in den Satzen 3.1 und 3.2:

    Satz 3.3 (Hinreichende Optimalitatsbedingungen fur konvexe Funktionen)Sei f : Rn R eine stetig differenzierbare und (strikt) konvexe Funktion. Falls f(x) =0, dann ist x ein (eindeutiges) globales Minimum der Funktion f .

    3.3 Numerische Losung mit Liniensuchverfahren

    Da die Stationaritatsbedingung f(x) = 0 nur in seltenen Fallen analytisch ausge-wertet werden kann, ist man im Allgemeinen auf numerische Verfahren angewiesen, umeinen stationaren Punkt x zu finden. Eines der bekanntesten numerischen Verfahren istdie Liniensuche (Englisch: line search). Ausgehend von einer suboptimalen Startlosungx0 mit f(x0) > f(x), versuchen Liniensuchverfahren sich iterativ einem Minimum x

    anzunahern. Dabei wird in jedem Schritt k gefordert, dass

    f(xk+1) < f(xk) k N+0 (3.15)

    erfullt ist, um im Grenzfall k gegen ein Minimum zu konvergieren:

    limk

    xk = x . (3.16)

    Liniensuchverfahren verfolgen dabei prinzipiell die Strategie, zunachst eine Suchrichtung(oder Abstiegsrichtung) sk zu bestimmen, entlang der die Ungleichung (3.15) erfullt ist.

    Um dies zu verdeutlichen, wird die Kostenfunktion f(x) an der Stelle xk in eine Taylor-reihe entwickelt:

    f(xk + s) = f(xk) +f(xk)Ts+O(||s||2) . (3.17)Fur hinreichend kleine s kann der Restterm O(||s||2) vernachlassigt werden und manerkennt sofort, dass an dem Punkt xk eine geeignete Suchrichtung sk die Abstiegsbedingung

    f(xk)Tsk < 0 (3.18)

    erfullen muss, damit f(xk + sk) < f(xk) gilt. Verschiedene Methoden existieren zurBestimmung der Suchrichtung sk. Die gebrauchlichsten Verfahren sind in den Abschnit-ten 3.3.2 bis 3.3.5 vorgestellt.

    Zusatzlich muss eine geeignete Schrittweite k bestimmt werden, um festzulegen, wie weitin Suchrichtung sk bis zum nachsten Punkt

    xk+1 = xk + ksk (3.19)

    vorangeschritten werden soll. Die optimale Schrittweite k stellt die Losung des unterla-gerten (skalaren) Optimierungsproblems

    mink>0

    (k) mit (k) = f(xk + ksk) (3.20)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 25

    k

    (k)

    sk

    xk

    xk

    Hohenlinien

    Abbildung 3.2: Veranschaulichung des Liniensuchproblems (3.20).

    dar, was dem maximal moglichen Abstieg entlang der Suchrichtung sk entspricht. Ab-bildung 3.2 veranschaulicht das Prinzip der Liniensuche fur eine (nicht konvexe) Kosten-funktion f(x) mit x R2 und einer gegebenen Suchrichtung sk.Im Allgemeinen wird (3.20) nicht exakt gelost, sondern anhand geeigneter Methoden ap-proximiert (siehe Abschnitt 3.3.1). Das gewahlte k definiert dann die Schrittweite in derk-ten Iteration und bestimmt den nachsten Punkt (3.19). Der grundsatzliche Algorithmusvon Liniensuchverfahren ist in Tabelle 3.1 dargestellt.

    Initialisierung: x0 (Startwert)k 0 (Iterationsindex)x, f (Abbruchkriterien)

    repeatWahl der Suchrichtung sk

    Wahl der Schrittweite k

    xk+1 xk + kskk k + 1

    until ||xk+1 xk|| x or ||f(xk+1) f(xk)|| f

    Tabelle 3.1: Allgemeine Struktur von Liniensuchverfahren.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 26

    3.3.1 Bestimmung der Schrittweite

    Die Berechnung einer geeigneten Schrittweite k stellt einen Kompromiss zwischen Re-chenzeit und Genauigkeit dar. Die optimale Losung bestunde darin, das skalare Optimie-rungsproblem (3.20) exakt oder zumindest hinreichend genau zu losen, was jedoch in derPraxis zu viele Auswertungen der Kostenfunktion f und eventuell des Gradienten fbenotigen wurde.

    Die meisten numerischen Verfahren verwenden deshalb eine suboptimale Liniensuche, umeine Schrittweite k zu bestimmen, die zu einer adaquaten Reduktion der Kostenfunk-tion f im nachsten Schritt xk+1 fuhrt. Im Folgenden wird dabei auf folgende Aspekteeingegangen:

    Abstiegs- und Krummungsbedingungen Backtracking-Verfahren Intervallschachtelungsverfahren.

    Abstiegs- und Krummungsbedingungen

    Ein erstes Kriterium fur einen hinreichenden Abstieg in der Kostenfunktion f ist dieUngleichung

    f(xk + ksk) = (k)

    f(xk) = (0)

    +c1kf(xk)Tsk

    = (0)

    (3.21)

    in Abhangigkeit einer Konstanten c1 (0, 1). Gelegentlich wird die Abstiegsbedingungauch Armijo-Bedingung genannt. Anschaulich interpretiert bedeutet die Ungleichung (3.21),dass der Abstieg in f proportional zur Schrittweite k und der Richtungsableitung (0) =f(xk)Tsk sein sollte.Abbildung 3.3 illustriert diesen Zusammenhang. Die rechte Seite der Ungleichung (3.21)stellt eine Gerade mit der negativen Steigung c1

    (0) dar, aber aufgrund der Konstantenc1 (0, 1) liegt die Gerade fur hinreichend kleine Werte von k uber dem Funktionswert(k). Die Abstiegsbedingung (3.21) verlangt folglich, dass Werte von k nur zulassigsind, wenn ihr Funktionswert (k) unterhalb dieser Geraden liegt. In der Praxis wird c1haufig sehr klein gewahlt (z.B. 104), damit die Abstiegsbedingung nicht zu restriktiv ist.

    Die Abstiegsbedingung (3.21) alleine ist oft nicht genug, um einen nennenswerten Abstiegin der Kostenfunktion f zu gewahrleisten, da sie fur hinreichend kleine Schrittweiten k

    stets erfullt ist (siehe Abbildung 3.3). Unnotig kleine Werte von k konnen durch einzweites zusatzliches Kriterium, die sogenannte Krummungsbedingung vermieden werden 1f(xk + ksk)Tsk

    = (k)

    c2f(xk)Tsk = (0)

    . (3.22)Die Konstante c2 (c1, 1) wird dabei in Abhangigkeit der ersten Konstante c1 aus (3.21)gewahlt. Da die linke Seite der Krummungsbedingung den Gradienten (k) darstellt, be-deutet das Kriterium also, dass der Betrag der Steigung (k) an der Stelle k kleiner oder

    1 Genau genommen handelt es sich um eine strenge Krummungsbedingung, da eine schwachere Be-dingung der Form (3.22) auch ohne Betragsfunktionen angegeben werden kann.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 27

    zulassige k

    Tangente (0)

    k

    c1 = 0.25c1 = 0.1

    (k) = f(xk + ksk)

    Abbildung 3.3: Veranschaulichung der Abstiegsbedingung (3.21).

    zulassige k

    k

    Steigung c2(0)

    Abstiegskrit. (c1 = 0.1)

    (0)

    (k) = f(xk + ksk)

    Abbildung 3.4: Veranschaulichung der Abstiegs- und Krummungsbedingungen (Wolfe-Bedingungen).

    gleich dem c2-fachen Betrag der Anfangssteigung (0) sein muss, siehe Abbildung 3.4.

    Zusammen mit der Abstiegsbedingung (3.21) ergibt sich somit eine Menge an zulassigenSchrittweiten k.

    Die Formulierung der Krummungsbedingung macht durchaus Sinn, da im Falle einer starknegativen Steigung (k) davon auszugehen ist, dass (und damit f) weiter reduziertwerden kann, wenn man sich weiter entlang der k-Achse bewegt. Andererseits wird durchdie Betragsbedingung vermieden, dass die Steigung (k) zu gro wird und man somitzu weit von einem lokalen Minimum von entfernt ist.

    Die Abstiegs- und Krummungsbedingungen (3.21)-(3.22) werden auch Wolfe-Bedingungengenannt und konnen in den meisten Liniensuchverfahren eingesetzt werden. Typischerwei-se wird c2 zu 0.9 gewahlt, wenn die Suchrichtung s

    k durch ein Newton- oder Quasi-Newton-Verfahren bestimmt wird, bzw. zu 0.1 im Falle von Konjugierten-Gradienten-Verfahren(siehe die folgenden Abschnitte).

    Es lasst sich zeigen, dass fur stetig differenzierbare und von unten beschrankte Funktionenf stets ein Intervall existiert, in dem die Wolfe-Bedingungen erfullt sind.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 28

    Backtracking-Verfahren

    Wie bereits erwahnt wurde, ist die Abstiegsbedingung (3.21) allein nicht ausreichend,um einen hinreichend schnellen Abstieg in der Kostenfunktion f zu gewahrleisten. Wennallerdings die Kandidaten fur die Schrittweite k geeignet gewahlt werden, kann die Krum-mungsbedingung (3.22) vernachlassigt werden und die Liniensuche anhand der Abstiegs-bedingung (3.21) abgebrochen werden. Ein geeignetes Verfahren ist das Backtracking-Verfahren, das (in der einfachsten Form) durch den Algorithmus in Tabelle 3.2 beschriebenwird.

    Das Vorgehen kann anhand von Abbildung 3.3 erklart werden. Wenn der Startwert weitauf der rechten Seite liegt, wird solange um den Faktor reduziert, bis () = f(xk +sk) unterhalb einer der Geraden (mit c = 0.1 oder 0.25) liegt. Die sukzessive Reduktionum einen Faktor stellt sicher, dass k klein genug ist, um die Abstiegsbedingung (3.21) zuerfullen. Andererseits wird durch die sukzessive Reduktion um den Faktor sichergestellt,dass k nicht zu klein wird, was zu einer Stagnation des Verfahrens fuhren konnte.

    Das Backtracking-Verfahren wird haufig in Zusammenhang mit Newton-Verfahren einge-setzt und die Startschrittweite zu = 1 gewahlt. Fur Quasi-Newton- oder Konjugierte-Gradienten-Verfahren (Abschnitte 3.3.3 und 3.3.5) ist dieses Verfahren allerdings wenigergut geeignet.

    Initialisierung: > 0 (Startwert) (0, 1) (Backtracking-Parameter)c (Abstiegsbedingung)

    repeat

    until f(xk + sk) f(xk) + c f(xk)Tsk

    k (Schrittweite)

    Tabelle 3.2: Backtracking-Verfahren.

    Intervallschachtelungsverfahren (Goldener Schnitt)

    Ein alternatives Verfahren zur Bestimmung der Schrittweite k ist das Intervallschach-telungsverfahren, das eine konvergierende Folge von Intervallschachtelungen erzeugt, umdas Minimum von () einzugrenzen.

    Zunachst muss ein Interval [l, r] gefunden werden, in dem die Funktion (k) ein Mi-

    nimum aufweist, siehe Abbildung 3.5. Dies kann z.B. dadurch erreicht werden, dass miteinem hinreichend kleinen l gestartet wird und r (ausgehend von l) sukzessive vergro-ert wird, bis der Funktionswert (r) anfangt zuzunehmen.

    Anschlieend werden zwei innere Werte l < l < r < r durch die linearen Beziehungen

    l = l + (1 a)(r l), r = l + a(r l) (3.23)mit dem Parameter a (1

    2, 1) bestimmt und die Funktionswerte (l) und (r) berech-

    net. Falls (l) < (r) gilt, so liegt das Minimum offenbar im Intervall [l, r] und der

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 29

    1l

    2l 2l

    2r

    1r1r

    k

    (k) = f(xk + ksk)

    2. Intervall

    1. Intervall

    1. Schritt

    2. Schritt

    1l

    2r

    Abbildung 3.5: Veranschaulichung der Intervallhalbierungsmethode.

    auere rechte Punkt r wird verworfen (siehe 1. Schritt in Abbildung 3.5). Falls ande-rerseits (l) > (r) gilt, so muss das Minimum im Intervall [l, r] liegen und der linkeauere Punkt l wird verworfen. Im nachsten Iterationsschritt wird somit das verkurzteIntervall [l, r] bzw. [l, r] betrachtet und die Intervallschachtelung erneut angewendet.

    Wenn der Parameter a zu

    a =

    5 12

    0.618 (3.24)

    gewahlt wird, ist lediglich eine weitere Funktionsauswertung notwendig, um einen neueninneren Punkt zu bestimmen (siehe 2. Schritt, 2r =

    1l , in Abbildung 3.5). Aus diesem

    Grund wird diese Wahl von a als der Goldene Schnitt bezeichnet. Pro Schritt wird dasursprungliche Intervall somit um ca. 38% reduziert. Tabelle 3.3 fasst den Algorithmuszusammen.

    Initialisierung: l, r (Startintervall mit innerem Minimum)a = 0.618 (Goldener Schnitt-Parameter), (Abbruchskriterien)l l + (1 a)(r l) (innere Punkte)r l + a(r l)

    repeatif (l) < (r) do

    r rr ll l + (1 a)(r l)

    else (d.h. (l) (r))l ll rr l + a(r l)

    end

    until |r l| or |(r) (l)|

    Tabelle 3.3: Intervallschachtelungsverfahren (Goldener Schnitt).

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 30

    Abschlieend kann k entweder aus der Mittelung k = (l + r)/2 oder aus einerquadratischen Interpolation zwischen den kleinsten drei der vier Funktionswerte von(l, l, r, r) gewonnen werden.

    Das Intervallschachtelungsverfahren ist ein einfaches und robustes Verfahren, das aller-dings meistens mehr Iterationen benotigt als andere Verfahren, um eine geeignete Schritt-weite k zu bestimmen.

    3.3.2 Gradientenverfahren

    Zusatzlich zur Schrittweite k ist die Bestimmung der Suchrichtung sk von elementarerBedeutung, um den nachsten Iterationspunkt

    xk+1 = xk + ksk (3.25)

    mit einem moglichst groen Abstieg in der Kostenfunktion f zu bestimmen. Dabei existie-ren unterschiedliche Verfahren zur Bestimmung der Suchrichtung sk, die sich hinsichtlichGenauigkeit, Konvergenzgeschwindigkeit und Rechenaufwand unterscheiden.

    Die einfachste Methode, um eine Suchrichtung zu bestimmen, besteht darin, den negativenGradienten an der Stelle xk zu verwenden,

    sk = f(xk) , (3.26)

    weshalb dieses Verfahren auch Gradientenverfahren genannt wird. Es ist leicht zu veri-fizieren, dass die Ungleichung (3.18) fur nicht-stationare Punkte (f(xk) 6= 0) erfulltist:

    f(xk)Tf(xk) = ||f(xk)||2 < 0 . (3.27)Da der negative Gradient die Ungleichung (3.18) minimiert, spricht man von der Richtungdes steilsten Abstiegs (Englisch: steepest descent). Der Gradient steht dabei orthogonalzu der Hohenlinie f(xk) = konst., die durch den Punkt xk verlauft (Abbildungen 3.6 und3.7).

    Wenn ein Problem gut konditioniert ist (z.B. f(x) = x21 + x22), zeigt der negative Gra-

    dient in die Richtung des Minimums x, siehe Abbildung 3.6. In diesem Fall konvergiertdas Gradientenverfahren schnell zur optimalen Losung. Wenn andererseits das Problemschlecht konditioniert ist und der negative Gradient nicht in die Nahe des Minimums x

    weist, konvergiert das Gradientenverfahren sehr langsam, wie in Abbildung 3.7 dargestelltist. Dies wird auch aus dem folgendem Satz deutlich:

    Satz 3.4 (Konvergenzrate des Gradientenverfahrens)Fur quadratische Funktionen f(x) = 1

    2xTQx + bTx + c mit positiv definiter Matrix Q

    konvergiert das Gradientenverfahren bei exakter Losung des Liniensuchproblems (3.20)gema

    f(xk+1) f(x) ( 1+ 1

    )2 [f(xk) f(x)

    ], =

    maxmin

    , (3.28)

    wobei min und max der kleinste und grote Eigenwert von Q sind.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 31

    x2

    sk

    sk

    x1

    x

    sk

    x

    x0

    x1

    x2

    x1

    Abbildung 3.6: Beispiel eines gut kon-ditionierten Problems fur das Gradien-tenverfahren.

    Abbildung 3.7: Beispiel eines schlecht konditio-nierten Problems fur das Gradientenverfahren.

    Die Zahl stellt die spektrale Konditionszahl der Matrix Q dar und beeinflusst direkt dieKonvergenzgeschwindigkeit, wie in der folgenden Aufgabe untersucht werden soll.

    Aufgabe 3.1 Untersuchen Sie die Konvergenzrate (3.28) des Gradientenverfahrens furdas quadratisches Problem

    minxR2

    f(x) =1

    2

    (x1 x1

    a

    )2+

    1

    2(x2 x2)2 (3.29)

    mit den Werten a = 1 und a = 5 (siehe Abbildung 3.6 und 3.7).

    Die Vor- und Nachteile des Gradientenverfahrens sind im Folgenden zusammengefasst:

    + groerer Konvergenzbereich als beim Newton-Verfahren(2f(xk) > 0 nicht erforderlich)

    + einfaches Verfahren

    - langsame Konvergenz bei schlecht konditionierten / schlecht skalierten Problemen

    - begrenzte Genauigkeit (Verfahren erster Ordnung)

    3.3.3 Konjugierte-Gradienten-Verfahren

    Das Konjugierte-Gradienten-Verfahren ist eine bedeutende Alternative zum herkommli-chen Gradientenverfahren, da der Rechenaufwand nicht viel hoher ist, die Effizienz undKonvergenzeigenschaften aber deutlich besser sind als beim Gradientenverfahren.

    Das Konjugierte-Gradienten-Verfahren nutzt Informationen des vorherigen Schrittes aus,um die Suchrichtung sk zu bestimmen:

    s0 = f(x0)sk = f(xk) + ksk1 .

    (3.30a)

    (3.30b)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 32

    Der Start des Verfahrens erfolgt mit dem steilsten Abstieg f(x0), wahrend bei al-len weiteren Schritten gema (3.30b) ein Korrekturterm in Abhangigkeit der vorherigenSuchrichtung sk1 dazukommt. Der Faktor k wird durch die Beziehung

    k =||f(xk)||2||f(xk1)||2 (3.31)

    aktualisiert, die von Fletcher und Reeves vorgeschlagen wurde. Weitere Formeln sind inden am Ende des Kapitels aufgelisteten Lehrbuchern angegeben.

    Konjugierte-Gradienten-Verfahren verzichten prinzipiell auf aufwendige Matrixoperatio-nen und sind somit gut auf groe Probleme anwendbar, bei denen auf Speichereffizienzgeachtet werden muss. Des Weiteren kann gezeigt werden, dass bei quadratischen Proble-men der Form

    f(x) =1

    2xTQx+ bTx+ c , x Rn

    mit positiv definiter Hessematrix Q und exakter Losung des Liniensuchproblems (3.20)das Konjugierte-Gradienten-Verfahren nach hochstens n Iterationen konvergiert.

    Aufgabe 3.2 Verifizieren Sie, dass das Konjugierte-Gradienten-Verfahren bei exakter Li-niensuche tatsachlich eine Abstiegsrichtung sk liefert, die die Ungleichung (3.18) erfullt.

    3.3.4 Newton-Verfahren

    Ein Sonderfall des Liniensuchverfahrens liegt vor, wenn die Suchrichtung sk so gewahltwird, dass die Iterationsvorschrift xk+1 = xk + ksk dem Newton-Verfahren entspricht.In diesem Fall spricht man von der Newton-Richtung sk.

    Zunachst wird die Kostenfunktion f(x) = f(xk + s) an der Stelle xk durch ein quadra-tisches Modell

    mk(s) = f(xk) +f(xk)Ts+ 12sT2f(xk) s (3.32)

    approximiert, fur das das Minimum s gesucht wird. Durch Ableitung von (3.32) nach sk

    ergibt sichf(xk) +2f(xk) s = 0 . (3.33)

    Unter der Annahme, dass 2f(xk) positiv definit ist, lautet die Newton-Richtung sk = san der Stelle xk somit

    sk = [2f(xk)

    ]1f(xk) . (3.34)Des Weiteren ist leicht zu uberprufen, dass die Ungleichung (3.18)

    f(xk)Tsk = f(xk)T[2f(xk)

    ]1f(xk) < 0 . (3.35)stets erfullt ist, da fur positiv definite 2f(xk) die Inverse ebenfalls positiv definit ist.Mit Hilfe der Newton-Richtung (3.34) ergibt sich der neue Iterationspunkt xk+1 = xk +sk, was einer naturlichen Schrittweite k = 1 fur die Iterationsvorschrift (3.25) desLiniensuchverfahren entspricht. Die meisten Varianten des Newton-Verfahrens verwenden

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 33

    x1

    Hohenlinienf(x) = konst.

    quadr. Approximation mk(s)

    xk

    fx

    xk+1

    NewtonRichtung sk

    x2

    Abbildung 3.8: Veranschaulichung der Newton-Richtung sk im Vergleich zur steilsten Ab-stiegsrichtung f(xk).

    deshalb standardmaig eine Schrittlange von k = 1, die lediglich reduziert wird, wennder Abstieg in der Kostenfunktion f(xk+1) unterhalb einer Schranke liegt.

    Das Newton-Verfahren ist ein Verfahren zweiter Ordnung, da die Approximation (3.32)die Fehlerordnung O(||s||3) besitzt. Es ist zuverlassig und auch fur hoch-dimensionaleSysteme gut geeignet, wenn die quadratische Approximation der Funktion f an der Stellexk hinreichend genau ist. Abbildung 3.8 illustriert die quadratische Approximationsgutedes Newton-Verfahrens im Vergleich zur steilsten Abstiegsrichtung f des Gradienten-verfahren.

    Aufgabe 3.3 Zeigen Sie, dass das Newton-Verfahren fur quadratische Probleme

    minxRn

    1

    2xTQx+ bTx+ c (Q positiv definit) (3.36)

    unabhangig vom Startpunkt x0 innerhalb von einem Iterationsschritt konvergiert.

    Die Vor- und Nachteile des Newton-Verfahrens sind im Folgenden zusammengefasst:

    + quadratische Konvergenz in der Nahe von x (innerhalb weniger Iterationen)

    + hohe Genauigkeit (Verfahren zweiter Ordnung)

    - nur lokale Konvergenz (2f(x) > 0 im Allg. nicht fur alle x gewahrleistet)- aufwendige Berechnung der Hessematrix 2f , insbesondere bei groen Problemen

    Um globale Konvergenz des Newton-Verfahrens zu erreichen, gibt es verschiedene Ansatze,die die Positiv-Definitheit der Hessematrix gewahrleisten (z.B. durch Modifikationen), aufdie an dieser Stelle aber nicht naher eingegangen wird.

    Die aufwendige Berechnung der Hessematrix2f kann durch Approximationen (z.B. finiteDifferenzen) oder Quasi-Newton-Verfahren vermieden werden, wie im nachsten Abschnittbeschrieben wird.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.3 Numerische Losung mit Liniensuchverfahren Seite 34

    3.3.5 Quasi-Newton-Verfahren

    Quasi-Newton-Verfahren stellen eine attraktive Alternative zum reinen Newton-Verfahrendar, da sie die aufwendige Berechnung der Hessematrix2f und ihrer Inversen vermeiden.Statt dessen wird die Hessematrix approximiert und wahrend der einzelnen Iterationenaktualisiert. Dazu werden Informationen uber die Gradienten an den einzelnen Iterations-punkten ausgenutzt, die Informationen uber die zweite Ableitung entlang der Suchrichtungliefern.

    Um dieses Vorgehen zu illustrieren, wird der Gradient f an der Stelle xk durch einlineares Modell approximiert:

    f(xk + s) f(xk) +2f(xk)s . (3.37)

    Fur hinreichend kleine s = xk1xk ergibt sich somit eine Approximationsgleichung furden Gradienten am vorherigen Iterationspunkt xk1:

    f(xk1) f(xk) +2f(xk)(xk1 xk) . (3.38)

    Aus diesem Zusammenhang wird ersichtlich, dass die Hessematrix an dem Punkt xk durcheine Matrix Hk 2f(xk) angenahert werden kann, die die folgende sogenannte Sekan-tengleichung erfullen muss:

    Hk(xk xk1) = f(xk)f(xk1). (3.39)

    Da es sich hierbei um ein unterbestimmtes Problem handelt (Hk hat n2 Elemente, aber(3.39) nur n Gleichungen), werden typischerweise weitere Bedingungen an Hk gestellt,z.B. Symmetrie und minimale Differenz zwischen Hk und Hk1. Diese zusatzliche Bedin-gungen lassen sich zusammen mit (3.39) in einem Optimierungsproblem fur Hk formulie-ren, dass analytisch gelost werden kann.

    Eine der bekanntesten Formeln zur Aktualisierung von Hk ist die sogenannte BFGS-Formel (nach Broyden, Fletcher, Goldfarb, Shanno)

    Hk = Hk1 Hk1dk(dk)THk1

    (dk)THk1dk+yk(yk)T

    (dk)Tyk(3.40)

    mit den Abkurzungen

    dk = xk xk1, yk = f(xk)f(xk1) . (3.41)

    Die Initialisierung des Quasi-Newon-Verfahrens an der Stelle x0 erfolgt uber eine positivdefinite Schatzung H0 2f(x0) oder im einfachsten Fall mit Hilfe der EinheitsmatrixH0 = I.

    Da ein Newton-Verfahren die inverse Hessematrix benotigt, um die Suchrichtung sk zuberechnen, siehe (3.34), ist es oft sinnvoller, anstelle vonHk eine Approximation der inver-sen Hessematrix Bk = (Hk)1 zu bestimmen. Die zu der BFGS-Formel (3.40) aquivalenteFormel lautet

    Bk =[I kdk(yk)T

    ]Bk1

    [I kyk(dk)T

    ]+ kdk(dk)T, k =

    1

    (yk)Tdk. (3.42)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.4 Weitere numerische Verfahren Seite 35

    Somit ergibt sich analog zur Newton-Richtung (3.34) die Suchrichtung

    sk = Bkf(xk) . (3.43)

    Quasi-Newton-Verfahren zeichnen sich durch eine schnelle Konvergenz aus, erreichen aberin der Regel nicht die Konvergenzgeschwindigkeit des reinen Newton-Verfahrens. Da-fur sind die Vektor-Matrizen-Multiplikationen zur Berechnung von Hk bzw. Bk deut-lich schneller auszufuhren als die Berechnung der Hessematrix 2f und ihrer Inversenin (3.34).

    Ein weiterer Vorteil gegenuber dem Newton-Verfahren ist, dass Singularitatsproblemetheoretisch nicht auftreten konnen, da zumindest bei exakter Losung des Liniensuchpro-blems (3.20) die Positiv-Definitheit von Hk bzw. Bk gewahrleistet ist.

    Ahnlich wie bei den Konjugierten-Gradienten-Verfahren kann gezeigt werden, dass Quasi-Newton-Verfahren bei quadratischen Problemen

    f(x) =1

    2xTQx+ bTx+ c , x Rn

    mit positiv definiter Hessematrix Q und exakter Losung des Liniensuchproblems (3.20)nach hochstens n Iterationen konvergieren.

    3.4 Weitere numerische Verfahren

    In Folgenden werden weitere Verfahren zur numerischen Losung von unbeschrankten Op-timierungsproblemen vorgestellt. Die Methode der Vertrauensbereiche besitzt Ahnlichkeitzu den Liniensuchverfahren im vorherigen Abschnitt, wahrend direkte Suchverfahren ohnedie Auswertung von Gradienten auskommen.

    3.4.1 Methode der Vertrauensbereiche

    Anders als die Liniensuchverfahren in Abschnitt 3.3 konstruiert die Methode der Vertrau-ensbereiche (Englisch: trust region method) ein lokales vereinfachtes Modellmk(s) f(xk)der Kostenfunktion f(xk) an der Stelle xk, das anstelle des ursprunglichen Optimierungs-problems (3.1) gelost wird:

    min||s||k

    mk(s) mit mk(s) f(xk) fur ||s|| k . (3.44)

    Da das Modell mk(s) in der Regel nur lokal (fur hinreichend kleine s) genau ist, wird dieSuche nach dem Minimum von mk(s) auf einen Vertrauensbereich ||s|| k beschrankt.Das Naherungsmodell mk wird im Allgemeinen durch eine quadratische Funktion derForm

    mk(s) =1

    2sTHk s+f(xk)Ts+ f(xk) . (3.45)

    angesetzt, wobei die Matrix Hk entweder durch die Hessematrix 2f(xk) oder eine Ap-proximation davon gegeben ist. Die Losung sk des neuen Optimierungsproblems (3.44)

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.4 Weitere numerische Verfahren Seite 36

    fuhrt zu einem Kandidaten fur den nachsten Punkt xk+1 = xk + sk. Falls der ent-sprechende Funktionswert f(xk+1) nicht zu einer hinreichenden Reduktion des vorherigenKostenfunktionswertes f(xk) fuhrt, wird der Vertrauensbereich k verkleinert und (3.45)erneut gelost.

    Wahrend jeder dieser Iterationen mit abnehmendem Vertrauensbereich k wird der Ab-stand zwischen xk und dem neuen Kandidaten xk+1 kleiner werden und sk in der Regel ineine andere Richtung weisen. Somit unterscheidet sich die Methode der Vertrauensberei-che von den bisherigen Liniensuchverfahren in der Art und Weise, wie die Richtung undSchrittweite zum nachsten Iterationspunkt gewahlt wird:

    Liniensuchverfahren fixieren die Suchrichtung sk und bestimmen dann eine geeigneteSchrittweite k.

    In der Methode der Vertrauensbereiche wird zunachst ein maximaler Vertrauensbe-reich k gewahlt und dann simultan die geeignete Richtung und Abstand (also sk)zum nachsten Iterationspunkt xk+1 bestimmt. Gegebenenfalls wird der Vertrauens-bereich verkleinert und die Suche wiederholt.

    Der Vertrauensbereich k wird in jedem Iterationsschritt in Abhangigkeit der Uberein-stimmung des Modells mk und der Kostenfunktion f angepasst. Dazu wird das Verhaltnis

    k(sk) =f(xk) f(xk + sk)mk(0)mk(sk) (3.46)

    eingefuhrt, das ein Ma fur die Modellgute darstellt. Der Zahlerterm bezeichnet den tat-sachlichen Abstieg in der Kostenfunktion, wahrend der Nennerterm den pradizierten Ab-stieg wiedergibt. Fur k 1 besteht eine gute Ubereinstimmung zwischen Modell undRealitat in dem momentanen Iterationsschritt, so dass der Vertrauensbereich k im nachs-ten Schritt vergroert werden kann. Falls stattdessen k 1 gilt, sollte k im nachstenSchritt reduziert werden. Der grundlegende Algorithmus fur die Methode der Vertrauens-bereiche ist in Tabelle 3.4 angegeben.

    3.4.2 Direkte Suchverfahren

    Die vorhergegangenen sogenannten ableitungsbehafteten Losungsverfahren verwenden In-formationen der Gradienten f (und der Hessematrix 2f falls verfugbar), um mittelseiner Iterationsvorschrift einen neuen Punkt xk+1 zu bestimmen, der einen hinreichendenAbstieg in der Kostenfunktion f(xk+1) < f(xk) ermoglicht.

    Allerdings sind in manchen praktischen Fallen die partiellen Ableitungen nicht verfugbarbzw. konnen nicht approximiert oder mit vertretbarem Aufwand berechnet werden, da dasbetrachtete Problem zu komplex bzw. nicht stetig differenzierbar ist. Abhilfe verschaffenin diesem Fall sogenannte direkte oder ableitungsfreie Suchverfahren, die mit Hilfe vonStichproben eine Reihe von Funktionswerten berechnen, um daraus einen neuen Iterati-onspunkt xk+1 zu bestimmen.

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.4 Weitere numerische Verfahren Seite 37

    Initialisierung: ,0 (0, ) (Vertrauensbereich: Grenz- & Startwert) [0, 1

    4) (Parameter)

    k 0 (Iterationsindex)x, f (Abbruchkriterien)

    repeatmk(s) (3.45) (Modell)sk arg min

    {mk(s) : ||s|| k

    }(evtl. approximativ gelost)

    k (3.46) (Modellgute)if k < 1

    4do

    k+1 14k (Reduktion)

    else if k > 34

    and ||sk|| = k dok+1 min{2k, } (Vergroerung)

    elsek+1 k

    end if

    if k > doxk+1 xk + sk (nachster Schritt)Hk+1 Hk + . . . (Aktualisierung der Hessematrix)

    elsexk+1 xk (Schritt mit k+1 < k wiederholen)

    end if

    k k + 1until ||xk xk1|| x or |f(xk) f(xk1)| f

    Tabelle 3.4: Methode der Vertrauensbereiche.

    Eines der bekanntesten und gleichzeitig einfachsten Verfahren in der nichtlinearen Op-timierung ist das Simplex-Verfahren nach Nelder und Mead. 2 Der Algorithmus basiertauf einem Simplex im n-dimensionalen Parameterraum, das aus n + 1 Punkten xk,i, i =1, . . . , n+ 1 aufgespannt wird (k ist der Iterationsindex). Fur n = 1 ist dies eine Gerade,fur n = 2 ein Dreieck, usw.

    Fur die n + 1 Punkte xk,i des Simplex werden die Funktionswerte f(xk,i) berechnet undder Groe nach umsortiert, so dass sich die aufsteigende Folge

    f(xk,1) f(xk,2) f(xk,n+1) (3.47)ergibt. Der Algorithmus ersetzt dann den schlechtesten Punkt xk,n+1 durch einen neuenPunkt nach der Geradengleichung

    g(a) = xk + a(xk xk,n+1) , xk = 1n

    ni=1

    xk,i . (3.48)

    in Abhangigkeit eines Parameters a. Der Punkt xk stellt den Mittelpunkt (bzw. Schwer-punkt) des restlichen Simplex dar. Das Simplex-Verfahren verwendet verschiedene Abbil-

    2 Es sei an dieser Stelle angemerkt, dass sich das Simplex-Verfahren nach Nelder und Mead grund-satzlich vom Simplex-Algorithmus in der Linearen Programmierung unterscheidet, der von G. Danzigeingefuhrt wurde!

    Methoden der Optimierung und optimalen Steuerung (WS 2012/2013)cProf. Dr.-Ing. Knut Graichen, Institut fur Mess, Regel und Mikrotechnik, Uni Ulm

  • 3.4 Weitere numerische Verfahren Seite 38

    dungen mittels der Geradengleichung (3.48), um ein geeignetes neues Simplex zu finden:Reflexion, Expansion, innere/auere Kontraktion und Schrumpfung.

    a) Reflexion (siehe Abbildung 3.9a):Bestimme den Reflexionspunkt xkr = g(1) und f

    kr = f(x

    kr).

    Falls f(xk,1) fkr < f(xk,n), setze xk,n+1 = xkr .

    b) Expansion (siehe Abbildung 3.9b):Falls fkr < f(x

    k,1), berechne xke = g(2) und fke = f(x

    ke).

    Falls fke < fkr , setze x

    k,n+1 = xke . Andernfalls setze xk,n+1 = xkr .

    c) auere Kontraktion (siehe Abbildung 3.9c):Falls f(xk,n) fkr < f(xk,n+1), berechne xkc = g(1/2) und fkc = f(xkc ).Falls fkc fkr , setze xk,n+1 = xkc . Andernfalls gehe zu Schritt e).

    d) innere Kontraktion (siehe Abbildung 3.9d):Falls fkr f(xk,n+1), berechne xkc = g(1/2) und fkc = f(xkc ).Falls fkc < f(x

    k,n+1), setze xk,n+1 = xkc . Andernfalls gehe zu Schritt e).

    e) Schrumpfung (siehe Abbildung 3.9e):Komprimiere den Simplex um den besten Punkt xk,1:xk,i = xk,1 1

    2(xk,i xk,1), i = 2, . . . , n+ 1.

    Der Algorithmus und die einzelnen Simplexoperationen sind in Tabelle 3.5 und in Ab-bildung 3.9 dargestellt. Das Simplex-Verfahren wird iterativ fortgesetzt, bis ein Konver-genzkriterium erfullt ist. Der Simplex wandert dabei in Richtung des Optimums und ziehtsich zusammen. Allerdings ist die Konvergenz nicht garantiert und es kann vorkommen,dass das Simplex-Verfahren zu einem nicht-optimalen Punkt konvergiert. 3 In der Praxisfuhrt das Simplex-Verfahren aber haufig zu guten Ergebnissen, wenn auch nur mit maigschneller Konvergenz. Aufgrund der Robustheit und des einfachen Algorithmus ist es eingebrauchliches Optimierungsverfahren.

    Initialisierung: k 0 (Iterationsindex) (Abbruchkriterium)

    repeatSortierung (3.47)xk (3.48) (Mittelpunkt)Austausch von xk,n+1 (Reflexion/Expansion/Kontraktion)bzw