Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Lagrange-Multiplikator – Wikipedia
Lagrange-Multiplikator – Wikipedia 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Lagrangesche Multiplikatorregel)
Visualisierung der Methode der Lagrange-Multiplikatoren. Die rote Linie stellt die Menge dar, auf der g ( x , y ) = c {\displaystyle g(x,y)=c} {\displaystyle g(x,y)=c} erfüllt ist. Die blauen Linien sind Höhenlinien f ( x , y ) = d {\displaystyle f(x,y)=d} {\displaystyle f(x,y)=d} für verschiedene Werte von d {\displaystyle d} {\displaystyle d}. An dem Punkt, an dem f {\displaystyle f} {\displaystyle f} unter der Nebenbedingung g = c {\displaystyle g=c} {\displaystyle g=c} maximal ist, verläuft g = c {\displaystyle g=c} {\displaystyle g=c} tangential zur Höhenlinie f ( x , y ) = d 1 {\displaystyle f(x,y)=d_{1}} {\displaystyle f(x,y)=d_{1}}. Dort sind die Gradienten der Funktionen f {\displaystyle f} {\displaystyle f} und g {\displaystyle g} {\displaystyle g}, dargestellt durch blaue bzw. rote Pfeile, kollinear.
Dasselbe Problem wie oben, wobei die Funktionswerte von f {\displaystyle f} {\displaystyle f} auf der Höhenachse abgetragen sind, rot sind die Funktionswerte von f {\displaystyle f} {\displaystyle f} an Punkten ( x , y ) {\displaystyle (x,y)} {\displaystyle (x,y)} für die gilt g ( x , y ) = c {\displaystyle g(x,y)=c} {\displaystyle g(x,y)=c}

Das Verfahren der Lagrange-Multiplikatoren (nach Joseph-Louis Lagrange) ist in der mathematischen Optimierung eine Methode zur Lösung von Optimierungsproblemen mit Nebenbedingungen. Ein Optimierungsproblem mit Nebenbedingungen ist die Aufgabe, ein lokales Extremum einer Funktion in mehreren Veränderlichen mit einer oder mehreren Nebenbedingungen zu finden, wobei die Nebenbedingungen als Nullstellen von Funktionen definiert sind. Diese Methode führt eine neue unbekannte skalare Variable für jede Nebenbedingung ein, einen Lagrange-Multiplikator, und definiert eine Linearkombination, die die Multiplikatoren als Koeffizienten einbindet. Die Lösungen der ursprünglichen Optimierungsaufgabe können dann unter gewissen Voraussetzungen als kritische Punkte dieser sogenannten Lagrange-Funktion bestimmt werden.

Beschreibung

[Bearbeiten | Quelltext bearbeiten]

Zunächst betrachten wir den zweidimensionalen Fall mit einer Nebenbedingung. Nehmen wir an, wir wollen eine Funktion f ( x , y ) {\displaystyle f(x,y)} {\displaystyle f(x,y)} maximieren, wobei die Nebenbedingung g ( x , y ) = 0 {\displaystyle g(x,y)=0} {\displaystyle g(x,y)=0} einzuhalten ist; manche Quellen verwenden stattdessen g ( x , y ) = c {\displaystyle g(x,y)=c} {\displaystyle g(x,y)=c} mit einer Konstante c {\displaystyle c} {\displaystyle c}. Die Nebenbedingung filtert bestimmte Punkte der x {\displaystyle x} {\displaystyle x}- y {\displaystyle y} {\displaystyle y}-Ebene heraus, die zusammengenommen Kurven bilden. Für unsere Betrachtung nehmen wir an, die Nebenbedingung sei so geartet, dass sie durch eine einzelne Kurve dargestellt werden kann (siehe nebenstehendes Bild, rote Kurve). Wenn wir uns auf dieser Kurve bewegen, berühren oder schneiden wir Höhenlinien von f ( x , y ) {\displaystyle f(x,y)} {\displaystyle f(x,y)}. Wir sehen nun, dass wir immer nur dann ein Maximum d {\displaystyle d} {\displaystyle d} der Funktion f ( x , y ) {\displaystyle f(x,y)} {\displaystyle f(x,y)} erreichen, wenn unsere Bewegung auf der Kurve g ( x , y ) = 0 {\displaystyle g(x,y)=0} {\displaystyle g(x,y)=0} tangential zur Höhenlinie f ( x , y ) = d {\displaystyle f(x,y)=d} {\displaystyle f(x,y)=d} verläuft: Andernfalls könnten wir durch Vorwärts- oder Rückwärtsbewegung auf der Kurve g ( x , y ) = 0 {\displaystyle g(x,y)=0} {\displaystyle g(x,y)=0} den Funktionswert von f ( x , y ) {\displaystyle f(x,y)} {\displaystyle f(x,y)} noch weiter vergrößern, ohne die Nebenbedingung zu verletzen.

Ein bekanntes Beispiel kann den Wetterkarten mit ihren Höhenlinien für Temperaturen und Druck entnommen werden. Die Extrema unter der Nebenbedingung treten dort auf, wo sich beim Überlagern der Karten Linien berühren. Geometrisch übersetzen wir die Tangentenbedingung, indem wir sagen, dass die Gradienten von f {\displaystyle f} {\displaystyle f} und g {\displaystyle g} {\displaystyle g} beim Maximum parallele Vektoren sind, wobei der Gradient von g {\displaystyle g} {\displaystyle g} nicht verschwinden darf.

Wir suchen also Punkte ( x , y ) {\displaystyle (x,y)} {\displaystyle (x,y)} mit g ( x , y ) = 0 {\displaystyle g(x,y)=0} {\displaystyle g(x,y)=0}, an denen ∇ x , y g ≠ 0 {\displaystyle \nabla _{x,y}g\neq 0} {\displaystyle \nabla _{x,y}g\neq 0} und

∇ x , y f = − λ ∇ x , y g {\displaystyle \nabla _{x,y}f=-\lambda \nabla _{x,y}g} {\displaystyle \nabla _{x,y}f=-\lambda \nabla _{x,y}g}.

Dabei wurden die folgenden Abkürzungen bzw. Definitionen für die zugehörigen Gradienten benutzt:

∇ x , y f := ( ∂ f ∂ x , ∂ f ∂ y ) {\displaystyle \nabla _{x,y}f:=\left({\frac {\partial f}{\partial x}},{\frac {\partial f}{\partial y}}\right)} {\displaystyle \nabla _{x,y}f:=\left({\frac {\partial f}{\partial x}},{\frac {\partial f}{\partial y}}\right)}

und

∇ x , y g := ( ∂ g ∂ x , ∂ g ∂ y ) {\displaystyle \nabla _{x,y}g:=\left({\frac {\partial g}{\partial x}},{\frac {\partial g}{\partial y}}\right)} {\displaystyle \nabla _{x,y}g:=\left({\frac {\partial g}{\partial x}},{\frac {\partial g}{\partial y}}\right)}

Der konstante Lagrange-Multiplikator λ {\displaystyle \lambda } {\displaystyle \lambda } wird dabei benötigt, weil die beiden Gradienten zwar parallel sein sollen, aber als Vektoren unterschiedlich lang sein können. Um alle genannten Bedingungen zu einer Gleichung zusammenzufassen, ist es nützlich, die folgende Lagrange-Funktion zu verwenden:

Λ ( x , y , λ ) := f ( x , y ) + λ ⋅ g ( x , y ) {\displaystyle \Lambda (x,y,\lambda ):=f(x,y)+\lambda \cdot g(x,y)} {\displaystyle \Lambda (x,y,\lambda ):=f(x,y)+\lambda \cdot g(x,y)}

Die Lösung des oben beschriebenen Optimierungsproblems mit einer Nebenbedingung entspricht jetzt einem kritischen Punkt der Lagrange-Funktion, d. h.:

∇ x , y , λ Λ ( x , y , λ ) = 0. {\displaystyle \nabla _{x,y,\lambda }\Lambda (x,y,\lambda )=0.} {\displaystyle \nabla _{x,y,\lambda }\Lambda (x,y,\lambda )=0.}

Die x {\displaystyle x} {\displaystyle x}- und die y {\displaystyle y} {\displaystyle y}-Komponente dieser Gleichung entsprechen dabei der Forderung nach Parallelität der zwei ursprünglichen Gradienten, die dritte Komponente ∇ λ Λ ( x , y , λ ) = 0 {\displaystyle \nabla _{\lambda }\Lambda (x,y,\lambda )=0} {\displaystyle \nabla _{\lambda }\Lambda (x,y,\lambda )=0} ist identisch mit g ( x , y ) = 0 {\displaystyle g(x,y)=0} {\displaystyle g(x,y)=0}.

Punkte, bei denen der Gradient der Nebenbedingung g {\displaystyle g} {\displaystyle g} verschwindet, müssen gesondert betrachtet werden, weil das Verfahren der Lagrange-Multiplikatoren über sie keine Aussage treffen kann.

Da im Allgemeinen nicht jeder kritische Punkt der Lagrange-Funktion das ursprüngliche Optimierungsproblem löst, liefert dieses Verfahren nur eine notwendige Bedingung für die Lösung des Optimierungsproblems.

Beispiele

[Bearbeiten | Quelltext bearbeiten]
Darstellung eines Optimierungsproblems mit einer Nebenbedingung

Beispiel mit Nebenbedingung ohne verschwindenden Gradienten

[Bearbeiten | Quelltext bearbeiten]

In diesem Beispiel soll die Funktion f ( x , y ) = x + y {\displaystyle f(x,y)=x+y} {\displaystyle f(x,y)=x+y} unter der Nebenbedingung x 2 + y 2 = 1 {\displaystyle x^{2}+y^{2}=1} {\displaystyle x^{2}+y^{2}=1} optimiert werden. Die Nebenbedingung entspricht also dem Einheitskreis. Mit Hilfe der Grafik kann das Maximum bei ( 2 / 2 , 2 / 2 ) {\displaystyle ({\sqrt {2}}/2,{\sqrt {2}}/2)} {\displaystyle ({\sqrt {2}}/2,{\sqrt {2}}/2)} bestimmt werden. Das Minimum des Optimierungsproblems liegt bei ( − 2 / 2 , − 2 / 2 ) {\displaystyle (-{\sqrt {2}}/2,-{\sqrt {2}}/2)} {\displaystyle (-{\sqrt {2}}/2,-{\sqrt {2}}/2)}.

Zunächst überprüfen wir, an welchen Punkten des Einheitskreises der Gradient der Nebenbedingungsfunktion g ( x , y ) = x 2 + y 2 − 1 {\displaystyle g(x,y)=x^{2}+y^{2}-1} {\displaystyle g(x,y)=x^{2}+y^{2}-1} verschwindet. Wir berechnen also

∇ x , y g = ( 2 x , 2 y ) {\displaystyle \nabla _{x,y}g=(2x,2y)} {\displaystyle \nabla _{x,y}g=(2x,2y)}

und sehen, dass dies nur im Ursprung gleich ( 0 , 0 ) {\displaystyle (0,0)} {\displaystyle (0,0)} ist. Jedoch liegt dieser Punkt nicht auf dem Einheitskreis, erfüllt also nicht die Nebenbedingung und wird somit nicht in die Liste der kritischen Punkte aufgenommen.

Um die Methode der Lagrange-Multiplikatoren anwenden zu können, sei

Λ ( x , y , λ ) = f ( x , y ) + λ g ( x , y ) = x + y + λ x 2 + λ y 2 − λ {\displaystyle \Lambda (x,y,\lambda )=f(x,y)+\lambda g(x,y)=x+y+\lambda x^{2}+\lambda y^{2}-\lambda } {\displaystyle \Lambda (x,y,\lambda )=f(x,y)+\lambda g(x,y)=x+y+\lambda x^{2}+\lambda y^{2}-\lambda }.

Die Bedingung d Λ = 0 {\displaystyle d\Lambda =0} {\displaystyle d\Lambda =0} ergibt die folgenden drei Gleichungen:

∂ Λ ∂ x = 1 + 2 λ x = 0 , (i) ∂ Λ ∂ y = 1 + 2 λ y = 0 , (ii) ∂ Λ ∂ λ = x 2 + y 2 − 1 = 0. (iii) {\displaystyle {\begin{aligned}{\frac {\partial \Lambda }{\partial x}}&=1+2\lambda x&&=0,\qquad {\text{(i)}}\\{\frac {\partial \Lambda }{\partial y}}&=1+2\lambda y&&=0,\qquad {\text{(ii)}}\\{\frac {\partial \Lambda }{\partial \lambda }}&=x^{2}+y^{2}-1&&=0.\qquad {\text{(iii)}}\end{aligned}}} {\displaystyle {\begin{aligned}{\frac {\partial \Lambda }{\partial x}}&=1+2\lambda x&&=0,\qquad {\text{(i)}}\\{\frac {\partial \Lambda }{\partial y}}&=1+2\lambda y&&=0,\qquad {\text{(ii)}}\\{\frac {\partial \Lambda }{\partial \lambda }}&=x^{2}+y^{2}-1&&=0.\qquad {\text{(iii)}}\end{aligned}}}

Die dritte Gleichung (iii) entspricht dabei wie immer der geforderten Nebenbedingung. Mit λ ≠ 0 {\displaystyle \lambda \neq 0} {\displaystyle \lambda \neq 0} kann (i) nach x {\displaystyle x} {\displaystyle x} aufgelöst werden. Dasselbe macht man für Gleichung (ii) und y {\displaystyle y} {\displaystyle y}. Man erhält somit x = − 1 / ( 2 λ ) = y {\displaystyle x=-1/(2\lambda )=y} {\displaystyle x=-1/(2\lambda )=y}. Wird das in (iii) eingesetzt, erhält man 2 λ 2 = 1 {\displaystyle 2\lambda ^{2}=1} {\displaystyle 2\lambda ^{2}=1}, also λ = ± 1 / 2 = ± 2 / 2 {\displaystyle \lambda =\pm 1/{\sqrt {2}}=\pm {\sqrt {2}}/2} {\displaystyle \lambda =\pm 1/{\sqrt {2}}=\pm {\sqrt {2}}/2}. Die kritischen Punkte berechnen sich damit zu ( 2 / 2 , 2 / 2 ) {\displaystyle ({\sqrt {2}}/2,{\sqrt {2}}/2)} {\displaystyle ({\sqrt {2}}/2,{\sqrt {2}}/2)} und ( − 2 / 2 , − 2 / 2 ) {\displaystyle (-{\sqrt {2}}/2,-{\sqrt {2}}/2)} {\displaystyle (-{\sqrt {2}}/2,-{\sqrt {2}}/2)}. Die zu optimierende Funktion f {\displaystyle f} {\displaystyle f} hat an diesen zwei Punkten die Werte 2 {\displaystyle {\sqrt {2}}} {\displaystyle {\sqrt {2}}}, bzw. − 2 {\displaystyle -{\sqrt {2}}} {\displaystyle -{\sqrt {2}}}.

Beispiel mit Anwendungsbezug

[Bearbeiten | Quelltext bearbeiten]

Ein Grundstück soll die Form einer Ellipse mit Schwerpunkt im Ursprung und Haupt- und Nebenachse parallel zur x {\displaystyle x} {\displaystyle x}- und y {\displaystyle y} {\displaystyle y}-Achse aufweisen. Außerdem soll das Grundstück mit der Fläche

A = π a b {\displaystyle A=\pi ab} {\displaystyle A=\pi ab}

so klein wie möglich sein. Die Ellipse soll durch einen gegebenen Punkt ( x , y ) {\displaystyle (x,y)} {\displaystyle (x,y)} gehen. Diese Nebenbedingung liegt in Form der Gleichung

x 2 a 2 + y 2 b 2 = 1 {\displaystyle {\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}=1} {\displaystyle {\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}=1}

vor, die eine Ellipse mit Zentrum im Ursprung, Hauptachse der Länge 2 a {\displaystyle 2a} {\displaystyle 2a} und Nebenachse der Länge 2 b {\displaystyle 2b} {\displaystyle 2b} beschreibt. Hauptachse und Nebenachse liegen parallel zur x {\displaystyle x} {\displaystyle x}- und y {\displaystyle y} {\displaystyle y}-Achse, weshalb die Ellipse durch die Punkte ( a , 0 ) {\displaystyle (a,0)} {\displaystyle (a,0)} und ( 0 , b ) {\displaystyle (0,b)} {\displaystyle (0,b)} verläuft.

Die allgemeine Lagrange-Funktion mit beliebigen Werten für x {\displaystyle x} {\displaystyle x} und y {\displaystyle y} {\displaystyle y} lautet

Λ ( a , b , λ ) = π a b + λ ( x 2 a 2 + y 2 b 2 − 1 ) = π a b + x 2 λ a 2 + y 2 λ b 2 − λ {\displaystyle \Lambda (a,b,\lambda )=\pi ab+\lambda \left({\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}-1\right)=\pi ab+x^{2}{\frac {\lambda }{a^{2}}}+y^{2}{\frac {\lambda }{b^{2}}}-\lambda } {\displaystyle \Lambda (a,b,\lambda )=\pi ab+\lambda \left({\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}-1\right)=\pi ab+x^{2}{\frac {\lambda }{a^{2}}}+y^{2}{\frac {\lambda }{b^{2}}}-\lambda }

mit λ ≠ 0 {\displaystyle \lambda \neq 0} {\displaystyle \lambda \neq 0}. Der Gradient hiervon wird auf Null gesetzt, um die kritischen Punkte zu bestimmen. Hierbei wird a > x > 0 {\displaystyle a>x>0} {\displaystyle a>x>0} und b > y > 0 {\displaystyle b>y>0} {\displaystyle b>y>0} vorausgesetzt. Denn für a = 0 {\displaystyle a=0} {\displaystyle a=0} oder b = 0 {\displaystyle b=0} {\displaystyle b=0} erhielte man eine leere Ellipse.

∂ ∂ a Λ ( a , b , λ ) = π b − 2 x 2 λ a 3 = 0 ⇔ π a 3 b − 2 x 2 λ = 0 {\displaystyle {\frac {\partial }{\partial a}}\Lambda (a,b,\lambda )=\pi b-2x^{2}{\frac {\lambda }{a^{3}}}=0\Leftrightarrow \pi a^{3}b-2x^{2}\lambda =0} {\displaystyle {\frac {\partial }{\partial a}}\Lambda (a,b,\lambda )=\pi b-2x^{2}{\frac {\lambda }{a^{3}}}=0\Leftrightarrow \pi a^{3}b-2x^{2}\lambda =0}
∂ ∂ b Λ ( a , b , λ ) = π a − 2 y 2 λ b 3 = 0 ⇔ π a b 3 − 2 y 2 λ = 0 {\displaystyle {\frac {\partial }{\partial b}}\Lambda (a,b,\lambda )=\pi a-2y^{2}{\frac {\lambda }{b^{3}}}=0\Leftrightarrow \pi ab^{3}-2y^{2}\lambda =0} {\displaystyle {\frac {\partial }{\partial b}}\Lambda (a,b,\lambda )=\pi a-2y^{2}{\frac {\lambda }{b^{3}}}=0\Leftrightarrow \pi ab^{3}-2y^{2}\lambda =0}
∂ ∂ λ Λ ( a , b , λ ) = x 2 a 2 + y 2 b 2 − 1 = 0 ⇔ x 2 b 2 + y 2 a 2 = a 2 b 2 {\displaystyle {\frac {\partial }{\partial \lambda }}\Lambda (a,b,\lambda )={\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}-1=0\Leftrightarrow x^{2}b^{2}+y^{2}a^{2}=a^{2}b^{2}} {\displaystyle {\frac {\partial }{\partial \lambda }}\Lambda (a,b,\lambda )={\frac {x^{2}}{a^{2}}}+{\frac {y^{2}}{b^{2}}}-1=0\Leftrightarrow x^{2}b^{2}+y^{2}a^{2}=a^{2}b^{2}}

Die erste Gleichung wird zu λ = π a 3 b 2 x 2 {\displaystyle \lambda ={\frac {\pi a^{3}b}{2x^{2}}}} {\displaystyle \lambda ={\frac {\pi a^{3}b}{2x^{2}}}} umgeformt und in die zweite Gleichung eingesetzt. π a b 3 − π y 2 a 3 b x 2 = 0 {\displaystyle \pi ab^{3}-{\frac {\pi y^{2}a^{3}b}{x^{2}}}=0} {\displaystyle \pi ab^{3}-{\frac {\pi y^{2}a^{3}b}{x^{2}}}=0} ergibt x 2 b 2 = y 2 a 2 {\displaystyle x^{2}b^{2}=y^{2}a^{2}} {\displaystyle x^{2}b^{2}=y^{2}a^{2}}. Setzt man diesen Ausdruck in die dritte Gleichung ein, erhält man durch Rückeinsetzen die Lösungen

a = 2 x ,   b = 2 y   und   λ = π a b = 2 π x y ≠ 0 {\displaystyle a={\sqrt {2}}x,\ b={\sqrt {2}}y\ {\text{und}}\ \lambda ={\pi ab}={2\pi xy}\neq 0} {\displaystyle a={\sqrt {2}}x,\ b={\sqrt {2}}y\ {\text{und}}\ \lambda ={\pi ab}={2\pi xy}\neq 0}.

Der Gradient der Nebenbedingungsfunktion

∇ g ( a , b ) = ( − 2 x 2 a 3 , − 2 y 2 b 3 ) {\displaystyle \nabla g(a,b)=\left(-{\frac {2x^{2}}{a^{3}}},-{\frac {2y^{2}}{b^{3}}}\right)} {\displaystyle \nabla g(a,b)=\left(-{\frac {2x^{2}}{a^{3}}},-{\frac {2y^{2}}{b^{3}}}\right)}

verschwindet für x = y = 0 {\displaystyle x=y=0} {\displaystyle x=y=0}. Da der Punkt ( 0 , 0 ) {\displaystyle (0,0)} {\displaystyle (0,0)} nicht auf der Ellipse liegt, handelt es sich bei ( a , b ) = ( 2 x , 2 y ) {\displaystyle (a,b)=({\sqrt {2}}x,{\sqrt {2}}y)} {\displaystyle (a,b)=({\sqrt {2}}x,{\sqrt {2}}y)} um das gesuchte Minimum. Dies muss im Einzelfall grafisch überprüft werden, da die Lagrange-Multiplikatoren nur ein notwendiges Kriterium liefern.

Beispiel mit Nebenbedingung mit verschwindendem Gradienten

[Bearbeiten | Quelltext bearbeiten]

Wir betrachten die Funktion f : R 0 + × R 0 + → R {\displaystyle f\colon \mathbb {R} _{0}^{+}\times \mathbb {R} _{0}^{+}\to \mathbb {R} } {\displaystyle f\colon \mathbb {R} _{0}^{+}\times \mathbb {R} _{0}^{+}\to \mathbb {R} } mit f ( x , y ) = e − ( x + y ) {\displaystyle f(x,y)=e^{-(x+y)}} {\displaystyle f(x,y)=e^{-(x+y)}}. Untersucht man die Funktion nun auf Extrema, so kann man mithilfe des hinreichenden Kriteriums für lokale Extremstellen alle Extrema im Inneren des Definitionsbereiches bestimmen. Die Randextrema werden jedoch mithilfe des Lagrange-Multiplikator gefunden. Dabei bildet der Rand des Definitionsbereiches die Nebenbedingung. Hier sind es die beiden positiven Koordinatenachsen und der Ursprung. Wir finden also die Nebenbedingung g : R 0 + × R 0 + → R {\displaystyle g\colon \mathbb {R} _{0}^{+}\times \mathbb {R} _{0}^{+}\to \mathbb {R} } {\displaystyle g\colon \mathbb {R} _{0}^{+}\times \mathbb {R} _{0}^{+}\to \mathbb {R} } mit g ( x , y ) = x y = 0 {\displaystyle g(x,y)=xy=0} {\displaystyle g(x,y)=xy=0}.

Wir stellen zunächst die Lagrange-Funktion auf:

Λ ( x , y , λ ) = f ( x , y ) + λ g ( x , y ) = e − ( x + y ) + λ x y {\displaystyle \Lambda (x,y,\lambda )=f(x,y)+\lambda g(x,y)=e^{-(x+y)}+\lambda xy} {\displaystyle \Lambda (x,y,\lambda )=f(x,y)+\lambda g(x,y)=e^{-(x+y)}+\lambda xy}

Die Gleichung

∇ x , y , λ Λ = 0 {\displaystyle \nabla _{x,y,\lambda }\Lambda =0} {\displaystyle \nabla _{x,y,\lambda }\Lambda =0}

führt uns auf das Gleichungssystem

∂ Λ ∂ x = − e − ( x + y ) + λ y = 0 , (i) ∂ Λ ∂ y = − e − ( x + y ) + λ x = 0 , (ii) ∂ Λ ∂ λ = x y = 0. (iii) {\displaystyle {\begin{aligned}{\frac {\partial \Lambda }{\partial x}}&=-e^{-(x+y)}+\lambda y&&=0,\qquad {\text{(i)}}\\{\frac {\partial \Lambda }{\partial y}}&=-e^{-(x+y)}+\lambda x&&=0,\qquad {\text{(ii)}}\\{\frac {\partial \Lambda }{\partial \lambda }}&=xy&&=0.\qquad {\text{(iii)}}\end{aligned}}} {\displaystyle {\begin{aligned}{\frac {\partial \Lambda }{\partial x}}&=-e^{-(x+y)}+\lambda y&&=0,\qquad {\text{(i)}}\\{\frac {\partial \Lambda }{\partial y}}&=-e^{-(x+y)}+\lambda x&&=0,\qquad {\text{(ii)}}\\{\frac {\partial \Lambda }{\partial \lambda }}&=xy&&=0.\qquad {\text{(iii)}}\end{aligned}}}

Die dritte Gleichung besagt, dass x = 0 {\displaystyle x=0} {\displaystyle x=0} oder y = 0 {\displaystyle y=0} {\displaystyle y=0}. Angenommen es wäre x = 0 {\displaystyle x=0} {\displaystyle x=0}, dann führt dies – in die zweite Gleichung eingesetzt – auf einen Widerspruch, denn die Gleichung

− e − y = 0 {\displaystyle -e^{-y}=0} {\displaystyle -e^{-y}=0}

hat keine Lösung, da die e {\displaystyle e} {\displaystyle e}-Funktion keine Nullstellen besitzt. Analog führt man den Fall y = 0 {\displaystyle y=0} {\displaystyle y=0} mit der ersten Gleichung auf einen Widerspruch. Der Lagrange-Multiplikator liefert also keine kritischen Punkte.

Jedoch haben wir nicht überprüft, an welchen Stellen der Gradient der Nebenbedingung verschwindet. Es gilt

∇ x , y g = ( y , x ) = ( 0 , 0 ) ⇔ ( x , y ) = ( 0 , 0 ) {\displaystyle \nabla _{x,y}g=(y,x)=(0,0)\Leftrightarrow (x,y)=(0,0)} {\displaystyle \nabla _{x,y}g=(y,x)=(0,0)\Leftrightarrow (x,y)=(0,0)}

Im Ursprung verschwindet also der Gradient der Nebenbedingung, und dieser liegt auch auf dem Rand des Definitionsbereiches von f {\displaystyle f} {\displaystyle f} (er erfüllt die Nebenbedingung). Wie oben beschrieben, müssen diese Punkte auch als Kandidaten für Extrema in Betracht gezogen werden. In der Tat ist f ( 0 , 0 ) = e 0 = 1 {\displaystyle f(0,0)=e^{0}=1} {\displaystyle f(0,0)=e^{0}=1} und f ( x , y ) = e − ( x + y ) < 1 {\displaystyle f(x,y)=e^{-(x+y)}<1} {\displaystyle f(x,y)=e^{-(x+y)}<1} für alle ( x , y ) ≠ ( 0 , 0 ) {\displaystyle (x,y)\neq (0,0)} {\displaystyle (x,y)\neq (0,0)}. Der Ursprung ist also das globale Maximum der Funktion.

Wie eine Variante des Beispiels zeigt, sagt das Vorhandensein von kritischen Punkten allerdings nichts über das Vorhandensein von Extrema aus. Würde man in obigem Beispiel die Definitionsbereiche von f {\displaystyle f} {\displaystyle f} und g {\displaystyle g} {\displaystyle g} durch R × R {\displaystyle \mathbb {R} \times \mathbb {R} } {\displaystyle \mathbb {R} \times \mathbb {R} } ersetzen, so würde man zwar denselben einzigen kritischen Punkt erhalten, jedoch wäre der Ursprung kein globales (und auch kein lokales) Maximum von f {\displaystyle f} {\displaystyle f} (z. B. divergiert die Funktion im 3. Quadranten). In der Tat besäße dieses f {\displaystyle f} {\displaystyle f} keine lokalen Maxima oder Minima.

Mehrere Nebenbedingungen

[Bearbeiten | Quelltext bearbeiten]

Es sei f {\displaystyle f} {\displaystyle f} eine in einer offenen Teilmenge U ⊆ R n {\displaystyle U\subseteq \mathbb {R} ^{n}} {\displaystyle U\subseteq \mathbb {R} ^{n}} definierte reellwertige Funktion. Wir definieren s {\displaystyle s} {\displaystyle s} voneinander unabhängige Nebenbedingungen g k ( x ) = 0 {\displaystyle g_{k}(x)=0} {\displaystyle g_{k}(x)=0}, k = 1 , … , s {\displaystyle k=1,\ldots ,s} {\displaystyle k=1,\ldots ,s}. D. h., die Gradienten der Nebenbedingungen sind für jeden Punkt x ∈ U {\displaystyle x\in U} {\displaystyle x\in U}, mit g k ( x ) = 0 {\displaystyle g_{k}(x)=0} {\displaystyle g_{k}(x)=0} für alle k = 1 , … , s {\displaystyle k=1,\ldots ,s} {\displaystyle k=1,\ldots ,s} linear unabhängig. Insbesondere bedeutet dies, dass keiner der Gradienten verschwindet. Sollten die Gradienten doch an einer Stelle linear abhängig sein, so wird dieser Punkt in die Liste der kritischen Punkte aufgenommen. Nun setzen wir

Λ ( x , λ ) = f ( x ) + ∑ k = 1 s λ k g k ( x ) , {\displaystyle \Lambda (x,\lambda )=f(x)+\sum _{k=1}^{s}\lambda _{k}g_{k}(x),} {\displaystyle \Lambda (x,\lambda )=f(x)+\sum _{k=1}^{s}\lambda _{k}g_{k}(x),}

wobei x = ( x 1 , … , x n ) {\displaystyle x=(x_{1},\dots ,x_{n})} {\displaystyle x=(x_{1},\dots ,x_{n})} und λ = ( λ 1 , … , λ s ) {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{s})} {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{s})} ist.

Wir schauen uns nun den kritischen Punkt von Λ {\displaystyle \Lambda } {\displaystyle \Lambda } an

∂ Λ ∂ x i = 0 , {\displaystyle {\frac {\partial \Lambda }{\partial x_{i}}}=0,} {\displaystyle {\frac {\partial \Lambda }{\partial x_{i}}}=0,}

was äquivalent ist zu

∂ f ∂ x i = − ∑ k = 1 s λ k ∂ g k ∂ x i . {\displaystyle {\frac {\partial f}{\partial x_{i}}}=-\sum _{k=1}^{s}\lambda _{k}{\frac {\partial g_{k}}{\partial x_{i}}}.} {\displaystyle {\frac {\partial f}{\partial x_{i}}}=-\sum _{k=1}^{s}\lambda _{k}{\frac {\partial g_{k}}{\partial x_{i}}}.}

Wir erhalten ein lineares Gleichungssystem für die unbekannten Multiplikatoren λ 1 , … , λ s {\displaystyle \lambda _{1},\dotsc ,\lambda _{s}} {\displaystyle \lambda _{1},\dotsc ,\lambda _{s}}, dessen Koeffizientenmatrix

( ∂ g k ∂ x i ) 1 ≤ i ≤ n , 1 ≤ k ≤ s {\displaystyle \left({\frac {\partial g_{k}}{\partial x_{i}}}\right)_{1\leq i\leq n,1\leq k\leq s}} {\displaystyle \left({\frac {\partial g_{k}}{\partial x_{i}}}\right)_{1\leq i\leq n,1\leq k\leq s}}

gemäß obiger Voraussetzung maximalen Spaltenrang s {\displaystyle s} {\displaystyle s}, also trivialen Nullraum besitzt. Falls es lösbar ist, sind die Lagrangemultiplikatoren durch diese Bedingung also eindeutig bestimmt; das Gleichungssystem kann aber auch innerhalb der Nebenbedingungen widersprüchlich sein und keine Lösung besitzen, siehe obiges Beispiel. Im Allgemeinen werden durch die Gleichungen des kritischen Punktes ∂ Λ ∂ x i = 0 {\displaystyle {\tfrac {\partial \Lambda }{\partial x_{i}}}=0} {\displaystyle {\tfrac {\partial \Lambda }{\partial x_{i}}}=0} simultan diejenigen Wertekombinationen x = ( x 1 , … , x n ) {\displaystyle x=(x_{1},\dots ,x_{n})} {\displaystyle x=(x_{1},\dots ,x_{n})} und λ = ( λ 1 , … , λ s ) {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{s})} {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{s})} bestimmt, für die das lineare Gleichungssystem Lösungen besitzt. Das Vorliegen eines kritischen Punktes ist eine notwendige Bedingung dafür, dass f {\displaystyle f} {\displaystyle f} auf der Menge der Punkte, welche die Nebenbedingungen erfüllen, ein Extremum hat. D. h., auch hier müssen die Extrema aus der Liste der kritischen Punkte mit anderen Mitteln herausgefiltert werden.

Man beachte, dass es deshalb insbesondere falsch ist, davon zu sprechen, die „Lagrange-Funktion zu maximieren“. Die Lagrange-Funktion ist unbeschränkt und besitzt deshalb keine globalen Extrema und kann somit nicht maximiert werden. Lediglich die kritischen Stellen der Lagrange-Funktion geben Punkte an, an denen die Zielfunktion bezüglich der Nebenbedingungen möglicherweise ein Maximum annimmt.

Hinreichende Bedingungen

[Bearbeiten | Quelltext bearbeiten]

Dieses Verfahren liefert nur eine notwendige Bedingung für Extremstellen. Um die Extremstellen nachzuweisen und ihre Art zu bestimmen, gibt es verschiedene Kriterien. Generell wird die geränderte Hesse-Matrix gebildet und deren Determinante bzw. bestimmte Unterdeterminanten berechnet. Dieser Ansatz führt aber nicht immer zu einer Aussage. Alternativ kann man auch auf eine Visualisierung bzw. geometrische Überlegungen zurückgreifen, um die Art der Extremstelle festzustellen.

Bedeutung der Lagrange-Multiplikatoren in der Physik

[Bearbeiten | Quelltext bearbeiten]

Die Bedeutung der Lagrange-Multiplikatoren in der Physik wird bei der Anwendung in der klassischen Mechanik sichtbar. Hierfür wurden sie von Lagrange um das Jahr 1777 auch eingeführt. Die Bewegungsgleichungen der klassischen Mechanik lassen sich im Lagrange-Formalismus mit Hilfe der Euler-Lagrange-Gleichung aus der Bedingung gewinnen, dass die Wirkung – bei Variation der Koordinaten und ihrer Zeitableitungen unabhängig voneinander – ein Extremum annimmt. Eine physikalische Zwangsbedingung, die die Bewegung einschränkt, erscheint als Nebenbedingung des Extremums. Der Lagrange-Multiplikator, mit dem die Zwangsbedingung in die Lagrange-Funktion eingefügt wird, steht im engen Zusammenhang zu der physikalischen Zwangskraft, mit der das durch die Bewegungsgleichung beschriebene Objekt zur Einhaltung der Zwangsbedingung gebracht wird. Das folgende Beispiel einer freien Punktmasse m {\displaystyle m} {\displaystyle m}, die sich in zwei Dimensionen auf einer Bahn mit konstantem Radius R {\displaystyle R} {\displaystyle R} bewegt, macht dieses klar:

Lagrange-Funktion (kinetische Energie in Polarkoordinaten):

L = 1 2 m ( r ˙ 2 + r 2 φ ˙ 2 ) , {\displaystyle L={\frac {1}{2}}m({\dot {r}}^{2}+r^{2}{\dot {\varphi }}^{2}),} {\displaystyle L={\frac {1}{2}}m({\dot {r}}^{2}+r^{2}{\dot {\varphi }}^{2}),}

Zwangsbedingung:

g = r − R = 0 , {\displaystyle g=r-R=0,} {\displaystyle g=r-R=0,}

neue Lagrange-Funktion:

L ′ = L + λ g , {\displaystyle L^{\prime }=L+\lambda g,} {\displaystyle L^{\prime }=L+\lambda g,}

Euler-Lagrange-Gleichung (hier nur für die radiale Koordinate formuliert, da die Zwangsbedingung von dieser abhängt; die Winkelkoordinate ergibt die Drehimpulserhaltung für diese Bewegung):

d d t ∂ L ′ ∂ r ˙ − ∂ L ′ ∂ r = 0 {\displaystyle {\frac {d}{dt}}{\frac {\partial L^{\prime }}{\partial {\dot {r}}}}-{\frac {\partial L^{\prime }}{\partial r}}=0} {\displaystyle {\frac {d}{dt}}{\frac {\partial L^{\prime }}{\partial {\dot {r}}}}-{\frac {\partial L^{\prime }}{\partial r}}=0}
m r ¨ − m r φ ˙ 2 − λ = 0 ; {\displaystyle m{\ddot {r}}-mr{\dot {\varphi }}^{2}-\lambda =0;} {\displaystyle m{\ddot {r}}-mr{\dot {\varphi }}^{2}-\lambda =0;}

mit r ¨ = 0 {\displaystyle {\ddot {r}}=0} {\displaystyle {\ddot {r}}=0} und r = R {\displaystyle r=R} {\displaystyle r=R} sowie φ ˙ = ω {\displaystyle {\dot {\varphi }}=\omega } {\displaystyle {\dot {\varphi }}=\omega } (Winkelgeschwindigkeit) folgt

λ = − m R ω 2 . {\displaystyle \lambda =-mR\omega ^{2}.} {\displaystyle \lambda =-mR\omega ^{2}.}

Das entspricht der in Polarkoordinaten formulierten Zentripetalkraft, die die Punktmasse zur Bewegung auf eine Kreisbahn zwingt.

Verallgemeinerungen

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Lagrange-Dualität
→ Hauptartikel: Karush-Kuhn-Tucker-Bedingungen

Die Karush-Kuhn-Tucker-Bedingungen und die Fritz-John-Bedingungen sind eine Verallgemeinerung der Lagrange-Multiplikatoren für Nebenbedingungen, die auch durch Ungleichungen beschrieben werden. Beide spielen eine wichtige Rolle in der nichtlinearen Optimierung. Für konvexe Optimierungsprobleme, bei denen die Funktionen nicht stetig differenzierbar sind, gibt es außerdem die Sattelpunktkriterien der Lagrange-Funktion.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Otto Forster: Analysis 2. Vieweg+Teubner, Wiesbaden 2008, ISBN 978-3-8348-0575-1. S. 110ff
  • Michael Sauer: Operations Research kompakt 1. Auflage, Oldenbourg, München 2009, ISBN 978-3-486-59082-1.
  • Heinrich Rommelfanger: Mathematik für Wirtschaftswissenschaftler II Band 2 (2. Auflage, 1992), BI Wissenschaftsverlag, ISBN 978-3-86025-981-8. S. 238ff

Weblinks

[Bearbeiten | Quelltext bearbeiten]
  • Konzeptuelle Einleitung (englisch)
  • Studienarbeit Lagrangeoptimierung (inklusive Beispielrechnung und Literaturverweisen; PDF; 474 kB)
Normdaten (Sachbegriff): GND: 4401279-2 (GND Explorer, lobid, OGND, AKS)
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Lagrange-Multiplikator&oldid=256255208“
Kategorien:
  • Konvexe Optimierung
  • Nichtlineare Optimierung
  • Analysis
  • Joseph-Louis Lagrange als Namensgeber

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id