Variationsproblem

Variationsproblem

Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und von Joseph-Louis Lagrange entwickelt wurde.[1] Sie beschäftigt sich mit reellen Funktionen von Funktionen, die auch Funktionale genannt werden. Solche Funktionale können etwa Integrale über eine unbekannte Funktion und ihre Ableitungen sein. Dabei interessiert man sich für stationäre Funktionen, also solche, für die das Funktional ein Maximum, ein Minimum oder einen Sattelpunkt annimmt. Einige klassische Probleme können elegant mit Hilfe von Funktionalen formuliert werden.

Ein Beispiel ist das Brachistochronenproblem: Auf welcher Kurve in einem Schwerefeld von einem Punkt A zu einem Punkt B, der unterhalb, aber nicht direkt unter A liegt, benötigt ein Objekt die geringste Zeit zum Durchlaufen der Kurve? Von allen Kurven zwischen A und B minimiert eine den Ausdruck, der die Zeit des Durchlaufens der Kurve beschreibt. Dieser Ausdruck ist ein Integral, das die unbekannte, gesuchte Funktion, die die Kurve von A nach B beschreibt, und deren Ableitungen enthält.

Das Schlüsseltheorem der Variationsrechnung ist die Euler-Lagrange-Gleichung, genauer „Euler-Lagrange'sche Differentialgleichung“. Diese beschreibt die Stationäritätsbedingung eines Funktionals. Wie bei der Aufgabe, die Maxima und Minima einer Funktion zu bestimmen, wird sie aus der Analyse kleiner Änderungen um die angenommene Lösung hergeleitet.

Die Variationsrechnung ist besonders in der theoretischen Physik wichtig, so etwa im Lagrange-Formalismus der klassischen Mechanik bzw. der Bahnbestimmung, in der Quantenmechanik in Anwendung des Prinzips der kleinsten Wirkung und in der statistischen Physik im Rahmen der Dichtefunktionaltheorie. In der Mathematik wurde die Variationsrechnung beispielsweise bei der riemannschen Behandlung des Dirichlet-Prinzips für harmonische Funktionen verwendet. Auch in der Steuerungs- und Regelungstheorie findet die Variationsrechnung Anwendung, wenn es um die Bestimmung von Optimalreglern geht.

Die Methoden der Variationsrechnung tauchen bei den Hilbertraum-Techniken, der Morse-Theorie und bei der symplektischen Geometrie auf. Der Begriff Variation wird für alle Extremal-Probleme von Funktionen verwendet. Geodäsie und Differentialgeometrie sind Bereiche der Mathematik, in denen Variationen eine Rolle spielen. Besonders am Problem der minimalen Oberflächen, die etwa bei Seifenblasen auftreten, wurde viel gearbeitet.

Inhaltsverzeichnis

Ein Hilfsmittel aus der Analysis reeller Funktionen in einer reellen Veränderlichen

Im Folgenden wird eine wichtige Technik der Variationsrechnung demonstriert, bei der eine notwendige Aussage für eine lokale Minimumstelle einer reellen Funktion mit nur einer reellen Veränderlichen in eine notwendige Aussage für eine lokale Minimumstelle eines Funktionals übertragen wird. Diese Aussage kann dann oftmals zum Aufstellen beschreibender Gleichungen für stationäre Funktionen eines Funktionals benutzt werden.

Sei ein Funktional I:X\rightarrow\mathbb{R} auf einem Funktionenraum X gegeben (X muss mind. ein topologischer Raum sein). Das Funktional habe an der Stelle x\in X ein lokales Minimum.

Durch den folgenden einfachen Trick tritt an die Stelle des „schwierig handhabbaren“ Funktionals I eine reelle Funktion F(α), die nur von einem reellen Parameter α abhängt „und entsprechend einfacher zu behandeln ist“.

Mit einem ε > 0 sei (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} eine beliebige stetig durch den reellen Parameter α parametrisierte Familie von Funktionen x_{\alpha}\in X. Dabei sei die Funktion x0 (d. h., xα für α = 0) gerade gleich der stationären Funktion x. Außerdem sei die durch die Gleichung

F(α): = I(xα)

definierte Funktion F:(-\epsilon,\epsilon)\rightarrow\mathbb{R} an der Stelle α = 0 differenzierbar.

Die stetige Funktion F nimmt dann an der Stelle α = 0 ein lokales Minimum an, da x0 = x ein lokales Minimum von I ist.

Aus der Analysis für reelle Funktionen in einer reellen Veränderlichen ist bekannt, dass dann \left.\frac{\mathrm{d}}{\mathrm{d}\alpha}F(\alpha)\right|_{\alpha=0}=0 gilt. Auf das Funktional übertragen heißt das


\left.\frac{\mathrm{d}}{\mathrm{d}\alpha}I(x_\alpha)\right|_{\alpha=0}=0.

Beim Aufstellen der gewünschten Gleichungen für stationäre Funktionen wird dann noch ausgenutzt, dass die vorstehende Gleichung für jede beliebige („gutartige“) Familie (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} mit x0 = x gelten muss.

Das soll im nächsten Abschnitt anhand der Euler-Gleichung demonstriert werden.

Euler-Lagrange-Gleichung; Variationsableitung

Gegeben seien zwei Zeitpunkte t_a,t_e\in\mathbb{R} mit te > ta und eine in allen Argumenten zweifach stetig differenzierbare Funktion, die Lagrangefunktion

\mathcal{L}:(t_a,t_e)\times G\rightarrow\mathbb{R}\ ,\quad G \subset \mathbb{R}^n\times\mathbb{R}^n\ ,\quad G\text{  offen}\,.

Beispielsweise ist bei der Lagrangefunktion des relativistischen Teilchens mit Masse m

\mathcal{L}(t,x,v)= - m \sqrt{1-v^2}

das Gebiet G das kartesische Produkt von \mathbb{R}^3 und dem Inneren der Einheitskugel.

Als Funktionenraum X wird die Menge aller zweifach stetig differenzierbaren Funktionen

x:[t_a,t_e]\rightarrow\mathbb{R}^n

gewählt, die zum Anfangszeitpunkt ta und zum Endzeitpunkt te die fest vorgegebenen Orte xa bzw. xe einnehmen:

x(t_a)=x_a \ ,\quad x(t_e)=x_e

und deren Werte zusammen mit den Werten ihrer Ableitung in G liegen,

\forall t\in [t_a,t_e]:\ (x(t),\frac{\mathrm{d}x}{\mathrm{d}t}(t)) \in G .

Mit der Lagrangefunktion \mathcal{L} wird nun das Funktional I:X\rightarrow\mathbb{R}, die Wirkung, durch

I(x) := \int_{t_a}^{t_e} \mathcal{L}(t,x(t),\dot x(t))\,\mathrm{d}t

definiert. Gesucht ist diejenige Funktion x\in X, die die Wirkung I minimiert.

Entsprechend der im vorhergehenden Abschnitt vorgestellten Technik untersuchen wir dazu alle differenzierbaren einparametrigen Familien (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}\subset X, die für α = 0 durch die stationäre Funktion x des Funktionals gehen (es gilt also x0 = x). Genutzt wird die im letzten Abschnitt hergeleitete Gleichung

 0=\left.\frac{d}{d\alpha} I(x_\alpha)\right|_{\alpha=0}
=\left[\frac{\mathrm{d}}{\mathrm{d}\alpha} \int_{t_a}^{t_e} \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\mathrm{d}t\right]_{\alpha=0}

Hereinziehen der Differentiation nach dem Parameter α in das Integral liefert mit der Kettenregel


0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)
+
\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t)
\right)\,\mathrm{d}t\right]_{\alpha=0}

\ =\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\,\mathrm{d}t
+
\int_{t_a}^{t_e}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}.

Dabei stehen \partial_2,\partial_3 für die Ableitungen nach dem zweiten bzw. dritten Argument und \partial_\alpha für die partielle Ableitung nach dem Parameter α.

Es wird sich später als günstig erweisen, wenn im zweiten Integral statt \partial_\alpha \dot x_\alpha(t) wie im ersten Integral \partial_\alpha x_\alpha(t) steht. Das erreicht man durch partielle Integration:


0=\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\,\mathrm{d}t
+
\left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e}\right .
 -
\left .\int_{t_a}^{t_e}\frac{\mathrm{d}}{\mathrm{d}t} \left(\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}

An den Stellen t = ta und t = te gelten unabhängig von α die Bedingungen xα(ta) = xa und xα(te) = xe. Ableiten dieser beiden Konstanten nach α liefert \partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0. Deshalb verschwindet der Term \left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e} und man erhält nach Zusammenfassen der Integrale und Ausklammern von \partial_\alpha x_\alpha die Gleichung


0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}.

und mit xα(t) | α = 0 = x(t)


0=\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t))\right)\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0}
\,\mathrm{d}t.

Außer zum Anfangszeitpunkt und zum Endzeitpunkt unterliegt xα(t) keinen Einschränkungen. Damit sind die Zeitfunktionen t\mapsto\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0} bis auf die Bedingungen \partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0 beliebige zweimal stetig differenzierbare Zeitfunktionen. Die letzte Gleichung kann also nur dann für alle zulässigen \left[\partial_\alpha x_\alpha\right]_{\alpha=0} erfüllt sein, wenn der Faktor \partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t)) im gesamten Integrationsintervall gleich null ist (das wird in den Bemerkungen etwas detaillierter erläutert). Damit erhält man für die stationäre Funktion x die Euler-Lagrange-Gleichung


\partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t)) = 0,

die für alle t\in(t_a,t_e) erfüllt sein muss.

Die angegebene, zum Verschwinden zu bringende Größe bezeichnet man auch als Eulerableitung der Lagrangefunktion \mathcal{L}\,,

\frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t)
:=\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial x}\right|_{(t,x(t),\dot x(t))}
-\frac{\mathrm{d}}{\mathrm{d}t}\,\left(\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial \dot x}\right|_{(t,x(t),\dot x(t))}\right)
\,.

Vor allem in Physikbüchern wird die Ableitung \left.\partial_{\alpha}\right|_{\alpha=0} als Variation bezeichnet. Dann ist \delta x = \left.\partial_\alpha x_\alpha\right|_{\alpha=0} die Variation von x\,. Die Variation der Wirkung

\delta I(x,\delta x) = \int\mathrm d t\,\frac{\delta I}{\delta x(t)}\delta x(t)

ist wie bei \mathrm d f= \sum_i (\partial_i f)\mathrm d x^i eine Linearform in den Variationen der Argumente, ihre Koeffizienten \frac{\delta I}{\delta x(t)} heißen Variationsableitung des Funktionals I\,. Sie ist im betrachteten Fall die Eulerableitung der Lagrangefunktion

\frac{\delta I}{\delta x(t)}=
\frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t)\,.

Bemerkungen

Die Funktion t\mapsto b(t) für t0 = 1 und ε = 0.1

Bei der Herleitung der Euler-Lagrange-Gleichung wurde benutzt, dass eine stetige Funktion a, die für alle mind. zweimal stetig differenzierbaren Funktionen b mit b(ta) = b(te) = 0 bei Integration über


\int_{t_a}^{t_e} a(t)b(t)\,\mathrm{d}t

den Wert Null ergibt, identisch gleich null sein muss.

Das ist leicht einzusehen, wenn man berücksichtigt, dass es zum Beispiel mit

b(t):=
\begin{cases}
0 &\mathrm{f\ddot{u}r}\quad t < t_{0}-\epsilon \quad\mbox{ oder }\quad t> t_{0}+\epsilon\\
(t-t_{0}+\epsilon)^3(t_{0}-t+\epsilon)^3 &\mathrm{f\ddot{u}r}\quad t\in(t_{0}-\epsilon,t_{0}+\epsilon)
\end{cases}

eine zweimal stetig differenzierbare Funktion gibt, die in einer ε-Umgebung eines willkürlich herausgegriffenen Zeitpunktes t_0\in(t_a,t_e) positiv und ansonsten null ist. Gäbe es eine Stelle t0, an der die Funktion a größer oder kleiner null wäre, so wäre sie aufgrund der Stetigkeit auch noch in einer ganzen Umgebung (t0 − ε,t0 + ε) dieser Stelle größer bzw. kleiner null. Mit der eben definierten Funktion b ist dann jedoch das Integral \int_{t_a}^{t_b} a(t)b(t)\,\mathrm{d}t im Widerspruch zur Voraussetzung an a ebenfalls größer bzw. kleiner null. Die Annahme, dass a an einer Stelle t0 ungleich null wäre, ist also falsch. Die Funktion a ist also wirklich identisch gleich null.

Ist der Funktionenraum X ein affiner Raum, so wird die Familie (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} in der Literatur oftmals als Summe xα(t): = x(t) + αh(t) mit einer frei wählbaren Zeitfunktion h festgelegt, die der Bedingung h(ta) = h(te) = 0 genügen muss. Die Ableitung \left.\partial_\alpha I(x_{\alpha})\right|_{\alpha=0} ist dann gerade die Gateaux-Ableitung \left.\partial_\alpha I(x+\alpha h)\right|_{\alpha=0} des Funktionals I an der Stelle x in Richtung h. Die hier vorgestellte Version erscheint dem Autor etwas günstiger, wenn die Funktionenmenge X kein affiner Raum mehr ist (wenn sie beispielsweise durch eine nichtlineare Nebenbedingung eingeschränkt ist; siehe etwa gaußsches Prinzip des kleinsten Zwanges). Sie ist ausführlicher in [1] dargestellt und lehnt sich an die Definition von Tangentialvektoren an Mannigfaltigkeiten an (siehe auch [2]).

Siehe auch

Einzelnachweise

  1. http://www-groups.dcs.st-and.ac.uk/~history/HistTopics/Brachistochrone.html#s92

Literatur

  • Oskar Bolza: Vorlesungen Uber Variationsrechnung B. G. Teubner, Leipzig, 1909.
  • [2] H. Fischer, H. Kaul: Mathematik für Physiker, Band 3. 2. Auflage. Teubner Verlag, Wiesbaden 2006. ISBN 3-8351-0031-9
  • Adolf Kneser: Variationsrechnung in: Encyklopädie der mathematischen Wissenschaften mit Einschluss ihrer Anwendungen Zweiter Band, Erster Teil, p. 571 B. G. Teubner, Leipzig, 1898.
  • [1] W. I. Smirnow: Lehrgang der höheren Mathematik, Teil (IV/1). 17. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1990.
  • Paul Staeckel: Abhandlungen über variations-rechnung W. Engelmann, Leipzig, 1894.

Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Kanonischer Zustand — Das kanonische Ensemble ist in der statistischen Physik ein System mit festgelegter Teilchenzahl in einem konstanten Volumen, das Energie mit einem Reservoir austauschen kann und mit diesem im thermischen Gleichgewicht ist. Dies entspricht einem… …   Deutsch Wikipedia

  • Kanonisches Ensemble — Das kanonische Ensemble (auch Gibbs Ensemble nach J. W. Gibbs) ist in der statistischen Physik ein System mit festgelegter Teilchenzahl in einem konstanten Volumen, das Energie mit einem Reservoir austauschen kann und mit diesem im thermischen… …   Deutsch Wikipedia

  • Enneperfläche — Eine Minimalfläche ist eine Fläche im Raum, die lokal minimalen Flächeninhalt hat. Derartige Formen nehmen beispielsweise Seifenhäute an, sofern sie nicht wie im Fall von Blasen durch eingeschlossene Luft aufgebläht werden. In mathematischer… …   Deutsch Wikipedia

  • Globale Optimierung — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Helicoid — Eine Minimalfläche ist eine Fläche im Raum, die lokal minimalen Flächeninhalt hat. Derartige Formen nehmen beispielsweise Seifenhäute an, sofern sie nicht wie im Fall von Blasen durch eingeschlossene Luft aufgebläht werden. In mathematischer… …   Deutsch Wikipedia

  • Minimalfläche — Eine Minimalfläche ist eine Fläche im Raum, die lokal minimalen Flächeninhalt hat. Derartige Formen nehmen beispielsweise Seifenhäute an, wenn sie über einen entsprechenden Rahmen (wie etwa einem Blasring) gespannt sind. In mathematischer Sprache …   Deutsch Wikipedia

  • Optimierung (Mathematik) — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines – meist komplexen – Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme… …   Deutsch Wikipedia

  • Optimierungsalgorithmus — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Optimierungstheorie — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Optimierungsverfahren — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”