Variationsrechnung

Variationsrechnung

Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und Joseph-Louis Lagrange entwickelt wurde.[1]

Inhaltsverzeichnis

Grundlagen

Die Variationsrechnung beschäftigt sich mit reellen Funktionen von Funktionen, die auch Funktionale genannt werden. Solche Funktionale können etwa Integrale über eine unbekannte Funktion und ihre Ableitungen sein. Dabei interessiert man sich für stationäre Funktionen, also solche, für die das Funktional ein Maximum, ein Minimum oder einen Sattelpunkt annimmt, man nennt sie Extremale. Einige klassische Probleme können elegant mit Hilfe von Funktionalen formuliert werden.

Das Schlüsseltheorem der Variationsrechnung ist die Euler-Lagrange-Gleichung, genauer „Euler-Lagrange'sche Differentialgleichung“. Diese beschreibt die Stationäritätsbedingung eines Funktionals. Wie bei der Aufgabe, die Maxima und Minima einer Funktion zu bestimmen, wird sie aus der Analyse kleiner Änderungen um die angenommene Lösung hergeleitet. Die Euler-Lagrangesche Differentialgleichung ist lediglich eine notwendige Bedingung. Weitere notwendige Bedingungen für das Vorliegen einer Extremalen lieferten A. Legendre und A. Clebsch sowie C.G. Jacobi. Eine hinreichende aber nicht notwendige Bedingung stammt von K. Weierstraß.

Die Methoden der Variationsrechnung tauchen bei den Hilbertraum-Techniken, der Morsetheorie und bei der symplektischen Geometrie auf. Der Begriff Variation wird für alle Extremal-Probleme von Funktionen verwendet. Geodäsie und Differentialgeometrie sind Bereiche der Mathematik, in denen Variationen eine Rolle spielen. Besonders am Problem der minimalen Oberflächen, die etwa bei Seifenblasen auftreten, wurde viel gearbeitet.

Anwendungsgebiete

Die Variationsrechnung ist die mathematische Grundlage aller physikalischen Extremalprinzipien und deshalb besonders in der theoretischen Physik wichtig, so etwa im Lagrange-Formalismus der klassischen Mechanik bzw. der Bahnbestimmung, in der Quantenmechanik in Anwendung des Prinzips der kleinsten Wirkung und in der statistischen Physik im Rahmen der Dichtefunktionaltheorie. In der Mathematik wurde die Variationsrechnung beispielsweise bei der riemannschen Behandlung des Dirichlet-Prinzips für harmonische Funktionen verwendet. Auch in der Steuerungs- und Regelungstheorie findet die Variationsrechnung Anwendung, wenn es um die Bestimmung von Optimalreglern geht.

Ein typisches Anwendungsbeispiel ist das Brachistochronenproblem: Auf welcher Kurve in einem Schwerefeld von einem Punkt A zu einem Punkt B, der unterhalb, aber nicht direkt unter A liegt, benötigt ein Objekt die geringste Zeit zum Durchlaufen der Kurve? Von allen Kurven zwischen A und B minimiert eine den Ausdruck, der die Zeit des Durchlaufens der Kurve beschreibt. Dieser Ausdruck ist ein Integral, das die unbekannte, gesuchte Funktion, die die Kurve von A nach B beschreibt, und deren Ableitungen enthält.

Ein Hilfsmittel aus der Analysis reeller Funktionen in einer reellen Veränderlichen

Im Folgenden wird eine wichtige Technik der Variationsrechnung demonstriert, bei der eine notwendige Aussage für eine lokale Minimumstelle einer reellen Funktion mit nur einer reellen Veränderlichen in eine notwendige Aussage für eine lokale Minimumstelle eines Funktionals übertragen wird. Diese Aussage kann dann oftmals zum Aufstellen beschreibender Gleichungen für stationäre Funktionen eines Funktionals benutzt werden.

Sei ein Funktional I:X\rightarrow\mathbb{R} auf einem Funktionenraum X gegeben (X muss mind. ein topologischer Raum sein). Das Funktional habe an der Stelle x\in X ein lokales Minimum.

Durch den folgenden einfachen Trick tritt an die Stelle des „schwierig handhabbaren“ Funktionals I eine reelle Funktion F(α), die nur von einem reellen Parameter α abhängt „und entsprechend einfacher zu behandeln ist“.

Mit einem ε > 0 sei (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} eine beliebige stetig durch den reellen Parameter α parametrisierte Familie von Funktionen x_{\alpha}\in X. Dabei sei die Funktion x0 (d. h., xα für α = 0) gerade gleich der stationären Funktion x. Außerdem sei die durch die Gleichung

F(\alpha) := I(x_\alpha) \!

definierte Funktion F:(-\epsilon,\epsilon)\rightarrow\mathbb{R} an der Stelle α = 0 differenzierbar.

Die stetige Funktion F nimmt dann an der Stelle α = 0 ein lokales Minimum an, da x0 = x ein lokales Minimum von I ist.

Aus der Analysis für reelle Funktionen in einer reellen Veränderlichen ist bekannt, dass dann \left.\frac{\mathrm{d}}{\mathrm{d}\alpha}F(\alpha)\right|_{\alpha=0}=0 gilt. Auf das Funktional übertragen heißt das


\left.\frac{\mathrm{d}}{\mathrm{d}\alpha}I(x_\alpha)\right|_{\alpha=0}=0.

Beim Aufstellen der gewünschten Gleichungen für stationäre Funktionen wird dann noch ausgenutzt, dass die vorstehende Gleichung für jede beliebige („gutartige“) Familie (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} mit x0 = x gelten muss.

Das soll im nächsten Abschnitt anhand der Euler-Gleichung demonstriert werden.

Euler-Lagrange-Gleichung; Variationsableitung; weitere notwendige bzw. hinreichende Bedingungen

Gegeben seien zwei Zeitpunkte t_a,t_e\in\mathbb{R} mit te > ta und eine in allen Argumenten zweifach stetig differenzierbare Funktion, die Lagrangefunktion

\mathcal{L}:(t_a,t_e)\times G\rightarrow\mathbb{R}\ ,\quad G \subset \mathbb{R}^n\times\mathbb{R}^n\ ,\quad G\text{  offen}\,.

Beispielsweise ist bei der Lagrangefunktion des freien relativistischen Teilchens mit Masse m und c = 1

\mathcal{L}(t,x,v)= - m \sqrt{1-v^2}

das Gebiet G das kartesische Produkt von \mathbb{R}^3 und dem Inneren der Einheitskugel.

Als Funktionenraum X wird die Menge aller zweifach stetig differenzierbaren Funktionen

x:[t_a,t_e]\rightarrow\mathbb{R}^n

gewählt, die zum Anfangszeitpunkt ta und zum Endzeitpunkt te die fest vorgegebenen Orte xa bzw. xe einnehmen:

x(t_a)=x_a \ ,\quad x(t_e)=x_e

und deren Werte zusammen mit den Werten ihrer Ableitung in G liegen,

\forall t\in [t_a,t_e]:\ (x(t),\frac{\mathrm{d}x}{\mathrm{d}t}(t)) \in G .

Mit der Lagrangefunktion \mathcal{L} wird nun das Funktional I:X\rightarrow\mathbb{R}, die Wirkung, durch

I(x) := \int_{t_a}^{t_e} \mathcal{L}(t,x(t),\dot x(t))\,\mathrm{d}t

definiert. Gesucht ist diejenige Funktion x\in X, die die Wirkung I minimiert.

Entsprechend der im vorhergehenden Abschnitt vorgestellten Technik untersuchen wir dazu alle differenzierbaren einparametrigen Familien (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}\subset X, die für α = 0 durch die stationäre Funktion x des Funktionals gehen (es gilt also x0 = x). Genutzt wird die im letzten Abschnitt hergeleitete Gleichung

 0=\left.\frac{d}{d\alpha} I(x_\alpha)\right|_{\alpha=0}
=\left[\frac{\mathrm{d}}{\mathrm{d}\alpha} \int_{t_a}^{t_e} \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\mathrm{d}t\right]_{\alpha=0}

Hereinziehen der Differentiation nach dem Parameter α in das Integral liefert mit der Kettenregel


0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)
+
\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t)
\right)\,\mathrm{d}t\right]_{\alpha=0}

\ =\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\,\mathrm{d}t
+
\int_{t_a}^{t_e}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}.

Dabei stehen \partial_2,\partial_3 für die Ableitungen nach dem zweiten bzw. dritten Argument und \partial_\alpha für die partielle Ableitung nach dem Parameter α.

Es wird sich später als günstig erweisen, wenn im zweiten Integral statt \partial_\alpha \dot x_\alpha(t) wie im ersten Integral \partial_\alpha x_\alpha(t) steht. Das erreicht man durch partielle Integration:


0=\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\,\mathrm{d}t
+
\left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e}\right .
 -
\left .\int_{t_a}^{t_e}\frac{\mathrm{d}}{\mathrm{d}t} \left(\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}

An den Stellen t = ta und t = te gelten unabhängig von α die Bedingungen xα(ta) = xa und xα(te) = xe. Ableiten dieser beiden Konstanten nach α liefert \partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0. Deshalb verschwindet der Term \left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e} und man erhält nach Zusammenfassen der Integrale und Ausklammern von \partial_\alpha x_\alpha die Gleichung


0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t)
\,\mathrm{d}t\right]_{\alpha=0}.

und mit xα(t) | α = 0 = x(t)


0=\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t))\right)\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0}
\,\mathrm{d}t.

Außer zum Anfangszeitpunkt und zum Endzeitpunkt unterliegt xα(t) keinen Einschränkungen. Damit sind die Zeitfunktionen t\mapsto\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0} bis auf die Bedingungen \partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0 beliebige zweimal stetig differenzierbare Zeitfunktionen. Die letzte Gleichung kann also nur dann für alle zulässigen \left[\partial_\alpha x_\alpha\right]_{\alpha=0} erfüllt sein, wenn der Faktor \partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t)) im gesamten Integrationsintervall gleich null ist (das wird in den Bemerkungen etwas detaillierter erläutert). Damit erhält man für die stationäre Funktion x die Euler-Lagrange-Gleichung


\partial_2 \mathcal{L}(t,x(t),\dot x(t))
-
\frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t)) = 0,

die für alle t\in(t_a,t_e) erfüllt sein muss.

Die angegebene, zum Verschwinden zu bringende Größe bezeichnet man auch als Eulerableitung der Lagrangefunktion \mathcal{L}\,,

\frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t)
:=\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial x}\right|_{(t,x(t),\dot x(t))}
-\frac{\mathrm{d}}{\mathrm{d}t}\,\left(\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial \dot x}\right|_{(t,x(t),\dot x(t))}\right)
\,.

Vor allem in Physikbüchern wird die Ableitung \left.\partial_{\alpha}\right|_{\alpha=0} als Variation bezeichnet. Dann ist \delta x = \left.\partial_\alpha x_\alpha\right|_{\alpha=0} die Variation von x\,. Die Variation der Wirkung

\delta I(x,\delta x) = \int\mathrm d t\,\frac{\delta I}{\delta x(t)}\delta x(t)

ist wie bei \mathrm d f= \sum_i (\partial_i f)\mathrm d x^i eine Linearform in den Variationen der Argumente, ihre Koeffizienten \frac{\delta I}{\delta x(t)} heißen Variationsableitung des Funktionals I\,. Sie ist im betrachteten Fall die Eulerableitung der Lagrangefunktion

\frac{\delta I}{\delta x(t)}=
\frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t)\,.

Die Euler-Lagrangesche Differentialgleichung ist lediglich eine notwendige aber keine hinreichende Bedingung für eine Extremale. Weitere notwendige Bedingungen stammen von A. Legendre und A. Clebsch sowie von C.G. Jacobi. Eine hinreichende aber nicht notwendige Bedingung lieferte K. Weierstraß.

Bemerkungen

Die Funktion t\mapsto b(t) für t0 = 1 und \epsilon=0.1

Bei der Herleitung der Euler-Lagrange-Gleichung wurde benutzt, dass eine stetige Funktion a, die für alle mindestens zweimal stetig differenzierbaren Funktionen b mit b(ta) = b(te) = 0 bei Integration über


\int_{t_a}^{t_e} a(t)b(t)\,\mathrm{d}t

den Wert null ergibt, identisch gleich null sein muss.

Das ist leicht einzusehen, wenn man berücksichtigt, dass es zum Beispiel mit

b(t):=
\begin{cases}
0 &\mathrm{f\ddot{u}r}\quad t \leq t_{0}-\epsilon \quad\mbox{ oder }\quad t \geq t_{0}+\epsilon\\
(t-t_{0}+\epsilon)^3(t_{0}-t+\epsilon)^3 &\mathrm{f\ddot{u}r}\quad t\in(t_{0}-\epsilon,t_{0}+\epsilon)
\end{cases}

eine zweimal stetig differenzierbare Funktion gibt, die in einer \epsilon-Umgebung eines willkürlich herausgegriffenen Zeitpunktes t_0\in(t_a,t_e) positiv und ansonsten null ist. Gäbe es eine Stelle t0, an der die Funktion a größer oder kleiner null wäre, so wäre sie aufgrund der Stetigkeit auch noch in einer ganzen Umgebung (t_{0}-\epsilon,t_{0}+\epsilon) dieser Stelle größer bzw. kleiner null. Mit der eben definierten Funktion b ist dann jedoch das Integral \int_{t_a}^{t_b} a(t)b(t)\,\mathrm{d}t im Widerspruch zur Voraussetzung an a ebenfalls größer bzw. kleiner null. Die Annahme, dass a an einer Stelle t0 ungleich null wäre, ist also falsch. Die Funktion a ist also wirklich identisch gleich null.

Ist der Funktionenraum X ein affiner Raum, so wird die Familie (x_\alpha)_{\alpha\in(-\epsilon,\epsilon)} in der Literatur oftmals als Summe xα(t): = x(t) + αh(t) mit einer frei wählbaren Zeitfunktion h festgelegt, die der Bedingung h(ta) = h(te) = 0 genügen muss. Die Ableitung \left.\partial_\alpha I(x_{\alpha})\right|_{\alpha=0} ist dann gerade die Gateaux-Ableitung \left.\partial_\alpha I(x+\alpha h)\right|_{\alpha=0} des Funktionals I an der Stelle x in Richtung h. Die hier vorgestellte Version erscheint dem Autor etwas günstiger, wenn die Funktionenmenge X kein affiner Raum mehr ist (wenn sie beispielsweise durch eine nichtlineare Nebenbedingung eingeschränkt ist; siehe etwa gaußsches Prinzip des kleinsten Zwanges). Sie ist ausführlicher in [1] dargestellt und lehnt sich an die Definition von Tangentialvektoren an Mannigfaltigkeiten an (siehe auch [2]).

Siehe auch

Einzelnachweise

  1. Brachistochrone problem

Literatur

  • Oskar Bolza: Vorlesungen Uber Variationsrechnung. B. G. Teubner, Leipzig 1909.
  • [2] H. Fischer, H. Kaul: Mathematik für Physiker, Band 3. 2. Auflage. Teubner Verlag, Wiesbaden 2006, ISBN 3-8351-0031-9.
  • Paul Funk: Variationsrechnung und ihre Anwendung in Physik und Technik. 2. Auflage. Berlin 1970.
  • Adolf Kneser: Variationsrechnung. In: Encyklopädie der mathematischen Wissenschaften mit Einschluss ihrer Anwendungen Zweiter Band, Erster Teil. B. G. Teubner, Leipzig 1898, S. 571.
  • Michael Plail: Die Entwicklung der optimalen Steuerungen. Göttingen, 1998.
  • J. N. Reddy: Energy Principles And Variational Methods In Applied Mechanics. Second Edition. Wiley & Sons 2002, ISBN 978-0-471-17985-6.
  • [1] W. I. Smirnow: Lehrgang der höheren Mathematik, Teil (IV/1). 17. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1990.
  • Paul Staeckel: Abhandlungen über variations-rechnung. W. Engelmann, Leipzig 1894.

Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Variationsrechnung — Variationsrechnung, die Lehre über Maxima und Minima von Integralen, indem Funktionen gesucht werden der Art, daß gewisse Integrale einen größten oder kleinsten Wert annehmen. Als Variationen bezeichnet man die Aenderungen, welche die… …   Lexikon der gesamten Technik

  • Variationsrechnung — Variationsrechnung. Wenn y = φ (x) eine Function von x von gegebener Form ist, so lehrt die Differentialrechnung das Verhältniß zu bestimmen, nach welchem sich die Function y ändert, während die unabhängig Veränderliche x um eine unendlich kleine …   Pierer's Universal-Lexikon

  • Variationsrechnung — Variationsrechnung, das Aufsuchen derjenigen unter allen möglichen Funktionen, für die ein gegebener analytischer Ausdruck (gewöhnlich ein Integral) einen möglichst großen oder möglichst kleinen Wert erhält, also ein Maximum (s. d.) oder Minimum… …   Meyers Großes Konversations-Lexikon

  • Variationsrechnung — Variationsrechnung, der Teil der höhern Analysis, der eine Funktion so zu bestimmen lehrt, daß ein von derselben abhängiges bestimmtes Integral einen größten oder kleinsten Wert hat; sie liefert deshalb die kürzesten Linien auf gegebener… …   Kleines Konversations-Lexikon

  • Variationsrechnung — Va|ri|a|ti|ons|rech|nung 〈[va ] f. 20; Math.〉 Verfahren zur Berechnung von Maximal u. Minimalwerten einer Funktion, Teilgebiet der Analysis * * * Variationsrechnung   [v ], Teilgebiet der Analysis, das sich mit der Formulierung und Lösung von… …   Universal-Lexikon

  • Variationsrechnung — Va|ri|a|ti|ons|rech|nung 〈[va ] f.; Gen.: ; Pl.: unz.; Math.〉 mathemat. Verfahren zur Berechnung von Maximal u. Minimalwerten einer Funktion, Teilgebiet der Analysis …   Lexikalische Deutsches Wörterbuch

  • Hermann Boerner — (links) und Helmuth Gericke (1975) Hermann Boerner (* 11. Juli 1906 in Leipzig; † 3. Juni 1982 in Göttingen) war ein deutscher Mathematiker, der sich mit Variationsrechnung, Funktionentheorie und Darstellungstheor …   Deutsch Wikipedia

  • Variationsableitung — Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und von Joseph Louis Lagrange entwickelt wurde.[1] Sie beschäftigt sich mit reellen Funktionen von Funktionen, die auch… …   Deutsch Wikipedia

  • Variationsprinzip — Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und von Joseph Louis Lagrange entwickelt wurde.[1] Sie beschäftigt sich mit reellen Funktionen von Funktionen, die auch… …   Deutsch Wikipedia

  • Variationsproblem — Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und von Joseph Louis Lagrange entwickelt wurde.[1] Sie beschäftigt sich mit reellen Funktionen von Funktionen, die auch… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”