- Konvergenzgeschwindigkeit
-
Unter Konvergenzgeschwindigkeit (auch Konvergenzordnung) versteht man die Geschwindigkeit, mit der sich die Glieder einer konvergenten Folge (xn) dem Grenzwert x nähern. Der Begriff findet insbesondere in der numerischen Mathematik Verwendung. So ist es unmittelbar einsehbar, dass ein iteratives numerisches Verfahren besser ist, wenn es eine Folge erzeugt, die schneller gegen die Lösung des gegebenen Problems konvergiert als ein Verfahren, das eine nur langsam gegen die Lösung konvergierende Folge erzeugt.
Inhaltsverzeichnis
Konvergenzordnung bei Iterationsverfahren
Man unterscheidet zwischen linearer, superlinearer sowie p-ter Konvergenzordnung.
Lineare Konvergenzgeschwindigkeit liegt vor, falls es ein 0<c<1 gibt, so dass
Es handelt sich um superlineare Konvergenz, falls die Folge schneller als linear konvergiert. Dies liegt beispielsweise vor, wenn die obige Ungleichung nicht nur mit einem konstanten c gilt, sondern sogar mit einer gegen Null konvergenten Zahlenfolge (ck).
Konvergenz der Ordnung p mit p>1 bedeutet, dass ein c>0 existiert, so dass
Für p=2 spricht man von quadratischer Konvergenz.
Der Begriff ist vor allem in der Numerik wichtig, wo eine Näherung des Grenzwertes eines Iterationsverfahrens meist durch Berechnung einer kleinen Anzahl von Folgengliedern geschieht. Konvergenz der Ordnung p bedeutet dann, dass in jedem Iterationsschritt die Anzahl der genauen Dezimalstellen ver-p-facht werden, also beispielsweise bei quadratischer Konvergenz verdoppelt.
Die schnellere Konvergenz von Verfahren höherer Ordnung wird meist mit größerem Aufwand pro Iteration bezahlt, in vielen Fällen auch mit schlechteren Stabilitätseigenschaften.
Beispiele
Das Newton-Verfahren konvergiert bei einer einfachen Nullstelle mit zweiter Ordnung. Vereinfachte Varianten des Newton-Verfahrens konvergieren langsamer, teilweise superlinear, teilweise mit erster Ordnung.
Fixpunktverfahren, beispielsweise Splitting-Verfahren, haben eine lineare Konvergenzgeschwindigkeit. Im Vergleich zum Newton-Verfahren ist ein Iterationsschritt allerdings deutlich günstiger.
Das Sekantenverfahren hat eine gebrochene Konvergenzordnung mit p = ½ (1+√5), es konvergiert superlinear.
Allgemeine Definition der Konvergenzgeschwindigkeit
Um die Konvergenzgeschwindigkeit zu beschreiben, mit der eine Folge (xn) gegen den Grenzwert x konvergiert, vergleicht man die Konvergenzgeschwindigkeit der Nullfolge (an) = (x − xn) mit gewissen anderen Nullfolgen, für deren Konvergenzgeschwindigkeit man ein gutes Gefühl hat wie z. B. (n − a), (n − alog n) für a > 0, (qn) für 0<q<1 oder
.
- Definition
Man sagt, eine Nullfolge (an) konvergiert mindestens so schnell wie eine Nullfolge (bn), wenn gilt
.
Eine Folge (an) heißt schnell fallend, wenn sie schneller als jede Folge der Art (n − k), k eine natürliche Zahl, fällt, also
für jedes k.
Von besonderem Interesse ist also die Beschreibung der Konvergenzordnung numerischer Verfahren in normierten Räumen, wo also die Folgenglieder an die Gestalt
haben.
Im Sinne dieser Definition nennt man ein Iterationsverfahren linear konvergent, wenn es so schnell wie die Folge (qn) mit 0<q<1 konvergiert. Man nennt es quadratisch konvergent, wenn es so schnell wie die Folge (
) konvergiert. Ebenso lassen sich auch höhere Konvergenzordnungen (kubisch, superlinear) definieren.
Weitere Beispiele
- Numerische Integration
- Interpolation
- Diskretisierungsverfahren bei Differentialgleichungen
- Zentraler Grenzwertsatz der Wahrscheinlichkeitstheorie
- Die Fourier-Koeffizienten einer C∞-Funktion sind schnell fallend.
Beliebig langsame Konvergenz
Viele wichtige numerische Verfahren sind beliebig langsam konvergent. Sei also X ein Banachraum und Xn eine Folge von n-dimensionalen Teilräumen und sei V ein Verfahren, das zu jeder Lösung einer Gleichung f(x) = y eine angenäherte Lösung xn in Xn liefert. Das Verfahren V heißt dann beliebig langsam konvergent, wenn es zu jeder positiven Nullfolge (an) ein y gibt, so dass (x − xn) für die zugehörigen angenäherten Lösungen xn langsamer als die Folge (an) konvergiert.
Setzt man z. B. bei der numerischen Integration nur die Stetigkeit der zu integrierenden Funktion voraus, nicht aber eine gewissen Differenzierbarkeitsordnung, so ist das Verfahren der numerischen Integration beliebig langsam konvergent, d. h. zu jeder beliebig langsam gegen Null konvergierenden monotonen Folge positiver Zahlen gibt es eine stetige Funktion f, so dass die Folge der Quadraturwerte langsamer gegen das Integral konvergieren als die gegebene Nullfolge. Andere Beispiele findet man bei der Interpolation oder der Lösung inkorrekt gestellter Probleme.
Umgekehrte Resultate
In etlichen Disziplinen der Analysis lassen sich aus der Konvergenzgeschwindigkeit Erkenntnisse über die Struktur des zu untersuchenden Problems gewinnen. Als Beispiel seien die Bernsteinsätze aus der Approximationstheorie erwähnt: Ist eine stetige Funktion durch Polynome vom Grad n mit der Konvergenzgeschwindigkeit
für ein a>0 approximierbar, so ist sie k-fach differenzierbar.
Kritik an dem Konzept
Oftmals ist man lediglich an einem Verfahren interessiert, welches schnell (
) eine bestimmte Genauigkeit, z. B. IEEE-double precision,
erreicht. Dafür ist es jedoch zweitrangig, ob das Verfahren für große k, beispielsweise k > 100, lineare, quadratische oder kubische Konverzgeschwindigkeit besitzt.
Literatur
- Martin Hanke-Bourgeois, Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens, Teubner, Stuttgart 2002
- Arnold Schönhage, Approximationstheorie, de Gruyter, Berlin 1971
- Eberhard Schock, Arbitrarily Slow Convergence, Uniform Convergence and Superconvergence of Galerkin-like Methods, IMA J. Numer. Analysis 5 (1985) 153-160
- Hans R. Schwarz, Norbert Köckler: Numerische Mathematik. 5. Auflage. Teubner, Stuttgart 2004,
Wikimedia Foundation.