- Tschebyschow-Iteration
-
Die Tschebyschow-Iteration (nach Pafnuti Lwowitsch Tschebyschow) ist ein numerisches Verfahren zur Lösung von linearen Gleichungssystemen Ax = b mit und wird auch als semi-iteratives Verfahren bezeichnet, da sie als ein einfacher Iterationsschritt eines Splitting-Verfahrens mit nachgeschalteter Extrapolation interpretiert werden kann. Grundlage ist die Rekursionsformel für Tschebyschow-Polynome. Das Verfahren erreicht für symmetrisch-definite Matrizen die Geschwindigkeit des CG-Verfahrens, kann aber auch für unsymmetrische Matrizen angepasst werden, wenn Informationen über die Lage der Eigenwerte vorliegen.
Das semi-iterative Verfahren
Grundlage ist die Idee, dass man aus der Vektorfolge , die man mit einem Splitting-Verfahren erhält, durch allgemeine Linearkombination eine bessere Folge
konstruiert. Um eine exakte Lösung nicht wieder zu verlassen, ist erforderlich. Da für die Fehler beim Splitting-Verfahren gilt, erhält man für den neuen Fehler
Also wird der Startfehler mit dem Matrix-Polynom pk(M) multipliziert mit dem Ziel, diesen zu verkleinern. Hat die Matrix A nur reelle Eigenwerte in einem Intervall , ist dasjenige Polynom mit kleinster Schranke für den Spektralradius ρ(pk(A)) ein verschobenes Tschebyschow-Polynom Tk. Da für letztere eine zweistufige Rekursionsformel gilt, kann die Tschebyschow-Iteration ebenfalls als zweistufiges Verfahren ausgeführt werden:
mit den Parametern
In der Vorschrift für yk + 1 ist zu erkennen, dass in der Klammer ein optimaler Schritt des Richardson-Verfahrens steht.
Für eine symmetrisch-definite Matrix A ist diese Iteration eng verwandt mit dem CG-Verfahren, welches aber die Parameter γ,ωk anders bestimmt, und besitzt die gleiche Konvergenzgeschwindigkeit. Die Tschebyschow-Iteration kann aber auch auf unsymmetrische Matrizen mit komplexen Eigenwerten angewendet werden, wenn diese sich in einer Ellipse einschließen lassen, welche den Nullpunkt nicht enthält.
Konvergenz des Verfahrens
Für eine symmetrische, positiv definite Matrix A gilt in der euklidischen Norm die Fehlerschranke
ähnlich dem CG-Verfahren, wobei κ eine Schranke für die Konditionszahl der Matrix A ist . Für geht der Fehler offenbar gegen null.
Der Konvergenzvorteil gegenüber dem einfachen Splitting-Verfahren bzw. Richardson-Verfahren ist, dass die Konvergenz nur von der Wurzel der Kondition abhängt. Bei komplexen Eigenwerten geht dieser Vorteil umso mehr verloren, je runder die zur Einschließung benötigte Ellipse wird. Bei Einschließung mit einem Kreis schließlich ist das einfache Verfahren mit optimal.
Literatur
- Gene H. Golub, Charles van Loan: Matrix Computations, Johns Hopkins University Press.
Wikimedia Foundation.