- Regula falsi
-
Das Regula-falsi-Verfahren (lateinisch: regula falsi = „Regel des Falschen“), auch: Regula duarum falsarum Posicionum (lateinisch: regula duarum falsarum posicionum = „Regel vom zweifachen falschen Ansatz“),[1][2] Falsirechnung rsp. Falsi-Rechnung oder lineares Eingabeln genannt, ist eine Methode zum numerischen Berechnen von Nullstellen reeller Funktionen. Es kombiniert Methoden vom Sekantenverfahren und der Bisektion.
Inhaltsverzeichnis
Das Verfahren (Primitivform)
Das Regula-falsi-Verfahren startet mit zwei Stellen (in der Nähe der Nullstelle) a0 und b0, deren Funktionsauswertungen f(a0), f(b0) unterschiedliche Vorzeichen haben. In dem Intervall [a,b] befindet sich somit nach dem Zwischenwertsatz (für stetiges f) eine Nullstelle. Nun verkleinert man in mehreren Iterationsschritten das Intervall und bekommt so eine immer genauere Näherung für die Nullstelle.
Iterationsvorschrift
In Schritt k berechnet man:
- .
Nun wählt man ak, bk folgendermaßen:
- falls und gleiches Vorzeichen haben sowie
- falls und gleiches Vorzeichen haben.
Bemerkungen
- Die Berechnung des ck entspricht dem Anwenden des Sekantenverfahrens mit einer Iteration im (k − 1)-ten Intervall. Im Gegensatz zum Sekantenverfahren befindet sich in diesem Intervall aber stets eine Nullstelle.
- Geometrisch kann man ck als die Nullstelle der Sekante durch und deuten.
- ck liegt natürlich immer im Intervall .
- Konvergenz:
- Solange f(x) im k-ten Intervall nicht strikt konkav bzw. konvex ist, also im Intervall ein Vorzeichenwechsel der zweiten Ableitung vorliegt, liegt superlineare Konvergenz vor.
Verbesserung des Verfahrens
Ist f(x) konkav oder konvex im Intervall [ak,bk], hat die zweite Ableitung also überall im Intervall das gleiche Vorzeichen, so bleibt eine der Intervallgrenzen für alle weiteren Iterationen stehen. Die andere konvergiert jetzt nur noch linear gegen die Lösung.
Abhilfe schaffen die folgenden Verfahren.
Illinois-, Pegasus- und Anderson/Björk-Verfahren
Idee der Verfahren
Den verbesserten Verfahren liegt die folgende Idee zu Grunde. Falls sich die „linke“ Intervallgrenze x1 im aktuellen Schritt nicht verändert – d. h. dass die tatsächliche Nullstelle zwischen der „linken“ Grenze und der genäherten Nullstelle liegt –, multipliziert man f(x1) einfach mit einem Faktor 0 < m < 1 und bringt den Funktionswert an der Stelle x1 damit näher an Null.
Entweder verkürzt sich somit der Abstand der Näherung zur Nullstelle, im nächsten Schritt oder die Nullstelle wird im nächsten Schritt zwischen der tatsächlichen Nullstelle und der „rechten“ Intervallgrenze genähert.
Im zweiten Fall werden dann einfach „rechts“ und „links“ für den nächsten Schritt vertauscht. Da der zweite Fall irgendwann – auch in konvexen Intervallen – immer eintritt, ist sicher, dass keine der beiden Intervallgrenzen bis zum Abbruch stehen bleibt. Somit ist die Konvergenz garantiert superlinear.
Algorithmus
Den folgenden Algorithmus haben diese Verfahren gemeinsam:
Dabei sind x1,x2 die Intervallgrenzen im k-ten Schritt, f1,f2 und fz die Funktionswerte an den Stellen x1,x2 und z. εx,εf sind die Abbruchgrenzen und m der Verkürzungsfaktor. steht hier für eine nicht näher spezifizierte, zweistellige Boolesche Funktion. Sinnvolle Funktionen wären hier die Disjunktion, die Konjunktion, die Identität des ersten und die Identität des zweiten Operanden. Im ersten Fall muss eine der beiden Abbruchgrenzen, im zweiten Fall beide, im dritten Fall lediglich εx und im vierten Fall εf unterschritten werden, damit falsch wird und das Verfahren abbricht.
Die unterschiedlichen Verfahren unterscheiden sich lediglich im Verkürzungsfaktor m.
- Illinois-Verfahren
- mI = 0.5
- Pegasus-Verfahren
- Anderson/Björck-Verfahren
Rekursive Implementierung des Pegasus-Verfahrens
Die zu untersuchende Funktion und die Abbruchkriterien:
epsx, epsf seien definiert f(x) sei definiert
Der Verkürzungsfaktor für das Pegasus-Verfahren:
m(f2, fz): return f2 ÷ (f2 + fz)
Der eigentliche, rekursive Algorithmus:
betterFalsePosition(x1, x2, f1, f2): z := x1 − f1 · (x2 − x1) ÷ (f2 − f1) // Näherung für die Nullstelle berechnen fz := f(z)
// Abbruchgrenze unterschritten?: z als Näherung zurückgeben if |x2 − x1| < epsx or |fz| < epsz then return z
// ansonsten, Nullstelle in [f(xz), f(x2)]?: „Links und Rechts“ vertauschen, Nullstelle in [f(xz), f(x2)] suchen if fz · f2 < 0 then return betterFalsePosition(x2, z, f2, fz)
// ansonsten: „verkürzen“ und Nullstelle in [x1, z] suchen return betterFalsePosition(x1, z, m(f2, fz) · f1, fz)
Die Methode, mit der das Verfahren, für das zu untersuchende Intervall, gestartet wird:
betterFalsePosition(x1, x2): return betterFalsePosition(x1, x2, f(x1), f(x2))
Bemerkungen
- Die Konvergenz der Verfahren ist superlinear und mit der des Sekantenverfahrens vergleichbar.
- Durch die superlineare, garantierte Konvergenz und den relativ geringen Rechenaufwand je Iteration, sind diese Verfahren bei eindimensionalen Problemen i.d.R. anderen Verfahren (wie z.B. dem Newton-Verfahren) vorzuziehen.
Geschichte
Das älteste erhaltene Dokument, das vom Wissen um die Methode des doppelten falschen Ansetzens zeugt, ist die indisch-mathematische Schrift „Vaishali Ganit“ (ca. 3. Jh. v. Chr.). Der altchinesische, mathematische Text, genannt Die Neun Kapitel der mathematischen Kunst (九章算術, 200 v. Chr. – 100 n. Chr.), erwähnt den Algorithmus ebenfalls. In diesem Text wurde das Verfahren in Beispielen allerdings nur auf lineare Gleichungen angewandt, sodass die Lösungen in nur einer Iteration erreicht wurden. Leonardo da Pisa (Fibonacci) beschrieb das Verfahren des doppelten falschen Ansetzens in seinem Buch „Liber Abaci“ (1202 n. Chr.),[1] angelehnt an eine Methode, die er aus arabischen Quellen gelernt hatte.
Auch Adam Ries kannte die regula falsi und beschrieb die Methode, wie folgt:[2]
„wird angesetzt mit zwei falschen Zahlen, die der Aufgabe entsprechend gründlich überprüft werden sollen in dem Maße, wie es die gesuchte Zahl erfordert. Führen sie zu einem höheren Ergebnis, als es in Wahrheit richtig ist, so bezeichne sie mit dem Zeichen + plus, bei einem zu kleinen Ergebnis aber beschreibe sie mit dem Zeichen −, minus genannt. Sodann ziehe einen Fehlbetrag vom anderen ab. Was dabei als Rest bleibt, behalte für deinen Teiler. Danach multipliziere über Kreuz jeweils eine falsche Zahl mit dem Fehlbetrag der anderen. Ziehe eins vom anderen ab, und was da als Rest bleibt, teile durch den vorher berechneten Teiler. So kommt die Lösung der Aufgabe heraus. Führt aber eine falsche Zahl zu einem zu großen und die andere zu einem zu kleinen Ergebnis, so addiere die zwei Fehlbeträge. Was dabei herauskommt, ist dein Teiler. Danach multipliziere über Kreuz, addiere und dividiere. So kommt die Lösung der Aufgabe heraus.“
Einzelnachweise
- ↑ a b Leonardo da Pisa: Liber abbaci. 1202, Kapitel 13. De regula elcataym qualiter per ipsam fere omnes erratice questiones soluantur.
- ↑ a b Adam Ries: Rechenung auff der linihen und federn. 1522 (Siehe Matroids Matheplanet: Die regula falsi – Adam Ries’ wichtigste Rechenregel).
Wikimedia Foundation.