Hermiteinterpolation

Hermiteinterpolation

In der numerischen Mathematik ist die Hermiteinterpolation (benannt nach Charles Hermite) ein Interpolationsverfahren zur Polynominterpolation, das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.

Inhaltsverzeichnis

Vorbereitung

Motivation

Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den "Knick" bei x = 0.5

Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellem Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.[1]

Da äquidistante Messpunkte in der Praxis aber praktisch, bisweilen auch unvermeidbar, sind, benötigt man ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die Splineinterpolation, bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.

Splineinterpolation mit Berücksichtigung der Steigung

Wählt man dabei den „naiven“, Newtonschen Ansatz, stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht (stetig) differenzierbar. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.

Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.

Diese Aufgabe lässt sich analog zur Problemstellung in der klassischen Polynominterpolation schriftlich lösen. Als Beispiel dient hier die Aufgabe,

f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0 in \mathcal{P}_2 zu interpolieren.

Man definiert

p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2 und leitet ab zu p'(x) := a_1 + a_2 \cdot 2x.

Das Gleichungssystem wird damit zu

\begin{pmatrix}
1 & -1 & 1 \\
0 & 1 & -2 \\
1 & 2 & 4
\end{pmatrix}
\cdot \begin{pmatrix}
a_0 \\
a_1 \\
a_2
\end{pmatrix} =
\begin{pmatrix}
-1 \\
0 \\
0
\end{pmatrix}.

Lösen nach a = (a0,a1,a2)T bringt die gesuchten Koeffizienten.

Dieser Lösungsansatz hat den Nachteil, dass er in der Komplexitätsklasse \mathcal{O}(n^3) und damit langsam ist. Es wäre wünschenswert, die Newton-Basis von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.

Hermite-Genocchi-Formel

Die Hermite-Genocchi-Formel bildet die Grundlage der Hermiteinterpolation. Sie liefert eine Integraldarstellung für die dividierten Differenzen aus dem Newtonalgorithmus der Polynominterpolation:

f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,

mit dem k-dimensionalen Einheitssimplex

 \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}

Man beweist diese Identität durch Vollständige Induktion.[2]

Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als

f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)

dar, lässt sich diese Identität einfach beweisen.

Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.

Also gilt der folgende Satz:

Hermiteinterpolation

Sei f \in C^k([\alpha, \beta]) und seien \alpha \le x_0 \le x_1 \le \cdots \le x_n \le \beta reelle Stützstellen. Dann erfüllt das Polynom

p(x) := \sum_{i=0}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)

die Interpolationsbedingungen

f^{(\xi)}(x_i) = p^{(\xi)}(x_i) \,\forall x_i \text{ (} \xi\ \mathrel{\widehat{=}}\, \xi \mathrm{te\ Wiederholung\ einer\ St\ddot utzstelle}).

Darüber hinaus ist diese Lösung eindeutig.

Fehlerabschätzung

Für den Fehler der Hermiteinterpolierten gilt nach dem Fehler in der Taylorentwicklung die obere Schranke

f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} \prod_{i=0}^n (x-x_i),\;\zeta \in [\alpha,\beta] , \; f \in C^{n+1}

Im Falle des Gitters

x_0 = \dots = x_k < x_{k+1} < \dots < x_n

gilt:

f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i)

Berechnung der Interpolierten

Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der dividierten Differenzen.

Im Fall x_0 = x_1 = \ldots = x_k muss anstatt der dort verwendeten Formel

f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)

berechnet werden.

Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei x_0 = \ldots = x_i = \ldots = x_k = \ldots x_n:

  • Statt f[x_i,\ldots,x_k] muss man die dividierte Differenz f[x_0,\ldots,x_{k-i}] berechnen
  • Taucht in der Rekursion f[xi] auf, berechnet man stattdessen f[x0]
  • In allen Fällen, in denen die Formel aus dem ursprünglichem Neville-Aitken-Schema verwendet wird, ersetzt man jedes xi durch x0.

Pseudocode

Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im folgenden als ab 1 indiziert angenommen.

xvals ← Stützstellen
yvals ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten
zvals ← { f(xvals[i]) | i ∈ 1..#xvals }

for i ← #xvals..1 do
  for ji..#xvals do
    if i = j then
      [xi..xj]fzvals[i]
    else if xvals[i] = xvals[j] then
      index ← Index des ersten Vorkommens von xvals[i] in xvals
      [xi..xj]fyvals[j - i + index] / (j-i)!
    else
      [xi..xj]f ← ([xi+1..xj]f - [xi..xj-1]f) / (xvals[j] - xvals[i])

Weblinks

Wikibooks Wikibooks: Hermiteinterpolation – Implementierungen in der Algorithmensammlung

Literatur

  • Burden, Richard L., and J. Douglas Faires. Numerical Analysis. Belmont: Brooks/Cole, 2004.

Einzelnachweise

  1. Turetskii, A. H, The bounding of polynomials prescribed at equally distributed points; Proc. Pedag. Inst. Vitebsk; 3; 1940.
    Siehe auch Runges Phänomen
  2. Ralf Kornhuber, Christof Schütte; AG Numerische Mathematik (Hrsg.): Einführung in die Numerische Mathematik. Freie Universität Berlin April 2008, 3.1.1 Hermite-Interpolation und Taylor’sche Formel, S. 39-45 (Vorlesungsskript, PDF, 2.4 MB).

Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Interpolation (Mathematik) — In der numerischen Mathematik bezeichnet der Begriff Interpolation eine Klasse von Problemen und Verfahren. Zu gegebenen diskreten Daten (z. B. Messwerten) soll eine stetige Funktion (die sogenannte Interpolante oder Interpolierende)… …   Deutsch Wikipedia

  • Hermite — ist der Name folgender Personen: Charles Hermite (1822 1901), französischer Mathematiker François Tristan l’Hermite (1601 1655), französischer Schriftsteller Jacques L’Hermite (1582 1624), holländischer Admiral Siehe auch: Hermite Inseln, eine… …   Deutsch Wikipedia

  • Polynominterpolation — Interpolationspolynom 7. Grades In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses Polynom wird… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”