Quasi-Newton-Verfahren

Quasi-Newton-Verfahren

Quasi-Newton-Verfahren sind eine Klasse von numerischen Verfahren zur Lösung nichtlinearer Minimierungsprobleme. Die Verfahren basieren auf dem Newton-Verfahren, berechnen die Inverse der Hesse-Matrix jedoch nicht direkt, sondern nähern sie lediglich an, um den Rechnenaufwand pro Iteration zu verkleinern. Der erste Algorithmus wurde von W.C Davidon, einem Physiker am Argonne National Laboratory Mitte der 1950er Jahre entwickelt. Die bekanntesten Algorithmen sind Broyden-Fletcher-Goldfarb-Shanno (BFGS) und Davidon-Fletcher-Powell (DFP).

Inhaltsverzeichnis

Grundlegender Algorithmus

Eine zweifach differenzierbare Funktion f:\mathbb{R}^n \rightarrow \mathbb{R} wird mit einer Taylor-Entwicklung bis zum zweiten Grad angenähert.

f(x) \approx q(x) = f(x_k) + (x-x_k)\nabla f(x_k) + {1 \over 2} (x-x_k)^T H(x_k)(x-x_k)

Die Ableitung der Funktion q muss für ein Minimum null ergeben. Daraus folgt :

\nabla q(x) = \nabla f(x_k) + H(x_k)(x-x_k) = 0.

Falls die Hesse-Matrix H(xk) positiv definit ist (erforderlich dafür, dass es sich bei besagter Nullstelle der Ableitung von q tatsächlich um ein Minimum handelt), lässt sich das Minimum von q mit dem Newton-Verfahren iterativ annähern:

x_{k+1} = x_k - H^{-1}(x_k) \nabla f(x_k).

Problematisch ist hier, dass die Inverse der Hesse-Matrix berechnet und diese positiv definit sein muss. Das Quasi-Newton-Verfahren ersetzt H − 1(xk) durch ein Skalar α und eine Matrix Mk

x_{k+1} = x_k - \alpha_k M(x_k) \nabla f(x_k).

Die Ableitungs-Gleichung von oben ergibt umgeformt für xk und xk + 1

\nabla f(x_k) = - H(x_k)(x-x_k)
\nabla f(x_{k+1}) = - H(x_{k+1})(x-x_{k+1}).

Daraus lässt sich Δgk herleiten :

\Delta g_k = \nabla f(x_{k+1}) - \nabla f(x_k)
Δgk = − H(xk + 1)(xxk + 1) + H(xk)(xxk).

Man nimmt nun an, dass die Hesse-Funktion für xk und xk + 1 in etwa dasselbe sind und folgert daraus :

\Delta g_k \approx - H(x_{k+1})(x_k-x_{k+1})
Mk + 1Δgk = xk + 1xk.

Für Mk + 1 wählt man einen Korrekturterm der Form cZZT:

Mk + 1 = Mk + cZZT
Mk + 1Δgk = MkΔgk + cZZTΔgk = xk + 1xk = Δxk.

Die Gleichung lässt sich umstellen, so dass

cZ = {{\Delta x_k - M_k \Delta g_k} \over {Z^T \Delta g_k}}.

Somit gilt

Z = ΔxkMkΔgk
c = {{1} \over {Z^T \Delta g_k}}.

So lässt sich die Matrix Mk + 1 eindeutig bestimmen, jedoch ist diese mit nur einem Korrekturterm nicht immer positiv definit.

Davidon-Fletcher-Powell (DFP)

Die Matrix Mk + 1 wird mit der Matrix Mk und zwei Korrekturtermen approximiert:


\begin{align}
M_{k+1} &= M_k + c_1 Z_1 Z_1^T + c_2 Z_2 Z_2^T \\
M_{k+1} &= M_k + {{\Delta x_k \Delta x_k^T} \over {\Delta x_k^T \Delta g_k }} - {{M_k \Delta g_k \Delta g_k^T M_k} \over {\Delta g_k^T M_k \Delta g_k}}
 \end{align}

Eigenschaften

Falls f eine quadratische Funktion ist, liefert der Algorithmus bei exakter Arithmetik nach einer endlichen Anzahl an Iterationen die exakte Lösung. Für alle anderen Funktionen gilt

f(xk + 1) < f(xk).

Literatur

  • William C. Davidon, Variable Metric Method for Minimization, SIOPT Volume 1 Issue 1, Pages 1-17, 1991.
  • Jorge Nocedal und Stephen J. Wright: Numerical Optimization, Springer-Verlag, 1999 ISBN 0-387-98793-2.
  • Edwin K.P. Chong and Stanislaw H.Zak: An Introduction to Optimization, 2ed, John Wiley & Sons Pte. Ltd. August 2001.
  • P. Gill, W. Murray und M. Wright: Practical Optimization, 1981

Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Quasi — Das Wort quasi (lat.) bedeutet übersetzt gleich, wie, sozusagen. In der DDR war es auch der Name eines preisgünstigen Scheuermittels aus Quarzsand, das in 250 g Pappschachteln zu 20 Pfennig verkauft wurde. Als Vorsilbe wird Quasi in manchen… …   Deutsch Wikipedia

  • Numerische Verfahren — Die Liste numerischer Verfahren führt Verfahren der numerischen Mathematik nach Anwendungsgebieten auf. Inhaltsverzeichnis 1 Lineare Gleichungssysteme 2 Nichtlineare Gleichungssysteme 3 Numerische Integration 4 Approximation und Interpolation …   Deutsch Wikipedia

  • Liste numerischer Verfahren — Die Liste numerischer Verfahren führt Verfahren der numerischen Mathematik nach Anwendungsgebieten auf. Inhaltsverzeichnis 1 Lineare Gleichungssysteme 2 Nichtlineare Gleichungssysteme 3 Numerische Integration …   Deutsch Wikipedia

  • Trust-Region-Verfahren — Das Trust Region Verfahren ist eine Klasse von robusten und effizienten Globalisierungsstrategien zur Errechnung eines lokalen Minimums einer möglicherweise nicht konvexen, einmal stetig differenzierbaren Funktion. Die Trust Region Verfahren sind …   Deutsch Wikipedia

  • Sqp — Quasi Newton Verfahren sind eine Klasse von numerischen Verfahren zur Lösung nichtlinearer Minimierungsprobleme. Die Verfahren basieren auf dem Newton Verfahren, berechnen die Inverse der Hesse Matrix jedoch nicht direkt, sondern nähern sie… …   Deutsch Wikipedia

  • Globale Optimierung — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Optimierungsalgorithmus — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Optimierungstheorie — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Optimierungsverfahren — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

  • Zielfunktion — Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines meist komplexen Systems zu finden. „Optimal“ bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”