[ < ] [ globale Übersicht ] [ Kapitelübersicht ] [ Stichwortsuche ] [ > ]


Orthogonale Approximation

Im Standardfall der diskreten Approximation geht man von der Annahme aus, daß nur die Werte der abhängigen Variablen y mit einem additiven Fehler $\delta_{i}$ behaftet sind:

 y_{i} = g(x_{i};c) + \delta_{i}, \quad i = 1, 2, \dots, k.

Falls die Fehler $\delta_1,\dots,\delta_k$ unabhängige Zufallsgrößen sind, die alle normalverteilt sind mit dem Mittelwert Null und der Varianz $\sigma^{2}$ , dann ist die Maximum-Likelihood-Schätzung für den Parametervektor $c = (c_{1},\ldots,c_{N})^{\top}$ die Lösung des Approximationsproblems bzgl. der $l_{2}$ -Norm

\begin{eqnarray*}
   D_2 (\Delta_k g^{*}, y) & = &                                           
      \min \{ D_2 (\Delta_k g, y): g \in {\cal G}_N \}\\                   
   & & \mbox{mit}\quad D_2 (\Delta_k g, y) := \sqrt{ \sum \limits_{i=1}^{k}
       [g(x_i;c) - y_i]^2}.                                                
\end{eqnarray*}

Der Parametervektor wird also in diesem Fall am besten nach der Methode der kleinsten Quadrate bestimmt, bei der der vertikale Abstand zwischen Datenpunkten und Approximationsfunktion "Euklidisch gemessen" wird.

In der Praxis sind aber Situationen durchaus nicht selten, in denen auch die Werte $x_{i}$ der unabhängigen Variablen - z.B. auf Grund von Meß- oder Diskretisierungs-Ungenauigkeiten - additiv mit einem Fehler $\eps_{i}$ behaftet sind:

 y_{i} = g(x_{i} + \eps_{i};c) + \delta_{i}, \quad i = 1, 2, \dots, k.

Beispiel: Luftschadstoffe

In solchen Fällen ist eine Abstandsdefinition angemessener, die den kürzesten, d.h. den orthogonalen Abstand jedes Datenpunktes $ (x_{i},y_{i}), i = 1, 2, \dots, k,$ von der Approximationskurve (im univariaten Fall $x \in \R$ ) bzw. von der Approximationsfläche (im multivariaten Fall $x \in \R^{n}, \, n \ge 2$ )

$$
      \left\{\left(x,g(x) \right): \quad x \in B\right\}
$$

berücksichtigt.

Abbildung Vertikal / Orthogonalabstand


Abbildung: Vertikal- und Orthogonalabstände zwischen Datenpunkten und einer Funktion.

Terminologie: Orthogonale Approximation

Die Bezeichnung für Methoden, die auf orthogonalen Abstandsdefinitionen beruhen, ist nicht einheitlich. So verwenden z.B. Golub und Van Loan [48] sowie Van Huffel und Vanderwalle [386] den Begriff "totale Methode der kleinsten Quadrate" (total least squares), während Powell und Macdonald [328] von der "verallgemeinerten Methode der kleinsten Quadrate" ( generalized least squares) sprechen.

Boggs, Byrd und Schnabel [121] verwenden den Begriff "Regression mit orthogonalen Abständen" ( orthogonal distance regression) und Ammann und Van Ness [86] "Orthogonale Regression" (orthogonal regression).

Der Begriff Regression wurde 1885 von F. Galton zur Charakterisierung von Erblichkeitseigenschaften eingeführt. Unter Regressionsanalyse versteht man heute in der Mathematischen Statistik Untersuchungen über stochastische Abhängigkeiten und deren funktionale Beschreibung anhand einer vorliegenden Stichprobe. Im Bereich der Numerischen Datenverarbeitung wird der Begriff Regression gelegentlich als Synonym für Approximation verwendet.

Achtung: Der Begriff "orthogonale Approximation" darf nicht verwechselt werden mit Approximation durch orthogonale Funktionen, d.h. Funktionen, die bezüglich eines inneren Produktes orthogonal zueinander sind (z.B. Tschebyscheff-Polynome, trigonometrische Polynome etc.).

Beispiel: Orthogonalabstand

Orthogonale Approximation ist nicht nur bei fehlerbehafteten unabhängigen Variablen der "gewöhnlichen" Approximation (mit Berücksichtigung von Vertikalabständen) vorzuziehen, sondern ist auch bei der Visualisierung (einer graphisch-darstellerisch orientierten Approximation) von Vorteil. Wenn man nur Vertikalabstände berücksichtigt, findet - hinsichtlich des optischen Eindrucks - eine stärkere Gewichtung steilerer Abschnitte des Funktionsverlaufs statt. Bei orthogonaler Approximation gibt es diese Art der Ungleichgewichtung nicht.

Neben der orthogonalen Approximation gibt es noch eine andere Möglichkeit zur Vermeidung der "visuellen" Ungleichgewichtung von Stellen mit geringer und großer Steigung: Die Parametrisierung der Daten und die anschließende Anpassung einer ebenen Kurve . Der Vorteil dieser Vorgangsweise - verglichen mit der orthogonalen Approximation - liegt im geringeren Aufwand, ihr Nachteil darin, daß die Approximationskurve unter Umständen keine Funktion mehr ist, also die Eindeutigkeit unter Umständen verlorengeht.

* * *

Beispiele:

 Luftschadstoffe

Im Umweltschutz wird von den vielen in der Luft vorhandenen Schadstoffen nur eine geringe Anzahl regelmäßig gemessen. Will man die Konzentrationswerte einer Substanz (z.B. SO2) als Indikator für die Konzentration eines anderen Schadstoffes (z.B. HCl) heranziehen, so muß man auf der Basis simultan durchgeführter Konzentrationsmessungen beider Substanzen ein Modell entwickeln, das den Zusammenhang beschreibt. In diesem Fall liegen der Modellbildung Datenpunkte \{(x_i, y_i)\} zugrunde, bei denen die y-Werte und die x-Werte mit Meßfehlern behaftet sind.

* * *

 Orthogonalabstand

Die beiden Funktionen

 f(x) \,:=\, x^{a} \qquad \mbox{und} \qquad \overline{f}(x)\,:=\,x^{a} + 0.1 \qquad (a\geq1)

haben den konstanten vertikalen Abstand d_{f,\overline{f}}(x) \equiv 0.1 . Der orthogonale Abstand der Funktionen f und \overline{f} hängt jedoch sehr stark von x und a ab (siehe folgende Abbildung).

Abbildung Orthogonalabstand

Abbildung: Orthogonalabstände zwischen x^{a} und x^{a}  + 0.1.

Dies ist darauf zurückzuführen, daß die Steilheit des Funktionsverlaufs

f'(x) \,:=\, \overline{f}'(x) \,=\, a \cdot x^{a-1}

mit größeren Werten von x und a > 1 zunimmt.


[ < ] [ globale Übersicht ] [ Kapitelübersicht ] [ Stichwortsuche ] [ > ]