Contents
Vorwort
Dieser Artikel behandelt das Gauß-Helmert-Modell (GHM) in seiner allgemeinsten Form. Hierzu sollte der Leser bereits grundlegende Kenntnisse über die Methode der kleinsten Quadrate besitzen. Eine kurze Einführung gibt es (hier).
Basierend auf den Grundlagen dieses Artikels und der darin zitierten Publikationen werden in folgenden Artikeln Beispiele zur Ausgleichung von:
vorgestellt.
Kleinste Quadrate mittels Matrizengleichungen
Das Gauß-Helmert-Modell lässt sich besonders elegant mittels Matrizen und Vektoren (nachfolgend in Fettschrift) darstellen. Für die Zielfunktion (,,Gauss’sche Minimumsbedingung”)
(1)
lautet die Vektornoation
(2)
Um Beobachtungen mit unterschiedlichen Genauigkeiten oder Korrelationen zu berücksichtigen wird die Kofaktormatrix der Beobachtungen eingeführt. Deren Elemente haben folgendes Muster
(3)
Darin enthalten ist der a priori Varianzfaktor , Standardabweichungen der Beobachtungen
sowie die Korrelationen zwischen den Beobachtungen
. Sind die Beobachtungen unkorreliert, so reduziert sich
auf ihre Hauptdiagonale. Für gleichgenaue und unkorrelierte Beobachtungen kann sie wegen
auch vernachlässigt werden. Die Inverse
wird als Gewichtsmatrix der Beobachtungen bezeichnet. Mit Berücksichgung der unterschiedlichen Genauigkeitsrelationen ändert sich die Zielfunktion (2) in
(4)
Für die Ausgleichung können lineare sowie nichtlineare Funktionen verwendet werden. Diese werden im nachfolgenden Abschnitten als Bedingungsgleichungen bezeichnet, weil sie die Nebenbedingungen für die Minimumsuche bilden. Diese hängen von zwei Unbekannten-Vektoren, Verbesserungen
und Parameter
ab. Das Minimum von (4) wird üblicherweise mit der Methode von Lagrange bestimmt. In KRABS (1979)1 wird gezeigt, dass das Minimum einer Funktion
mit der Nebenbedingung
durch eine geschickte Umformulierung in
gefunden werden kann, wobei
die Lagrange-Multiplikatoren (Korrelaten) repräsentieren. Somit lautet die zu lösende Lagrange-Funktion
(5)
Bei Verwendung von nichtlinearen Bedingungsgleichungen wird diese Form nur selten geschlossen lösbar sein. Eine lineare Form entsteht durch Anwendung der Taylor-Linearisierung gemäß BÖCK (1961)2 an der Stelle der Näherungswerte für die Unbekannten ,
.
(6)
(7)
In diesem Lösungsschema werden die Parameter als Zuschlag zu den Näherungswerten berechnet, während die Verbesserungen vollständig aus der Lösung hervorgehen. Auf die Einführung einer approximierten Lösung, in der eine Linearisierung an der Stelle
durchführt wird, wird in diesem Beitrag verzichtet. Nachteile einer solcher Approximation werden ausführlich in BOPP et. al. (1978)3, LENZMANN et. al. (2004)4 sowie NEITZEL (2008)5 diskutiert. Die Autoren der letztgenannten Artikel werden sich einig, dass die approximierte Lösung, welche von differenziell kleinen Verbesserungen ausgeht, unter bestimmten Bedingungen zu qualitativ schlechteren Ergebnissen führt.
Mit dieser linearen Nebenbedingung entsteht eine lineare Form zur Gleichung (5)
(8)
Damit die Ableitungen einfache Formen erhalten, werden Korrelaten in der geodätischen Ausgleichungsrechnung als formuliert. Zusätzlich können, wie in CASPARY (2007)6 gezeigt, auch stochastische Parameter in die Ausgleichung einfließen, ohne auf Pseudobeobachtungen zurückgreifen zu müssen. Hierfür wird die Lagrange-Funktion um den Term
erweitert. Die Form der Parameter-Gewichtsmatrix
entspricht dabei der Gleichung (3)
(9)
Auch diese Gewichtsmatrix reduziert sich auf ihre Hauptdiagonale sobald die Parameter unkorreliert sind. Sind die Parameter deterministisch, so kann der ganze Term wegen
auch vernachlässigt werden.
Bestimmung des Minimums
Um das Minimum der Lagrange-Funktion zu finden wird angenommen, dass kein Maximum und keine Sattelpunkte besitzt. Dadurch ist es möglich, wie in MIKHAIL (1982 S. 215ff.)7 gezeigt, das Minimum durch die Nullsetzung der ersten Ableitungen zu finden.
(10)
(11)
(12)
Aufstellung des Gleichungssystems für (8)
Die Verbesserungen werden aus (11) berechnet.
(13)
Korrelaten des Modells werden berechnet indem (13) in (12) einsetzt wird.
(14)
Das Gleichungssystem, angelehnt an NIEMEIER (2008)8, welches als Lösung und
führt, entsteht aus den Gleichungen (10) und (13) eingesetzt in (12).
(15)
Als Blockmatrix zusammengefasst:
(16)
Gauß-Helmert-Modell mit Bedingungen
Nicht selten müssen die Unbekannten gewisse Bedingungen erfüllen. Diese können in der Ausgleichung, wie in MIKHAIL (1982 S. 215ff.)9 gezeigt, mit einer Null-Funktion sichergestellt werden. In folgenden Abschnitten werden alle Funktionen, die Bedingungen zwischen den Unbekannten beschreiben als
bezeichnet. Analog dazu sollen Restriktionen für Verbesserungen als
geführt werden. Deren Linearisierung erfolgt an der Stelle der jeweiligen Näherungswerte.
(17)
Mit diesen Matrizen, den dazu gehörenden Korrelaten ,
und den Widerspruchsvektoren
und
erweitert sich die Lagrange-Funktion zu
(18)
Für die Berechnung des Minimums werden wie schon zuvor alle Ableitungen der ersten Ordnung zu Null gesetzt. Die Ableitung der Gleichung (12) bleibt erhalten.
(19)
(20)
(21)
(22)
Der Verbesserungsvektor ergibt sich aus der Gleichung (20).
(23)
Analog dazu kann aus der Gleichung (20) berechnet werden.
(24)
Aus den Gleichungen (12), (19), (20), (21) und (22) entsteht eine an MIKHAIL (1982 S. 215ff.)10 angelehnte, symmetrische Blockmatrix.
(25)
Werden keine Restriktionen für Verbesserungen formuliert, so kann die fünfte Block-Zeile und Spalte wegen auch vernachlässigt werden. Analog dazu kann die vierte Block-Zeile und Spalte entfernt werden, wenn keine Bedingungen für die Parameter vorliegen. Trotz aller Reduktionen ist dieses Gleichungssystem wegen seiner Dimension
für die Praxis eher ungeeignet, da es
und
-Elemente im Lösungsvektor führt, die auch über geschlossene und unabhängige Formeln (23), (24) berechnet werden können.
Der Berechnungsaufwand für die Lösung ist . Bei Verwendung von dünn besetzten (SPARSE) Matrizen kann eine deutlich günstigere Aufwandsklasse
erreicht werden, da diese i. d. R. von der Nicht-Null-Elemente-Anzahl (NNE) abhängt.
Zusätzlich ist es möglich einige Komponenten des Lösungsvektors zu entfernen. Diese werden bei Bedarf über geschlossene und unabhängige Formeln wie (23) und (24) berechnet. Da üblicherweise der größte der Teil der Lösung ist, wird er durch das Einsetzen der Gleichung (23) in (12) und (22) aus der Lösung entfernt
(26)
Diese Substitution ermöglicht es die Dimension auf zu reduzieren, ohne die Symmetrie aufgeben zu müssen. Das neu gebildete Blockmatrizensystem verwendet die Gleichungen (19), (21) und (26)
(27)
Wie zuvor können auch in dieser Blockmatrix die letzten beiden Spalten und Zeilen entfernt werden, wenn keine Restriktionen für die Unbekannten eingeführt werden.
Neben ist
normalerweise der zweitgrößte Vektor der Lösung. Dieser lässt sich durch das Einsetzen der Gleichung (24) in (19) und (26) heraustrennen. Nach einer etwas längeren und unübersichtlichen Umformung und Zusammenfassung entstehen nochmals reduzierte Bedingungsgleichungen.
(28)
(29)
Aus (21), (28) und (29) folgt das nochmals reduzierte Blockmatrizensystem
(30)
Auch nach diesem Schritt bleibt bleibt die Symmetrie erhalten. Auch hier entfallen einzelne Blockmatrizenspalten/Zeilen, wenn keine Restriktionen formuliert werden.
Quellen und Fußnoten
- KRABS, Werner: Optimization and approximation. Chichester Eng. New York : Wiley, 1979. – ISBN 0471997412 [↩]
- BÖCK, Rudolf: Allgemeinste Formulierung der Ausgleichungsrechnung nach der Methode der kleinsten Quadratsummen. Zeitschrift für Geodäsie, Geoinformation und Landmanagement Jahrgang 86 (1961), S. 43ff. und 98ff. [↩]
- BOPP, Hanspeter ; KRAUSS, Herbert: Strenge oder herkömmliche bedingte Ausgleichung mit Unbekannten bei nichtlinearen Bedingungsgleichungen? In: Allgemeine Vermessungs-Nachrichten 84 (1978), S. 27–31 [↩]
- LENZMANN, Lothar ; LENZMANN, Enno: Strenge Auswertung des nichtlinearen Gauß-Helmert-Modells. In: Allgemeine Vermessungs-Nachrichten (2004), S. 68– 73 [↩]
- NEITZEL, F., PETROVIC, S. (2008): Total Least Squares (TLS) im Kontext der Ausgleichung nach kleinsten Quadraten am Beispiel der ausgleichenden Geraden. Zeitschrift für Geodäsie, Geoinformation und Landmanagement 3/2008 S. 141-148, Wißner-Verlag, Augsburg [↩]
- CASPARY, Wilhelm: Auswertung von Messdaten : statistische Methoden für Geound Ingenieurwissenschaften. München Wien : Oldenbourg, 2007. – ISBN 9783486583519 S. 177ff. [↩]
- MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 [↩]
- NIEMEIER, Wolfgang: Ausgleichungsrechnung : statistische Auswertemethoden. Berlin u.a : De Gruyter, 2008. – ISBN 3110190559 S. 177 [↩]
- MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 [↩]
- MIKHAIL, Edward: Observations and least squares. Washington, D.C : University Press of America, 1982. – ISBN 0819123978 [↩]