Edit: aus dem Zusammenhang gerissen und falsch zitiert. Dieser Betrag bezieht sich auf wasabi65's Beitrag 32
Das Problem ist das Höhenmodell, das wiederum nur eine Messung ist. Bei perfekten Daten(sprich: hinreichend kleinem Fehler) hättest Du recht. Wozu das Ganze? Die Daten sind aber nicht perfekt. Im Fall von SRTM 1 liegen die Punkte ~25x25m auseinander. D.h. es können nur Strukturen größer 50m vernünftig aufgelöst werden. Zudem schwanken die Messpunkte. Zum Teil sind Ausreißer dabei. Überarbeitete Daten versuche diese Ausreißer zu glätten, kleine Fehler werden aber nicht kompensiert und summieren sich in dem aktuellen Beispiel zu ungefähr 100-200 zusätzlichen Höhenmetern auf.
Bei 1500m Anstieg könnte man sich damit abfinden. Perfektionisten wie wir sind, wollen wir am Ende vom Tag exakt den Anstieg im Gerät sehen, den wir vorher berechnet haben. Barolo hat Recht, wir ticken nicht ganz richtig. Aber sei es drum. Was tun?
Würden diese Trackdaten bestimmten mathematischen Eigenschaften entsprechen (Nyquist-Shannon Abtasttheorem) dann könnte man mit linearen Filtern einiges machen. Solche Filter sind in der Regel Tiefpassfilter, oder in diesem Fall der verständlichere Name: Mittelwertbildner. Und so ein Filter hat ein Dämpfungsverhalten, das sich parametrieren lässt. Ohne den Filter verstanden zu haben, ist die richtige Parametrierung allerdings eher laienhafte Stümperei. Auch für mich, der sich täglich mit digitaler Signalverarbeitung herum ärgert.
Der aktuelle Track entspricht aber leider nicht diesem komischen Nyquist-Shannon Dingens. Wie so viel Tracks. Trotzdem führt lineare Filtertechnik zu dem was hilft. Sie nimmt die Varianz, also das Gezappel, aus dem Track. Irgendwie. Und wenn man lange genug an den Parametern dreht, kommt sicherlich das Ergebnis heraus, was man erwartet. Messtechnisch ist das aber leider Dünnpfiff.
Also was tun? Ziel ist es doch kleine Spitzen abzufangen. Den Peak, der einen Wert nach oben schnellt, weil dort die Stützstelle nicht gestimmt hat. Und das bitte für alle Daten (Tracks). Also auch die, die noch nicht mal Nyquist richtig buchstabieren können. Eine nicht lineare Lösung, die aus der Bildübertragung von Weltraumsonden kommt, ist das Medianfilter. Hier werden die Werte, in einem definierten Beobachtungsfenster um den gewünschten Punkt, der Größe nach sortiert und der mittlere Wert wird genommen. D.h. alle extremen Punkte fallen durch. Yeah! Übrigens auch der Gipfel. Was für ein Konzept! Wobei der Gipfel eben nur um ein paar Meter rasiert wird. In Anbetracht des Märchengehalts der Messwerte an diesem Punkt, fällt das aber nicht wirklich ins Gewicht.
QLandkarte nimmt zum Beispiel ein Medianfilter der Länge 5. D.h. Peaks kleiner 5 Trackpunkte haben Pech. Dieser Parameter "5" ist auch so ein Wert aus dem Wolkenkuckucksheim, also empirisch ermittelt. Und solange mir keiner aufzeigen kann, dass es gute (mathematische) Gründe für einen anderen Wert gibt, bleibt der auch so. Das mag nicht die absolute Wahrheit sein, aber alle Tracks die damit geglättet wurden sind jetzt qualitativ vergleichbar. Und entsprechen auf magische Art und Weise ungefähr den, mit einem GPS(inkl. Barometer), gemessenen Werten.
Zum Schluss muss noch eine Sache klargestellt werden: CompeGPS weiß natürlich was sie machen. Wenn die Daten in zeitlich regelmäßigen Abständen aufgezeichnet werden, erfüllen sie dieses Nyquist Dingens. Damit ist die Verwendung eines linearen Tiefpassfilters eine korrekte Sache. Außerdem weiß ich nicht, und bestimmt auch nicht der Gerd, welchen Algorithmus CompeGPS genau verwendet. Der Ausdruck "Dämpfung" lässt auf einen linearen Filter schließen. Solange das aber nicht klar ist, empfinde ich es ganz persönlich als einen ziemlichen Designfehler, den Kunden an etwas herum fummeln zu lassen, von dem er noch nicht mal den Ansatz einer Chance hat, es zu verstehen.
PS
Zähle mich zum Glück zu den Amateuren und in der Schweiz ist glätten bügeln und bügeln ist arbeiten
http://als.wikipedia.org/wiki/Falsche_Freunde

Und ich dachte das gibt es immer nur in DE<->EN 