ich bin neu hier und hoffe, dass ihr mir eventuell weiterhelfen könnt.
Im Rahmen meiner Studienarbeit entwickle ich eine "Jogging"-Software für Handys. Dazu habe ich ein einfaches Nokia GPS-Modul LD-3W, welches mir die Position bestimmt.
Nach dem Start der Anwendung sollen Berechnungen zu der Länge der Strecke, Durchschnittsgeschw., Höhe, etc. ... angezeigt werden. Mein Problem liegt nun in der Berechnung der Streckenlänge.
Zur Zeit führe ich eine Berechnung der Länge zwischen zwei Koordinaten alle 10 sek durch (mit einfachem Pythagoras, da keine Erdkrümmung zu erwarten ist

GoogleEarth berechnet ca. 3430m (per Handberechung überprüft)
Meine Programm berechnet 1650m
Auf kurzen Strecken ist der Unterschied noch nicht so groß. Aber auch inakzeptabel! (Schlechte Werte des GPS-Moduls sind schon gefiltert und können also nicht zu Fehlberechnungen führen)
Meine Fragen nun:
Wie kann ich meine Berechnung verbessern?
Kann es überhaupt sein, dass durch ungenaue Positionsangaben des GPS-Moduls (gehe von ca. 5 m / Messung aus) ein solch großer Unterschied entsteht? (Fehler sollten sich doch positiv/negativ die Waage halten)
Falls es sein kann, soll ich dann die Messungen nur alle 20 sek durchführen, um die Messfehler pro Messung zu minimieren?
Soll ich die Haversine Formel benutzen (ist doch zu aufwendig für kleine Berechnungen)?
Wie kann ich sonst das Problem angehen?
Hoffe, dass ich mein Problem gut genug erklärt habe.
Vielen Dank im Voraus!
Gruss,
Thomas