Hallo Leute!
Ich habe ein Programm geschrieben, mit dem ich meine Flüge plane und dazu eine App mit einer Datenbank der Flugplätzen.
Beide Programme berechnen Sonnenaufgang und -untergang. Nun seit ein paar Jahre ist Nacht nicht mehr SS+30 Minuten sondern wird anhand der "6° Regel" berechnet...
Und da scheitert schon mein Programm... Ich bin in Geometrie ziemlich schlecht, das muss ich wirklich sagen, und ich glaube, ich mache was falsches, denn wenn ich 6° von der Longitude abziehe, werde ich eine Zeit berechnen, die nicht ganz stimmt mit zB die Zeit, die man bei DWD (beim Text GAFOR) finden kann.
Kann jemand mir sagen, wo mein Denkfehler ist?
Danke
Luca
Hallo Luca
>
> denn wenn ich 6° von der Longitude abziehe, werde ich eine Zeit berechnen,
> die nicht ganz stimmt.
>
> Kann jemand mir sagen, wo mein Denkfehler ist?
>
Ich denke ja ;)
Die Definition ist:
"Wenn die Sonnenscheibe 6° unterhalb des Horizontes liegt".
Das ist aber m.E. nicht gleichbedeutend mit
"Wenn die Sonnenscheibe 6° weiter westlich am Horizont liegt".
Die -6° sind der nötige Elevationswinkel der Sonne,
nicht eine Längengraddifferenz, denke ich.
:-))
BlueSky9
Hallo,
ja, inzwischen konnte ich eine Seite mit einem Beispiel im PHP finden, wo das ganze erklärt ist...
Ich benutze aktuell immer den Zenith auf 90,50°, in dem Fall muss ich den Zenith auf 96° ändern und plötzlich sind die Werte korrekt...
Ich muss jetzt nur das ganze in Java übersetzen für die App, aber das sollte ich noch schaffen... :D
Tausend Dank
Luca
Übertreiben um besser zu verstehen.
Wenn einer am Nordpol sitzt, kann er beliebig die Longitude um 6º, den Zenit oder sonstwas verstellen, aber die Sonne will einfach nicht untergehen. Im internet findest du die richtige Formel, sie ist sehr komplex.
Aktuell sind 18 Besucher online.