Tjaja, ... das HDR ... das ist auch so eine Sache ...
Eigentlich ist es im Ursprung nicht dazu gedacht, den Kontrastumfang eines Bildes zu erhöhen, sondern den Anpassungsmechanismus des menschlichen Auges auf Helligkeitsveränderungen zu simulieren.
Wenn wir nachts aufstehen und wollen uns ein Glas Wasser holen und es schimmert nur ein wenig Mondlicht ins Zimmer, dann reicht das schon aus, um genug sehen zu können.
Machen wir aber in dem Moment das Licht an, rennen wir gegen den nächsten Türpfosten, denn wir sind blind, geblendet.
Warten wir einen Moment, haben wir uns wieder an das Licht gewöhnt und wenn wir es dann wieder ausmachen, rennen wir gleich wieder gegen den Türpfosten, denn wir sind wieder blind, sehen aber diesmal gar nichts.
Der Grund dafür sind bestimmte Proteine in den Augen, sogenannte Opsine, besser bekannt unter der Bezeichnung Sehpurpur.
Für das Hell-Dunkel-Sehen z.B. ist das Rhodopsin zuständig, die einzelnen Farben haben andere Opsine.
Vereinfacht führt einfallendes Licht zu einem Zerfall des Proteins mit der Folge eines elektrischen Impulses.
Der Prozess ist reversibel. (deshalb brauchen wir Vitamin A, denn das wird benötigt um die Opsine wieder "zusammenzusetzen")
In den Augen befinden sich kleine "Reservoire" für dieses Protein, da der Bildungsprozess nur mit einer bestimmten Geschwindigkeit abläuft.
Das hat seinen Sinn, eben den, dass die Augen sich an die unterschiedlichen Lichtverhältnisse anpassen können.
Das erkläre ich jetzt nicht im einzelnen, es sei denn, dass das jemanden interessiert.
Kernpunkt der Sache ist, dass wir immer etwas Zeit brauchen, um uns auf plötzlich geänderte Lichtverhältnisse anzupassen und genau das soll mit der HDR-Funktion simuliert werden.
Um das Auge auf Dunkelheit einzustellen und die maximal mögliche Dunkelheitssicht zu bekommen, benötigt es etwa eine halbe Stunde in dunkler Umgebung.
Dann hat es sich optimal an die Nacht angepast.
Ein Blick in entgegenkommende Scheinwerfer, und schon hat es einiges davon eingebüßt.
Das will das HDR simulieren.
Wenn wir in die Sonne geschaut haben, bzw. gegen die Sonne fliegen und schauen dann aufs dunkle Panel, dann ist dort alles schwerer zu erkennen.
Und wenn wir aufs dunkle Panel zoomen und dort eine zeitlang draufschauen und dann wieder raufschauen, sind wir wieder geblendet.
Das kann ich hier sehr schön mit der AS-Huey machen, denn die hat ein sehr dunkles Panel.
Hier mal eine kleine Bilderstrecke.
Links ein Bild von der Sicht nach draußen, morgens um 8 im Sommer mit Blick in Richtung Westen, also Sonne im Rücken, danach habe ich einfach nur den Heli 180° gen Osten gedreht, also mit Blick auf die Sonnenseite (das sind nur Bildausschnitte und nicht in Originalgröße).
Da es im Osten viel heller ist, musste das virtuelle Auge sich anpassen und daher wird das Panel dunkler.
Das ist in der Realität auch so.
Wenn ich gegen sie Sonne geflogen bin, hatte ich es durchaus schwerer, die Instrumente abzulesen.
Ebenfalls gut zu reproduzieren ist es, wenn ich den Blick mal eine Zeitlang dicht vor das dunkle Panel setze, weil ich z.B. die Instumente einstelle:
Während das virtuelle Auge anfangs noch auf den Blick aus dem hellen Fenster eingestellt ist (linkies Bild), passt es sich dann nach einigen Sekunden (und damit viel zu schnell) dem nun dunklen Bildinhalt an und das Panel wird deutlich besser sichtbar (rechtes Bild).
Gleichzeitig verändert sich auch hier dann wieder die Außenansicht, denn wenn ich nun, nachdem das Auge sich angepasst hat, wieder aufschaue, bin ich erstmal wieder geblendet.
Links das Bild, bevor ich runter aufs Panel geschaut, rechts, nachdem ich den Blick wieder hochgenommen habe.
Das ist vom Grundgedanken her ja wirklich eine tolle Sache.
Nur hat Rainer recht, das ist völlig unnatürlich.
Zum Einen geht es viel zu schnell und wenn ich im Flieger sitze und nur den Kopf neige um auf die Instrumente schaue, dann wird das nicht eine derart deutliche Anpassungsänderung zur Folge haben, so dunkel ist es da unten nicht und ich habe immer noch reichlich Umgebungslicht.
Und das größte Problem ist:
Wir sitzen immer noch in genau denselben tatsächlichen Lichtverhältnissen vor unseren Monitoren und das macht es richtig unnatürlich.
Das ist genau so wie das Dynamic Head Moving.
Das habe ich ebenfalls abgeschaltet.
Denn auch wenn damit die auf den Piloten einwirkenden G-Kräfte simuliert werden sollen, ist das in meiner Wahrnehmug Mumpitz, denn ich sitze trotzdem in aller Ruhe ohne jede Krafteinwirkung vor den Monitoren und die "Bewegungssensoren" in den Ohren melden mir keinerlei Aktivität.
Ich empfinde das als unnatürlich (abgesehen davon, dass es nervt, wenn man mit der Maus Schalter betätigen will/ muss ) .
Ich habe HDR wieder aus und einfach mit dem Nvidia Tool (NV Full Range Toogle) den Full Range wieder eingestellt, also 0 bis 255 statt 0 bis 235.
Eigentlich sollte man dazu gar kein Tool benutzen müssen .
Das sollte inzwischen doch über die NVIDIA-Systemsteuerung einstellbar sein, nachdem inzwischen sogar NVIDIA kapiert hat, dass die wenigsten noch einen Röhrenfernseher vor der Nase haben:
So erspart man sich wenigstens die Notwendigkeit eines weiteren Tools, auch wenn das hier wohl eher wurscht ist.
(EDIT: Ich hab das übrigens auf Standard 16 - 235 stehen, weil meine Farbkalibirierung eh' über den Spider gesteuert wird)
Sorry, das ist mal wieder eines meiner Romanpostings, aber gerade bei der HDR-Funktion lese ich oft, dass die Leute es so verstehen, wie bei HDR-Fotografie, nämlich dass der Konstrastumfang im Bild selber erhöht werden soll, aber das ist hier nicht gemeint, sondern die Simulation der Anpassung des menschlichen Auges auf Lichtveränderungen.
LG
Marcus