Dynamikumfang in der Digitalfotografie. CCD-Dynamikbereich

Dynamikumfang in der Digitalfotografie. CCD-Dynamikbereich

Guten Nachmittag Freunde!

Heute setzen wir unsere Bekanntschaft mit fort. Er stellte einen Link bereit, in dem er einen Überblick über die Funktionsweise von Kameras gab. Als nächstes gehen wir näher auf einzelne Elemente ein, die in besprochen werden allgemeiner Überblick Der Fotograf muss eine Idee haben. Wenn Sie auf Definitionen oder Begriffe stoßen, die Ihnen unklar sind, ist das kein Problem. Lesen Sie einfach weiter und Sie werden das Wesentliche bestimmt verstehen. Ich bin mir sicher! Aber es ist das allgemeine Verständnis, das wichtig ist.

Der Artikel ist ziemlich umfangreich, daher habe ich den Inhalt für eine einfachere Navigation für Sie zusammengestellt :)

Matrix in der Kamera. Was ist das?

Die Matrix in der Kamera ist das Hauptelement, mit dem wir das Bild erhalten. Wird oft auch als Sensor oder Wandler bezeichnet. Es handelt sich um eine Mikroschaltung, die aus Fotodioden – lichtempfindlichen Elementen – besteht. Abhängig von der Intensität des einfallenden Lichts bildet sich die Fotodiode elektrisches Signal unterschiedlicher Größe, die anschließend über einen separaten ADC in digital umgewandelt oder in die Matrix eingebaut wird.

Die Matrix fängt Licht ein und wandelt es in eine Reihe von Bits (0/1) um, die dann ein digitales Bild erzeugen.

Es sieht aus wie das:

Matrix in der Kamera

Die glänzende rechteckige Platte in der Mitte ist genau das, was sie ist. Und an den Rändern des Fotos.

Diskrete Matrixstruktur

Die Basis sind sehr kleine Fotodioden oder Fototransistoren, die Licht einfangen und in ein elektrisches Signal umwandeln. Eine solche Fotodiode bildet ein Pixel des ausgegebenen digitalen Bildes.

Ein kleiner Exkurs für diejenigen, die es vielleicht nicht wissen. Ein digitales Bild besteht aus vielen Punkten, die unser Gehirn zu einem Gesamtbild „zusammenklebt“. Wenn es nicht genügend solcher Punkte gibt, werden wir beginnen, die Diskretion der Struktur zu bemerken, mit anderen Worten, es scheint, als würde das Bild „zerfallen“, da es mosaikartig ist und glatte Übergänge verschwinden.

Schauen wir uns ein Foto eines Hundes an.

Diskrete Matrixstruktur am Beispiel eines Hundes

Da es jetzt schwarz auf weiß ist, macht es Ihnen nichts aus. Abgesehen vom Farbkonzept ist dies ein anderes Thema, im Moment wird es besser sein, Informationen wahrzunehmen. Die Matrix erfasst je nach Lichtintensität ein elektrisches Signal unterschiedlicher Stärke. Und wenn Sie die speziellen Filter entfernen, die zur Erzeugung eines Farbbildes entwickelt wurden, ist das Ausgabefoto ein Schwarzweißfoto. Übrigens gibt es auch Kameras, die ausschließlich in Schwarzweiß fotografieren.

Schematisch ein Raster auf das Bild angewendet, das ein diskretes Raster veranschaulicht, d. h. diskontinuierliche Matrixstruktur. Jedes Quadrat stellt das minimale Element der Matrix dar – ein von einer Fotodiode gebildetes Pixel, das Licht der N-ten Intensität empfängt und am Ausgang in ein digitales Bildpixel der N-ten Helligkeit umgewandelt wird. Beispielsweise ist die obere linke Ecke dunkel, was bedeutet, dass auf diesen Bereich der Matrix wenig Licht fiel. Die Wolle hingegen ist leicht, was bedeutet, dass dort mehr Licht ankam und das elektrische Signal anders war. Das Bild besteht naturgemäß aus einer viel größeren Anzahl von Quadraten, hier handelt es sich lediglich um eine schematische Darstellung.

Matrix - Analogon zum Film

Zuvor, als es keine gab Digitalkameras Als lichtempfindliches Element, also als Matrix, wurde ein Film verwendet. Im Prinzip unterscheidet sich das Design einer Filmkamera nicht allzu sehr von einer Digitalkamera; letztere verfügt über mehr Elektronik, aber der „Empfänger“ des Lichts ist völlig anders.

Wenn Sie den Auslöser einer Filmkamera drücken, öffnet sich der Verschluss und Licht fällt auf den Film. Bis sich der Verschluss schließt, chemische Reaktion Das Ergebnis ist ein auf Film gespeichertes Bild, das für das Auge jedoch bis zur Entwicklung unsichtbar ist. Ein Beispiel für einen solchen chemischen Prozess ist die Zersetzung von Silberhalogenid in Halogen- und Silberatome.

Wie Sie sehen, ist die Essenz selbst völlig anders. Ich schreibe dies, damit Sie sich daran erinnern moderne Welt die Matrix erfüllt die Funktionen eines Films, d.h. formt ein Bild. Der Unterschied liegt übrigens in der Speicherung: Der Film ist direkt der Speicherort für das endgültige Bild, bei der Digitalfotografie wird das Bild auf Speicherkarten gespeichert.

Sensorbelichtung

Ein wichtiger Begriff, den Fotografen häufig verwenden. Es bezieht sich auf den Vorgang des Fotografierens. Diese. Als Sie den Auslöser drückten, öffnete sich der Verschluss und Licht begann auf die Matrix zu fallen. Sie sagen, dass sie belichtet wird. Es geht weiter, bis sich der Verschluss schließt.

Möglicherweise hören Sie die Ausdrücke „während der Belichtung ...“, „der Prozess der Belichtung ...“, „während der Belichtung ...“. Normalerweise wird das Wort „Matrix“ weggelassen und es heißt einfach Belichtung.

Matrixeigenschaften

Man muss sich darüber im Klaren sein, dass sich Matrizen stark voneinander unterscheiden und in verschiedenen Preisklassen bestimmte Eigenschaften aufweisen. Dieses Element kann als „Herz“ der Kamera betrachtet werden, wie der Motor in einem Auto oder der Prozessor in einem Computer. Obwohl keine Maschine oder kein Computer nur mit einer Engine oder einem Prozessor arbeiten kann, bestimmen diese Elemente dennoch das Potenzial des Systems. Es ist schwer zu erwarten, dass ein Auto mit einem kleinen Motor im Rennsport Wunder an Agilität zeigen kann. Das Gleiche gilt für Kameras – im Budgetbereich sind sie mit Matrizen mit begrenzten Fähigkeiten ausgestattet, und bei Aufnahmen mit Langzeitbelichtungen kann man von ihnen kaum ein leises Bild erwarten. Es ist klar, dass es Merkmale gibt, die Matrizen nach Fähigkeiten kategorisieren. Kommen wir zu ihrer Überlegung.

Zunächst eine Auflistung der Hauptmerkmale:

  • physische Größe;
  • Erlaubnis;
  • Signal-Rausch-Verhältnis;
  • ISO-Empfindlichkeit;
  • Dynamikbereich
  • Matrixtyp (veraltet).

Schauen wir uns nun alles im Detail an.

Physikalische Größe der Kameramatrix

Die Matrix ist eine rechteckige Platte, die Licht sammelt und eine natürliche Größe hat. Oben haben wir uns die diskrete Struktur der Matrix angesehen und dabei festgestellt, dass sie aus Pixeln besteht körperlicher Sinn sind Fotozellen, die einfallendes Licht in elektrische Ladungen umwandeln.

Dementsprechend wird die physikalische Größe der Matrix durch die Größe der Pixel und den Abstand zwischen ihnen bestimmt. Je größer der Abstand zwischen den Pixeln ist, der eine Isolierschicht darstellt, desto geringer ist die Erwärmung der Matrix, desto höher ist das Signal-Rausch-Verhältnis und desto sauberer ist das Ausgabebild.

Lass uns weitermachen. Die Matrixgröße ist einer der wichtigsten Parameter, auf den Sie unbedingt achten sollten. Für unerfahrene Fotografen möchte ich das einfach anmerken Die Matrixgröße ist ihr wichtigstes Merkmal.

In der Praxis erfolgt die Angabe in Millimetern, entweder als Formatbezeichnung, oder in Zoll der Sensordiagonale. Ein Format ist einfach der Name einer Matrix mit bestimmten Dimensionen. Sie nennen es der Einfachheit halber so. Was Zoll angeht, geht die Geschichte auf die Messung der Bildfläche bei Röhrenfernsehern zurück. Man schreibt es zum Beispiel so: 1/1,8″. Sie sollten keine mathematischen Berechnungen mit dem Ziel durchführen, die physikalische Größe der Diagonale zu bestimmen und die Abmessungen der Seiten zu berechnen. Es ist lediglich eine Notation und hat keine mathematische Kraft. Wichtig ist nur zu verstehen, dass eine Matrix mit einer Diagonale von 1/2,7″ deutlich kleiner ist als eine mit einer Diagonale von 1/1,8″. Hier sind die beliebtesten Größen:

Welchen Einfluss hat die Matrixgröße?

Je größer die Matrixgröße, desto besser

Dies ist nicht immer der Fall und man kann dieser Aussage widersprechen, aber im Allgemeinen ist sie wahr. Erfahrenere Leser freuen sich auf die Überführung des Themas in den Holivar-Kanal „Crop vs Full Frame“ :) Ich werde ihren Wünschen jetzt nicht nachgeben, denn es geht um grundlegende Dinge! Kommen wir zurück zum Thema.

Es hängt von der Matrixgröße ab:

  1. Bildrauschen;
  2. Dynamikbereich;
  3. Farbtiefe;
  4. Kameraabmessungen.

Indirekt ändern sich mit einer Änderung der Matrixgröße auch die Schärfentiefe und der Betrachtungswinkel, weil Um ein Bild im gleichen Maßstab zu erhalten, müssen Sie andere Parameter ändern ( Brennweite, Entfernung zum Motiv).

Je größer die Matrix, desto:

  • Weniger laut Bild. Physiker werden sagen: Je mehr Licht auf die Oberfläche trifft, die es einfängt, desto geringer ist die Erwärmung, desto geringer ist der Quantisierungsfehler und desto geringer ist der Einfluss von Fremdrauschen. Das Bild fällt unter den gleichen Bedingungen „sauberer“ und detaillierter aus. Das endgültige Bild enthält weniger unnötige Informationen, die durch Rauschen verursacht werden. Nun zu einer praktischeren Definition. Bei gleicher Pixelzahl und gleicher Technologie gilt: Je größer die Matrix, desto weniger Bildrauschen entsteht bei Aufnahmen bei schlechten Lichtverhältnissen. Vereinfacht gesagt gibt es auf dem Foto weniger überflüssige Punkte, die die Betrachtung beeinträchtigen. Wenn Sie beispielsweise Dämmerungsporträts aus der Hand aufnehmen möchten, ist eine Kamera mit einem großen Sensor vorzuziehen. Je kleiner die Matrix, desto weniger isolierende Elemente zwischen den Pixeln. Aus diesem Grund kommt es zu einer erhöhten Erwärmung, was in der Elektronik immer schlecht ist, das Signal-Rausch-Verhältnis verschlechtert sich und das Rauschen im resultierenden Bild nimmt im Vergleich zu Modellen mit großen Matrizen zu. Schauen wir uns ein Beispiel an:
    Links ist ein Bild, das von einer Kamera mit einer größeren Matrix aufgenommen wurde, rechts – von einer kleineren. Die Aufnahmebedingungen sind die gleichen. Vergrößern Sie das Bild. Schauen Sie einfach in den Himmel. Der Unterschied kann variieren, aber der Trend wird anhalten (vorausgesetzt, die Matrizen sind in Technologie und Generation ähnlich). In der Praxis ist das Rauschen in den Lichtern deutlich sichtbar, und wenn man die Schatten um den gleichen Betrag herauszieht, erhält man bei einer Kamera mit einem größeren Sensor ein klareres Bild. Mit Dehnung meinen wir eine Erhöhung der Belichtung im Editor, in diesem Fall in den Schatten – darin beginnen Details zu erscheinen. Wenn Sie die folgenden Genres bevorzugen: Abend-/Nachtlandschaften, Porträts während der Regimezeit mit wenig Licht, dynamische Reportagefotografie, achten Sie auf den Rauschpegel der Matrix der ausgewählten Kamera. Hinsichtlich der Größe empfiehlt es sich, Kameras mit Matrizen ab dem APS-C-Format zu wählen.
  • Größerer Dynamikbereich(mehr dazu später im Artikel).
  • Mehr Farbtiefe. Die Farbtiefe ist ein Maß dafür, wie kleine Farbveränderungen eine Kamera erkennen kann. Diese. Mit einer größeren Farbtiefe wirken kleinere Übergänge in Halbtönen natürlicher und realistischer für das Auge sichtbar. Es werden mehr Halbtoninformationen aufgezeichnet. Dies äußert sich beispielsweise in nahezu monochromatischen Landschaften.
  • Mehr Kamera. Es ist eine unbestreitbare Tatsache, dass Sie, wenn Sie mit einer Kamera mit größerem Sensor fotografieren möchten, deren größere Größe in Kauf nehmen müssen. Schaut man sich den Kameramarkt an, wird deutlich, dass es beispielsweise keine kleinen Vollformatkameras gibt, obwohl man versucht, solche herzustellen. Und die mobile Fotografie ist durch die Sensorgröße begrenzt.
  • Größerer Betrachtungswinkel wir können ceteris paribus bekommen.
    Die Größe der Matrix hat keinen Einfluss auf den Betrachtungswinkel!!! Die Perspektive, die mit dem gleichen Objektiv an verschiedenen Kameras erzielt wird, ist unterschiedlich. Aber bei gleichem EGF (äquivalente Brennweite) wird das Bild ungefähr gleich sein. Wenn Ihnen die Konzepte Perspektive und EGF nicht viel sagen, ist das in Ordnung, lesen Sie einfach weiter, ich erkläre Ihnen das Wesentliche „auf einen Blick“. Wenn Sie dasselbe Objektiv verwenden und mit einer Kamera mit einem größeren Sensor fotografieren, erhalten Sie eine größere Sicht. Nehmen wir die Annäherung an Objekte bei Aufnahmen mit einer Kamera mit einer größeren Matrix als 100 % an. Dann liefert die gleiche Linse auf einer kleineren Matrix eine Annäherung von >100 % (die Annäherung beträgt ein Vielfaches der Verkleinerung der Matrix). Der gleiche Effekt kann simuliert werden, indem man einen Teil des Rahmens aus einem Foto (aufgenommen auf einer großen Matrix) ausschneidet und es auf seine Originalgröße streckt. Mit anderen Worten: Ein Junge, der mit einem 35-mm-Objektiv an einer Kamera mit APS-C-Matrix (siehe Matrixgrößentabelle) fotografiert wurde, wird näher sein als derselbe Junge, der mit demselben Objektiv, aber mit Vollformat, fotografiert wurde (FF)-Sensor. Die Sonne am Horizont, aufgenommen mit einem kleineren Sensor, wird uns „näher“ sein:
  • Unter sonst gleichen Bedingungen kann eine geringere Schärfentiefe erreicht werden.. Dies ist ein weiterer interessanter Aspekt, der Fotografen verwirrt und angegangen werden muss. Mit Blick auf die Zukunft bestimmt die Schärfentiefe (DOF, Depth of Field), in welcher Entfernung sich Objekte vom Fokuspunkt in der Schärfezone befinden. Die Größe der Matrix hat keinen Einfluss auf die Schärfentiefe!!! Damit der Bildmaßstab bei verschiedenen Kameras bei gleicher Brennweite jedoch gleich ist, muss man bei Kameras mit kleineren Matrizen weiter weggehen oder die Brennweite ändern, was sich wiederum auf die Schärfentiefe auswirkt und diese erhöht. Daher ist es bei Kameras mit großen Matrizen einfacher, „unscharfe“ Fotos zu erhalten.

Das sind noch nicht alle, aber die wichtigsten Punkte, die für den Fotografen von entscheidender Bedeutung sind, die direkt oder indirekt von der Größe der Kameramatrix beeinflusst werden und die Sie selbst klar verstehen müssen.

Matrixtyp

Definiert das Prinzip, nach dem die Matrix funktioniert. Es gab zwei Haupttechnologien:

  • CMOS (CMOS – komplementäre Logik auf Transistoren);
  • CCD (CCD – ladungsgekoppeltes Gerät).

Matrizen, die auf beiden Technologien basieren, sammeln Licht. Nur im ersten Fall ist das kleinste Bauelement eine Diode, im zweiten ein Transistor.

Was die Bildqualität angeht, glaubte man zum Zeitpunkt der weit verbreiteten Verwendung beider Technologien, dass CCD-Matrizen eine angenehmere „Lampen“-Farbe hatten, während CMOS weniger Rauschen verursachte, die Rauschstruktur jedoch anders war.

Heutzutage ist die überwiegende Mehrheit der Kameras mit CMOS-Matrizen ausgestattet, die weniger Rauschen und energieeffizienter sind. Daher kommt es nicht in Frage, nach diesem Parameter zu wählen. Dies ist nur eine Erinnerung, wenn Sie veraltete Kameras verwenden.

Matrixempfindlichkeit. ISO

Das Verhältnis der gewählten Belichtung und der Ausgabebildparameter hängt von der Empfindlichkeit der Matrix ab. Einfach ausgedrückt: Je höher Sie die Empfindlichkeit einstellen (in den Kameraeinstellungen geändert), desto weniger beleuchtete Elemente können Sie registrieren. Aber gleichzeitig wird der Lärm zunehmen. Als äquivalenter Empfindlichkeitsparameter wird der ISO-Parameter verwendet. Es beginnt bei 50 – dies ist die minimale Empfindlichkeit, bei der das Bild so klar wie möglich ist und nicht durch Rauschen zerstört wird. Der Änderungsschritt wird durch Multiplikation mit 2 gebildet. D.h. Die nächste ISO-Empfindlichkeit ist 100, dann 200, 400, 800, 1600, 3200, 6400... Natürlich fotografieren Kameras auch mit Zwischenwerten, zum Beispiel 546. Aber der Einfachheit halber werden Schritte in Fuß wie oben beschrieben berücksichtigt. Machen Sie sich im Moment keine allzu großen Sorgen über ISO, Stopps usw.

Es ist wichtig zu verstehen, dass beim Aufnehmen derselben Szene (z. B. ein Baum in der Abenddämmerung) die Vergrößerung erforderlich ist ISO erhöht sich die Helligkeit. Das Bild erscheint heller. Es ist auch wichtig zu verstehen, dass dies bei einer Kamera mit einer größeren Matrix der Fall istEs wird weniger ISO-Rauschen geben.

Weiter für diejenigen, die mehr wissen wollen. Es gibt ein solches Konzept – EI (Expositionsindex). Es bestimmt die Beziehung zwischen dem von der Matrix übertragenen Signal und den Parametern seiner Umwandlung in Farbraum. Was erlaubt es? Mit den gleichen Belichtungseinstellungen können wir Bilder unterschiedlicher Helligkeit erhalten.

Beim Eintritt in die Matrix bildet Licht ein Signal (Ausgangsspannung), das im ADC in einen Farbraum umgewandelt wird. Am gebräuchlichsten ist sRGB. Gleichzeitig wird es gestärkt. Wenn das Signal schwach ist, müssen Sie es stärker verstärken. EI wird anders. Kameras haben einen voreingestellten Bereich von EI-Werten voreingestellt, der Einfachheit halber ISO genannt. Es stammt aus der Filmwelt und wird heute der Einfachheit halber verwendet. Der Bereich hängt von den Fähigkeiten der Matrix ab. Beispielsweise war es bei älteren DSLRs nicht möglich, ISO 6400 einzustellen, da bei dieser Empfindlichkeit die Bildqualität aufgrund des Rauschens nicht mehr akzeptabel wäre. Als nächstes geht es um die Verstärkung eines schwachen Signals.

Signal-Rausch-Verhältnis

Das nächste Merkmal der Matrix, das untrennbar mit der Empfindlichkeit verbunden ist, ist das Signal-Rausch-Verhältnis. Ich denke, der Punkt ist Ihnen bereits klar. Einfach gesagt in einfacher Sprache Dieses Verhältnis bestimmt, wie viel nützliches Signal (Licht vom Motiv, das Sie aufnehmen) und Rauschen im endgültigen Bild enthalten sind.

Wir haben oben gesagt, dass, wenn Licht auf die Matrix trifft, ihre Fotozellen Signale in Form einer Ausgangsspannung erzeugen. Nehmen wir an, wir erhalten eine Spannung von 0,2 V. Dies entspricht beispielsweise der reinen grünen Farbe gemäß dem sRGB-Raum bei ISO 200. Indem wir die Blende schließen oder die Verschlusszeit verkürzen, reduzieren wir den in die Matrix eintretenden Lichtfluss. Die Spannung an der Matrix beträgt nicht 0,2, sondern 0,1 V (zum Beispiel natürlich). Was bei einem bestimmten ISO-Wert von 200 nicht einem reinen Grün, sondern einem dunkleren Grün mit schmutzigen Verunreinigungen entspricht. Wenn wir die Kamera auf ISO 400 einstellen, steigt die Spannung automatisch auf 0,2 V und wir erhalten die ursprüngliche reine grüne Farbe.

ABER! Gleichzeitig bildet sich auf der Matrix ein Störanteil in Form von Rauschen, der bei Basis-ISO nicht wahrnehmbar ist. Aber indem wir das Signal verstärken, verstärken wir auch das Rauschen. Innerhalb angemessener Grenzen ist dies akzeptabel und nicht kritisch. Es ist wichtig zu verstehen, wann eine anschließende Erhöhung der Empfindlichkeit und damit des Signal-Rausch-Verhältnisses zu inakzeptablen Ergebnissen führt.

Nehmen wir an, Sie fotografieren Freunde, um persönliche Fotos zu veröffentlichen soziale Netzwerke. Sie legen keinen großen Wert auf die einwandfreie Qualität der Fotos und möchten große Emotionen sowie helle und angenehme Bilder erhalten. In diesem Fall stellen kleine oder sogar erhebliche Geräusche, die im Editor korrigiert werden, kein Problem dar. Wenn Sie jedoch eine Landschaft fotografieren und diese anschließend in der Größe 30x40 cm oder größer ausdrucken möchten, ist es besser, zunächst den minimal möglichen ISO-Wert einzustellen. Halten Sie sich bei Landschaftsaufnahmen grundsätzlich an die Regel, zunächst den minimalen ISO-Wert einzustellen. Einfach einstellen und vergessen, dann mit den anderen Parametern arbeiten.

Das Signal-Rausch-Verhältnis hängt auch von der Pixelgröße ab. Kommen wir daher zum nächsten Parameter.

Matrixauflösung

Ein beliebter Parameter, der in einigen Geschäften immer noch als Hauptparameter verwendet wird.

In der technischen Dokumentation sehen Sie beispielsweise 6000 x 4000. Das bedeutet, dass es in der Breite 6000 Fotozellen gibt, die Licht einfangen, und in der Höhe 4000. Durch Multiplikation erhalten wir die Gesamtzahl der Fotozellen (Pixel) auf der Matrix – 24.000.000 Zur besseren Lesbarkeit schreiben sie 24 MP. Dimension – Megapixel. Das Präfix „mega“ entspricht der Potenz 10 hoch 6.

Mehr Megapixel sind nicht besser

Moderne Kameras sind in der Regel mit Matrizen ab 16 MP ausgestattet. Aber mittlerweile ist es keine Seltenheit, 36 MP und 42 MP zu haben. Es gibt auch Modelle mit höherer Auflösung. Dies ist der traditionelle Marketingtrick, mit dem Käufer früher und auch heute noch „erwischt“ wurden, indem man ihnen den Kauf hochauflösender Kameras anbot, die damit verbundenen Fallstricke „vergessen“ und sich überhaupt nicht für die Ziele des Käufers interessierte. Lassen Sie uns etwas tiefer graben und uns für die Pixelgröße interessieren.

Die physikalische Größe eines Pixels ist ein sehr wichtiges Merkmal und wird in mm oder Mikrometern gemessen. Wenn das Pixel größer ist, kann es mehr Licht sammeln und das Signal-Rausch-Verhältnis ist höher mit allen sich daraus ergebenden Konsequenzen. Diese. Eine solche Matrix wird unter sonst gleichen Bedingungen weniger Lärm verursachen.

Es ist sehr einfach festzustellen. Nehmen wir die beliebte Matrix im APS-C-Format mit einer Auflösung von 24 MP, was einer physikalischen Größe von ca. 23,6 x 15,8 mm entspricht. Die Auflösung in Pixel beträgt 6000 x 4000. Das bedeutet, dass entlang der Längsseite 6000 Pixel unseres Ausgabebildes bei 23,6 mm entstehen. Wir dividieren den physikalischen Abstand durch die Anzahl der Punkte und erhalten eine Pixelgröße von etwa 0,004 mm. Wenn eine Matrix derselben Generation, ähnlicher Struktur und physikalischer Größe eine höhere Auflösung aufweist, ist die Pixelgröße kleiner, was zu mehr Erwärmung und Rauschen führt. Sie sagen, dass eine Erwärmung um etwa 8 Grad zu einer Verdoppelung des Lärms führt.

Praktische Funktionen der Pixelgröße:

  1. Geräusche. Wie schon oft besprochen, gilt unter sonst gleichen Bedingungen: kleinere Pixel = mehr Rauschen.
  2. Erhöhte Bewegung. Ein kleineres Pixel reagiert empfindlicher auf Handverwacklungen und Kamerabewegungen relativ zum Motiv. Stellen Sie sich vor, ein Pixel hat die Größe eines Tennisballs und Sie filmen eine Katze. Ein pixelförmiger Tennisball fängt das Licht ein, das einem dunklen Fleck im Fell der Katze entspricht. Wenn Sie die Matrix mit solchen Pixeln ein wenig verschieben, fällt höchstwahrscheinlich Licht von demselben dunklen Fleck auf dieses Pixel. Der Versatz verursacht keine globalen Probleme im Bild. Nehmen wir an, dass wir dieselbe Katze mit einer Kamera mit einer Matrix mit kleinen Pixeln filmen und ein Fussel von der Stelle der Katze auf einen bestimmten Pixel fällt. Wenn man die Kamera ein wenig bewegt, stellt sich heraus, dass das Pixel einen weiteren Fussel einfängt. Dadurch nimmt die Detailgenauigkeit zu, aber das Bild wird unscharf. Dies ist für bestimmte Zwecke besser geeignet, erfordert jedoch größere Fähigkeiten des Fotografen und hat bei der Aufnahme bestimmter Genres seine eigenen Besonderheiten.
  3. Erhöhte Anforderungen an das Objektiv. Die geringere physische Pixelgröße bedeutet, dass die Auflösung des Objektivs höher sein muss, um ein detailliertes Foto zu erhalten. Das Objektiv verfügt außerdem über eine Auflösung und kann eine begrenzte Anzahl von Punkten auf jeden Millimeter der Matrix projizieren. Teurere Objektive haben eine höhere Auflösung. Wenn außerdem die Auflösung des Objektivs geringer ist als die der Matrix, ist das Bild nicht detailliert genug. Sie sagen, dass „die Matrix sich nicht öffnen lässt“. Tatsächlich ist das System nicht ausgewogen und das Ergebnis wird das gleiche sein wie bei einer billigeren, aber ausgewogenen Technik. Die Auflösung der Kamera als integrales System überschreitet nicht die Auflösung jeder einzelnen Komponente (Matrix oder Objektiv). . Idealerweise sollte ihre Auflösung ungefähr gleich sein. Aber die Praxis bringt wie immer viele Anpassungen mit sich.
  4. Eine höhere Auflösung bedeutet eine leistungsfähigere Computerhardware. Je höher die Auflösung, desto höher sind die Anforderungen an den Computer bei der Verarbeitung. Wenn Sie gute Ergebnisse erzielen möchten und nicht einmal in RAW fotografieren (ich empfehle Ihnen, trotzdem auf RAW umzusteigen), müssen Sie das Bild noch in Photoshop oder einem anderen Editor „drehen“. Und bei Auflösungen von 24 MP, 36 MP oder höher kann dies ein Problem sein. Selbst wenn kleine Änderungen schnell genug vorgenommen werden, sind kleine Verzögerungen bei einem großen Fotoset ärgerlich und zeitraubend.

Dynamikbereich des Sensors

Der Dynamikbereich (abgekürzt DD) bestimmt den maximalen Helligkeitsbereich eines Bildes.

Jedes Pixel hat seine eigene Helligkeit. Der Einfachheit halber betrachten wir die Helligkeit einzelner Bildteile, beispielsweise des Himmels. Nehmen wir an, Sie fotografieren eine Stadtlandschaft an einem hellen, sonnigen Tag und im Bild sind ein heller Himmel und sehr dunkle Gebäude zu sehen. Wenn Sie den Rahmen dem Himmel aussetzen, erhalten Sie einen detaillierten Himmel und dunkle oder fast schwarze Gebäude. Im Gegenteil, wenn wir Gebäude belichten, erhalten wir deren normale Helligkeit, aber stattdessen gibt es überhaupt keinen Himmel Weißer Fleck. Sind Sie auf eine solche Situation gestoßen? Ich denke sicher.

Der Dynamikbereich bestimmt also lediglich, wie groß der Helligkeitsbereich ist, den die Kamera abdecken kann, ohne dass Informationen in den hellsten und dunkelsten Teilen des Bildes verloren gehen.

Der Dynamikbereich ist abhängig von der Produktionstechnologie ein konstantes Merkmal der Matrix. Wir können es nur durch die Einstellung eingrenzen sehr wichtig ISO-Empfindlichkeit, die, wie Sie verstehen, unerwünscht ist.

Auf diesem Foto gibt es unten ziemlich dunkle Bereiche und oben helle Sonnenstrahlen, und die Aufnahme erfolgt im Gegenlicht, gegen die Sonne. Das sind offensichtlich schwierige Bedingungen für die Kamera, der Kontrast ist zu hoch.

Und hier ist ein noch auffälligeres Beispiel mit einem ausgeschlagenen Himmel. Eigentlich ein Klassiker, davon gibt es in den Ordnern vieler Leute reichlich, und es muss etwas dagegen getan werden.

Unzureichender Dynamikbereich der Matrix

In diesem Fall heißt es, dass die gefilmte Szene nicht in den Dynamikbereich der Kamera passt. Und Sie müssen entweder auf eine Neukomposition des Bildes zurückgreifen, um den Kontrast der Szene zu reduzieren, oder auf künstlerische Techniken zurückgreifen, um die Mängel der Technik auszuspielen, oder auf die Technik ihrer Erweiterung (HDR) zurückgreifen. Sie fragen vernünftigerweise: „Aber wir sehen gleichzeitig.“ blauer Himmel und dunkle Details. Wie so?". Diese Tatsache kann auf die Unvollkommenheit der Technologie zurückgeführt werden. Der Dynamikbereich des Auges übersteigt den Bereich der Kamera um etwa das Zweifache.

Fassen wir zusammen

Ich möchte Ihre Zweifel sofort ausräumen. Der Zweck dieses Artikels besteht darin, Ihnen ein Verständnis dafür zu vermitteln, was funktioniert und wie es funktioniert. Lassen Sie sich nicht entmutigen, wenn vieles unklar ist – Hauptsache, Sie schaffen „Regale“ im Kopf, eine Struktur, und füllen diese dann nach Bedarf mit Informationen. Aber das Material ist auf jeden Fall wichtig und bildet das Rückgrat für das Verständnis der Fotografie. Wenn also überhaupt nichts klar ist, lesen Sie es noch einmal oder kommen Sie später darauf zurück. Und speziell für Sie mache ich einen kurzen Auszug aus dem, was Sie sich unbedingt in den Kopf setzen sollten:

  1. Die Matrix ist eines der wichtigsten Elemente der Kamera, die Licht einfängt und in elektrische Signale umwandelt. Kann in der Kamera nicht ausgetauscht werden. Es ist analog zum Filmen in Filmkameras.
  2. Das Aufnehmen eines Fotos bei geöffnetem Verschluss wird als Belichtung bezeichnet.
  3. Die Matrix weist viele Eigenschaften auf. Die Größe ist einer der wichtigsten; sie kann indirekt andere Parameter bestimmen. Als Fahrzeugklasse erwartet man von einer B-Klasse-Limousine nicht so viel Platz wie von einer E-Klasse-Limousine, egal wie fortschrittlich und teuer sie auch sein mag.
  4. Wenn Sie eine Kamera mit einer bestimmten Matrixgröße auswählen, sollten Sie deren Vor- und Nachteile kennen und bereit sein, diese zu nutzen. Die kleine Matrix leidet am meisten unter Bedingungen, bei denen nicht genügend Licht vorhanden ist. Wenn Sie planen, sich im Bereich Fotografie weiterzuentwickeln und es Ihnen wirklich gefällt, empfehle ich Ihnen, auf das Micro 4/3-Format zu achten oder die APS-C-Option zu wählen.
  5. Eine hochwertige Matrix ist der Schlüssel zu einem guten Bild. Wenn Sie eine Kamera auswählen, müssen Sie damit beginnen. Andererseits ist es auch nicht nötig, ins Extreme zu stürzen – eine teure Vollformatkamera mit einem günstigen Objektiv wird wahrscheinlich keine guten Ergebnisse bringen. Genauer gesagt wird es schlimmer sein, als es sein könnte. Aber heute muss man nach einer Kamera mit einer ehrlich gesagt schlechten Matrix suchen.
  6. Entscheiden Sie sich nicht für eine hohe Auflösung. Selbst das Minimum moderner Kameras wird für Sie unerreichbar sein.
  7. Im Allgemeinen nach Priorität, die für den Erhalt eines qualitativ hochwertigen Bildes wichtig ist. Ich empfehle, es zu lesen, falls Sie es noch nicht getan haben. Wenn Sie den Eindruck haben, dass technische Parameter Vorrang vor Kreativität haben, zeigt Ihnen dieser Artikel das Gegenteil und bringt Sie zu der Überzeugung, dass Ausgewogenheit wichtig ist. Eine Verlagerung hin zur kreativen Seite ist möglich. Aber ein Wandel hin zur Technikphilie führt ergebnistechnisch zu nichts Gutem.

Und natürlich stehe ich Ihnen gerne zur Verfügung! Ich bin immer bereit, alle möglichen Fragen im Rahmen meiner Kompetenz in den Kommentaren zu beantworten.

von Cal Redback

Der Dynamikbereich ist einer der vielen Parameter, auf die jeder beim Kauf oder bei der Besprechung einer Kamera achtet. IN verschiedene Rezensionen Dieser Begriff wird häufig zusammen mit den Parametern Rauschen und Matrixauflösung verwendet. Was bedeutet dieser Begriff?

Es sollte kein Geheimnis sein, dass der Dynamikbereich einer Kamera die Fähigkeit der Kamera ist, helle und dunkle Details der fotografierten Szene zu erkennen und gleichzeitig wiederzugeben.

Genauer gesagt ist der Dynamikbereich einer Kamera der Bereich der Farbtöne, den sie zwischen Schwarz und Weiß erkennen kann. Je größer der Dynamikbereich, desto mehr dieser Töne können aufgezeichnet werden und desto mehr Details können aus den dunklen und hellen Bereichen der gefilmten Szene extrahiert werden.

Der Dynamikbereich wird normalerweise in gemessen. Obwohl es offensichtlich ist, dass es wichtig ist, so viele Farbtöne wie möglich einzufangen, bleibt für die meisten Fotografen die Priorität, ein ansprechendes Bild zu erstellen. Dies bedeutet jedoch nicht, dass jedes Detail des Bildes sichtbar sein muss. Wenn beispielsweise die dunklen und hellen Details des Bildes mit grauen Untertönen anstelle von Schwarz oder Weiß verdünnt werden, weist das gesamte Bild einen sehr geringen Kontrast auf und sieht eher langweilig und langweilig aus. Der Schlüssel liegt in den Grenzen des Dynamikbereichs der Kamera und im Verständnis dafür, wie Sie damit Fotos mit einem guten Kontrastniveau und ohne sogenannte Kontrasteffekte erstellen können. Lücken in Licht und Schatten.

Was sieht die Kamera?

Jedes Pixel im Bild repräsentiert eine Fotodiode auf dem Kamerasensor. Fotodioden sammeln Lichtphotonen und wandeln sie in elektrische Ladung um, die dann in digitale Daten umgewandelt wird. Je mehr Photonen gesammelt werden, desto größer ist das elektrische Signal und desto heller wird das Pixel im Bild. Wenn die Fotodiode keine Lichtphotonen sammelt, wird kein elektrisches Signal erzeugt und das Pixel ist schwarz.

1-Zoll-Sensor

APS-C-Sensor

Allerdings gibt es Sensoren in verschiedenen Größen und Auflösungen und sie werden mit unterschiedlichen Technologien hergestellt, die sich auf die Größe der Fotodioden jedes Sensors auswirken.

Wenn wir Fotodioden als Zellen betrachten, können wir eine Analogie zur Füllung ziehen. Eine leere Fotodiode erzeugt ein schwarzes Pixel, während eine 50 % volle Fotodiode Grau und eine 100 % volle Fotodiode weiß anzeigt.

Nehmen wir an, Mobiltelefone und Kompaktkameras haben im Vergleich zu DSLRs sehr kleine Bildsensoren. Dadurch verfügen sie auch über wesentlich kleinere Fotodioden auf dem Sensor. Auch wenn sowohl eine Kompaktkamera als auch eine DSLR über einen 16-Millionen-Pixel-Sensor verfügen, ist der Dynamikbereich unterschiedlich.

Je größer die Fotodiode ist, desto größer ist ihre Fähigkeit, Lichtphotonen zu speichern, verglichen mit einer kleineren Fotodiode in einem kleineren Sensor. Das heißt, je größer die physikalische Größe, desto besser kann die Diode Daten in hellen und dunklen Bereichen aufzeichnen

Die gängigste Analogie ist, dass jede Fotodiode wie ein Eimer ist, der Licht sammelt. Stellen Sie sich 16 Millionen Eimer vor, die Licht sammeln, im Vergleich zu 16 Millionen Tassen. Eimer haben ein größeres Volumen, wodurch sie mehr Licht sammeln können. Die Becher haben ein viel kleineres Fassungsvermögen, sodass sie im gefüllten Zustand viel weniger Leistung an die Fotodiode übertragen können; dementsprechend kann ein Pixel mit viel weniger Lichtphotonen reproduziert werden, als dies bei größeren Fotodioden der Fall ist.

Was bedeutet das in der Praxis? Kameras mit kleineren Sensoren, wie sie beispielsweise in Smartphones oder Kompaktkameras zu finden sind, haben einen geringeren Dynamikumfang als selbst die kleinsten Systemkameras oder DSLRs, die größere Sensoren verwenden. Es ist jedoch wichtig zu bedenken, dass der Gesamtkontrast in der Szene, die Sie fotografieren, einen Einfluss auf Ihre Bilder hat.

In einer Szene mit sehr geringem Kontrast der Unterschied im von der Kamera erfassten Tonwertbereich Mobiltelefon und DSLR können klein oder nicht unterscheidbar sein. Die Sensoren beider Kameras sind in der Lage, bei richtiger Beleuchtungseinstellung die gesamte Farbpalette einer Szene zu erfassen. Beim Aufnehmen kontrastreicher Szenen wird jedoch klar sein, dass je größer der Dynamikbereich ist, desto mehr Halbtöne kann er vermitteln. Und da größere Fotodioden eine größere Bandbreite an Tönen besser aufzeichnen können, verfügen sie auch über einen größeren Dynamikbereich.

Sehen wir uns den Unterschied anhand eines Beispiels an. Auf den Fotos unten können Sie Unterschiede in der Wiedergabe von Halbtönen durch Kameras mit unterschiedlichem Dynamikumfang unter den gleichen kontrastreichen Beleuchtungsbedingungen beobachten.

Was ist Bildtiefe?

Die Bittiefe hängt eng mit dem Dynamikbereich zusammen und gibt der Kamera vor, wie viele Töne in einem Bild reproduziert werden können. Obwohl digitale Fotos standardmäßig in Vollfarbe vorliegen und nicht ohne Farbe aufgenommen werden können, zeichnet der Kamerasensor die Farbe nicht direkt auf, sondern lediglich einen digitalen Wert für die Lichtmenge. Beispielsweise enthält ein 1-Bit-Bild die einfachste „Anweisung“ für jedes Pixel, sodass es in diesem Fall nur zwei mögliche Endergebnisse gibt: ein schwarzes Pixel oder ein weißes Pixel.

Das Bitbild besteht bereits aus vier verschiedene Level(2x2). Sind beide Bits gleich, handelt es sich um ein weißes Pixel; sind beide aus, handelt es sich um ein schwarzes Pixel. Es ist auch möglich, zwei Optionen auszuwählen, sodass das Bild eine entsprechende Spiegelung von zwei weiteren Tönen aufweist. Ein Zwei-Bit-Bild erzeugt Schwarzweiß und zwei Graustufen.

Wenn das Bild 4-Bit ist, gibt es daher 16 mögliche Kombinationen, um unterschiedliche Ergebnisse zu erzielen (2x2x2x2).

Wenn es um digitale Bildgebung und Sensoren geht, werden am häufigsten 12-, 14- und 16-Bit-Sensoren genannt, die jeweils 4096, 16384 bzw. 65536 verschiedene Töne aufzeichnen können. Je größer die Bittiefe, desto mehr Leuchtdichte- oder Farbtonwerte können vom Sensor erfasst werden.

Aber auch hier gibt es einen Haken. Nicht alle Kameras sind in der Lage, Dateien mit der Farbtiefe zu erzeugen, die der Sensor erzeugen kann. Bei einigen Nikon-Kameras können die Quelldateien beispielsweise entweder 12-Bit oder 14-Bit sein. Die zusätzlichen Daten in 14-Bit-Bildern führen dazu, dass die Dateien tendenziell mehr Details in den Lichtern und Schatten aufweisen. Da die Dateigröße größer ist, wird mehr Zeit für die Verarbeitung und Speicherung aufgewendet. Das Speichern von Rohbildern aus 12-Bit-Dateien geht schneller, aber der Tonwertumfang des Bildes wird komprimiert. Das bedeutet, dass einige sehr dunkelgraue Pixel als Schwarz erscheinen und einige helle Töne möglicherweise als .

Wenn Sie im JPEG-Format aufnehmen, werden die Dateien noch stärker komprimiert. JPEG-Bilder sind 8-Bit-Dateien, bestehend aus 256 unterschiedliche Bedeutungen Helligkeit, so dass viele der feinen Details, die in den in . aufgenommenen Originaldateien bearbeitet werden konnten, in der JPEG-Datei vollständig verloren gehen.

Wenn ein Fotograf also die Möglichkeit hat, den gesamten möglichen Dynamikumfang der Kamera optimal auszunutzen, dann ist es besser, die Quellen in „roher“ Form – mit der maximal möglichen Bittiefe – zu speichern. Das bedeutet, dass die Bilder gespeichert werden größte Zahl Informationen zu hellen und dunklen Bereichen beim Bearbeiten.

Warum ist es für einen Fotografen wichtig, den Dynamikbereich einer Kamera zu verstehen? Basierend auf den verfügbaren Informationen können mehrere angewandte Regeln formuliert werden, deren Einhaltung die Wahrscheinlichkeit erhöht, unter schwierigen fotografischen Bedingungen gute und qualitativ hochwertige Bilder zu erhalten und schwerwiegende Fehler und Auslassungen zu vermeiden.

  • Es ist besser, ein helleres Foto aufzunehmen, als es abzudunkeln. Lichterdetails werden leichter hervorgehoben, da sie nicht so verrauscht sind wie Schattendetails. Die Regel gilt natürlich unter Bedingungen einer mehr oder weniger korrekt eingestellten Belichtung.
  • Bei der Belichtungsmessung in dunklen Bereichen ist es besser, Details in den Schatten zu opfern, indem man in den Lichtern sorgfältiger vorgeht.
  • Bei großen Helligkeitsunterschieden einzelner Teile der fotografierten Komposition sollte die Belichtung im dunklen Teil gemessen werden. In diesem Fall empfiehlt es sich, die Gesamthelligkeit der Bildfläche möglichst auszugleichen.
  • Als optimale Aufnahmezeit gilt der Morgen oder Abend, wenn das Licht gleichmäßiger verteilt ist als mittags.
  • Porträtfotografie wird besser und einfacher, wenn Sie zusätzliche Beleuchtung mit externen Blitzen verwenden (kaufen Sie beispielsweise moderne On-Camera-Blitze http://photogora.ru/cameraflash/incameraflash).
  • Unter sonst gleichen Bedingungen sollten Sie den niedrigstmöglichen ISO-Wert verwenden.

Mit diesem Artikel beginnen wir eine Reihe von Veröffentlichungen über eine sehr interessante Richtung in der Fotografie: High Dynamic Range (HDR) – Fotografien mit einem hohen Dynamikumfang. Beginnen wir natürlich mit den Grundlagen: Lassen Sie uns herausfinden, was HDR-Bilder sind und wie man sie unter Berücksichtigung dieser Kriterien richtig aufnimmt begrenzte Möglichkeiten unsere Kameras, Monitore, Drucker usw.

Beginnen wir mit der grundlegenden Definition des Dynamikbereichs.

Dynamikbereich wird durch das Verhältnis dunkler und heller Elemente bestimmt, die für die Wahrnehmung Ihres Fotos wichtig sind (gemessen am Helligkeitsgrad).

Hierbei handelt es sich nicht um einen absoluten Bereich, da dieser weitgehend von Ihren persönlichen Vorlieben und den gewünschten Ergebnissen abhängt.

Es gibt zum Beispiel viele wundervolle Fotos mit sehr satten Schatten, ohne jegliche Details; In diesem Fall können wir sagen, dass ein solches Foto nur den unteren Teil des Dynamikbereichs der Szene zeigt.

  • DD der Szene, die gefilmt wird
  • DD-Kameras
  • DD-Bildausgabegerät (Monitor, Drucker usw.)
  • DD des menschlichen Sehens

Während des Fotografierens transformiert sich der DD zweimal:

  • DD der gefilmten Szene > DD des Bildaufnahmegeräts (hier meinen wir die Kamera)
  • TT des Bilderfassungsgeräts > TT des Bildausgabegeräts (Monitor, Fotodruck usw.)

Es sollte beachtet werden, dass Details, die während der Bildaufnahmephase verloren gehen, später nie wiederhergestellt werden können (wir werden uns etwas später genauer damit befassen). Aber am Ende kommt es nur darauf an, dass das resultierende Bild, auf dem Monitor angezeigt oder auf Papier gedruckt, Ihren Augen gefällt.

Arten des Dynamikbereichs

Dynamikumfang der Szene

Welches sind die hellsten und dunkelsten Details einer Szene, die Sie einfangen möchten? Die Antwort auf diese Frage hängt ganz von Ihrer kreativen Entscheidung ab. Der wahrscheinlich beste Weg, dies zu lernen, besteht darin, sich ein paar Frames als Referenz anzusehen.

Auf dem Foto oben wollten wir beispielsweise Details sowohl im Innen- als auch im Außenbereich festhalten.

Auf diesem Foto möchten wir auch Details sowohl in den hellen als auch in den dunklen Bereichen zeigen. Allerdings sind uns in diesem Fall die Details in den Lichtern wichtiger als die Details in den Schatten. Tatsache ist, dass helle Bereiche beim Drucken in der Regel am schlechtesten aussehen (oft können sie wie einfaches weißes Papier aussehen, auf das das Foto gedruckt wird).

In Szenen wie dieser kann der Dynamikumfang (Kontrast) 1:30.000 oder mehr erreichen – insbesondere, wenn Sie in einem dunklen Raum mit Fenstern fotografieren, die helles Licht hereinlassen.

Letztlich ist HDR-Fotografie unter diesen Bedingungen... Beste Option um ein Foto zu bekommen, das Ihren Augen gefällt.

Dynamikbereich der Kamera

Wenn unsere Kameras in der Lage wären, den hohen Dynamikumfang einer Szene in einer einzigen Aufnahme einzufangen, bräuchten wir die in diesem und den folgenden HDR-Artikeln beschriebenen Techniken nicht. Die harte Realität ist leider, dass der Dynamikbereich von Kameras deutlich geringer ist als in vielen Szenen, die sie aufnehmen.

Wie wird der Dynamikumfang einer Kamera bestimmt?

Der DD einer Kamera wird von den hellsten Teilen des Bildes bis zu den Schattendetails über dem Rauschpegel gemessen.

Der Schlüssel zur Bestimmung des Dynamikbereichs einer Kamera besteht darin, dass wir ihn von sichtbaren Lichterdetails (nicht unbedingt und nicht immer reines Weiß) bis zu Schattendetails messen, die deutlich sichtbar sind und nicht durch viel Rauschen verloren gehen.

  • Eine moderne Standard-DSLR-Kamera kann einen Bereich von 7–10 Blendenstufen abdecken (im Bereich von 1:128 bis 1:1000). Aber Sie sollten nicht zu optimistisch sein und nur Zahlen vertrauen. Einige Fotos sehen trotz des beeindruckenden Rauschens im Großformat großartig aus, während andere an Attraktivität verlieren. Es hängt alles von Ihrer Wahrnehmung ab. Und natürlich spielt auch die Größe des Drucks oder der Anzeige Ihres Fotos eine Rolle
  • Transparentfolien können einen Bereich von 6–7 Blendenstufen abdecken
  • Der Dynamikbereich von Negativfilmen beträgt etwa 10-12 Blendenstufen
  • Die Funktion zur Wiederherstellung von Glanzlichtern in einigen RAW-Konvertern kann Ihnen dabei helfen, bis zu +1 Blende mehr zu gewinnen.

Hinter In letzter Zeit Die in DSLRs eingesetzten Technologien haben große Fortschritte gemacht, Wunder darf man dennoch nicht erwarten. Es gibt nicht viele Kameras auf dem Markt, die einen (im Vergleich zu anderen Kameras) großen Dynamikbereich erfassen können. Ein markantes Beispiel ist der Fuji FinePixS5 (derzeit nicht mehr produziert), dessen Matrix über zweischichtige Fotozellen verfügte, die es ermöglichten, den im S5 verfügbaren DD um 2 Blenden zu erhöhen.

Dynamikbereich des Bildausgabegeräts

Von allen Phasen der digitalen Fotografie weist die Bildausgabe typischerweise den geringsten Dynamikumfang auf.

  • Der statische Dynamikbereich moderner Monitore variiert zwischen 1:300 und 1:1000
  • Der Dynamikbereich von HDR-Monitoren kann bis zu 1:30.000 erreichen (das Betrachten eines Bildes auf einem solchen Monitor kann zu spürbaren Augenbeschwerden führen)
  • Der Dynamikumfang des Fotodrucks liegt in den meisten Hochglanzmagazinen bei etwa 1:200
  • Der Dynamikumfang eines Fotodrucks auf hochwertigem Mattpapier überschreitet nicht 1:100

Sie fragen sich vielleicht zu Recht: Warum sollten Sie versuchen, beim Fotografieren einen großen Dynamikbereich zu erfassen, wenn die DD von Bildausgabegeräten so begrenzt ist? Die Antwort ist die Komprimierung des Dynamikbereichs (wie Sie später sehen werden, hängt auch die Tone Mapping damit zusammen).

Wichtige Aspekte des menschlichen Sehens

Wenn Sie Ihre Arbeit anderen Menschen zeigen, ist es hilfreich, einige grundlegende Aspekte darüber zu lernen, wie das menschliche Auge die Welt um uns herum wahrnimmt.

Das menschliche Sehen funktioniert anders als unsere Kameras. Wir alle wissen, dass sich unsere Augen an das Licht anpassen: Bei Dunkelheit weiten sich die Pupillen, bei hellem Licht ziehen sie sich zusammen. Normalerweise dauert dieser Vorgang ziemlich lange (er erfolgt überhaupt nicht sofort). Dadurch können unsere Augen ohne spezielles Training einen Dynamikbereich von 10 Blendenstufen abdecken, im Allgemeinen steht uns ein Bereich von etwa 24 Blendenstufen zur Verfügung.

Kontrast

Alle für unsere Sicht zugänglichen Details basieren nicht auf der absoluten Sättigung des Tons, sondern auf den Kontrasten der Bildkonturen. Das menschliche Auge reagiert sehr empfindlich auf selbst kleinste Kontraständerungen. Deshalb ist das Konzept des Kontrasts so wichtig.

Allgemeiner Kontrast

Der Gesamtkontrast wird durch den Helligkeitsunterschied zwischen den dunkelsten und hellsten Elementen des Gesamtbildes bestimmt. Werkzeuge wie Kurven und Ebenen ändern nur den Gesamtkontrast, da sie alle Pixel mit derselben Helligkeitsstufe gleich behandeln.

Im Allgemeinen gibt es drei Hauptbereiche:

  • Mitteltöne
  • Sweta

Die Kombination der Kontraste in diesen drei Bereichen bestimmt den Gesamtkontrast. Das heißt, wenn Sie den Mitteltonkontrast erhöhen (was sehr häufig vorkommt), verlieren Sie bei jeder Ausgabemethode, die auf dem Gesamtkontrast basiert (z. B. beim Drucken auf Hochglanzpapier), den Gesamtkontrast zwischen Lichtern und Schatten.

Mitteltöne stellen in der Regel das Hauptmotiv des Fotos dar. Wenn Sie den Kontrast im Mitteltonbereich reduzieren, wirkt Ihr Bild verwaschen. Wenn Sie umgekehrt den Kontrast der Mitteltöne erhöhen, werden die Schatten und Lichter weniger kontrastreich. Wie Sie unten sehen werden, ist die Änderung lokaler Kontrast kann die Gesamtdarstellung Ihres Fotos verbessern.

Lokaler Kontrast

Das folgende Beispiel hilft Ihnen, das Konzept des lokalen Kontrasts zu verstehen.

Die einander gegenüberliegenden Kreise in den einzelnen Linien weisen absolut identische Helligkeitswerte auf. Aber der Kreis oben rechts sieht viel heller aus als der Kreis links. Warum? Unsere Augen erkennen den Unterschied zwischen ihm und dem Hintergrund um ihn herum. Der rechte Kreis sieht auf einem dunkelgrauen Hintergrund heller aus als der gleiche Kreis auf einem helleren Hintergrund. Für die beiden Kreise unten gilt das Gegenteil.

Für unsere Augen ist die absolute Helligkeit weniger interessant als ihr Verhältnis zur Helligkeit nahegelegener Objekte.

Werkzeuge wie FillLight und Sharpening in Lightroom und Schatten/Glanzlichter in Photoshop sind lokal und wirken sich nicht auf alle Pixel mit der gleichen Helligkeitsstufe aus.

Dodge und Burn sind klassische Werkzeuge zum Ändern des lokalen Kontrasts eines Bildes. Dodge & Burn ist nach wie vor eine der optimalen Methoden zur Bildverbesserung, da unser eigenes Auge natürlich recht gut beurteilen kann, wie ein bestimmtes Foto in den Augen eines Außenstehenden aussieht.

HDR: Dynamikbereichskontrolle

Kehren wir noch einmal zur Frage zurück: Warum sollten Sie sich Mühe geben und Szenen mit einem Dynamikbereich aufnehmen, der größer ist als der DD Ihrer Kamera oder Ihres Druckers? Die Antwort ist, dass wir einen Frame mit hohem Dynamikumfang nehmen und ihn später über ein Gerät mit geringerem Dynamikumfang ausgeben können. Was ist der Punkt? Der Punkt ist, dass Sie bei diesem Vorgang keine Informationen über die Details des Bildes verlieren.

Das Problem der Aufnahme von Szenen mit hohem Dynamikumfang lässt sich natürlich auch auf andere Weise lösen:

  • Manche Fotografen warten beispielsweise einfach auf bewölktes Wetter und fotografieren überhaupt nicht, wenn der DD der Szene zu hoch ist
  • Verwenden Sie Aufhellblitz (diese Methode ist nicht für Landschaftsfotografie geeignet)

Aber während einer langen (oder kürzeren) Reise müssen Sie die größtmöglichen Möglichkeiten zum Fotografieren haben, also müssen Sie und ich effektivere Lösungen finden.

Darüber hinaus kann die Umgebungsbeleuchtung nicht nur vom Wetter abhängen. Um dies besser zu verstehen, schauen wir uns noch einmal einige Beispiele an.

Das Foto oben ist ziemlich dunkel, fängt aber trotzdem einen unglaublich großen Dynamikbereich des Lichts ein (5 Bilder wurden mit 2 Blendenstufen aufgenommen).

Auf diesem Foto war das Licht, das aus den Fenstern auf der rechten Seite kam, im Vergleich zum dunklen Raum recht hell (es gab keine künstlichen Lichtquellen).

Ihr erstes Ziel besteht also darin, den gesamten Dynamikbereich der Szene ohne Datenverlust mit der Kamera einzufangen.

Anzeige des Dynamikbereichs. Low-DD-Szene

Schauen wir uns der Tradition entsprechend zunächst das Schema zum Fotografieren einer Szene mit niedrigem DD an:

In diesem Fall können wir mit einer Kamera den Dynamikbereich der Szene in einem Bild abdecken. Ein geringfügiger Verlust von Schattendetails stellt normalerweise kein großes Problem dar.

Der Mapping-Prozess auf der Stufe Kamera – Ausgabegerät erfolgt hauptsächlich mithilfe von Tonwertkurven (in der Regel Komprimierung von Lichtern und Schatten). Hier sind die wichtigsten Tools, die hierfür verwendet werden:

  • Beim Konvertieren von RAW: Zeigt die lineare Kameratonalität durch Tonkurven an
  • Photoshop-Tools: Kurven und Ebenen
  • Ausweich- und Brennwerkzeuge in Lightroom und Photoshop

Hinweis: Zur Zeit der Filmfotografie. Die Negative wurden vergrößert und auf verschiedenen Papiersorten (oder Universalpapier) gedruckt. Der Unterschied zwischen den Fotopapierklassen bestand im Kontrast, den sie reproduzieren konnten. Dies ist eine klassische Tone-Mapping-Methode. Tone Mapping mag wie etwas Neues klingen, ist es aber bei weitem nicht. Denn erst zu Beginn der Fotografie sah das Bilddarstellungsschema so aus: eine Szene – ein Bildausgabegerät. Seitdem ist die Reihenfolge unverändert:

Szene > Bildaufnahme > Bildausgabe

Anzeige des Dynamikbereichs. Szene mit höherem DD

Betrachten wir nun eine Situation, in der wir eine Szene mit höherem Dynamikumfang aufnehmen:

Hier ist ein Beispiel dafür, was Sie als Ergebnis erhalten könnten:

Wie wir sehen, kann die Kamera nur einen Teil des Dynamikumfangs der Szene erfassen. Wir haben bereits erwähnt, dass ein Detailverlust in den Glanzlichtern selten akzeptabel ist. Das bedeutet, dass wir die Belichtung ändern müssen, um den Glanzlichtbereich vor Detailverlust zu schützen (natürlich ohne auf spiegelnde Glanzlichter wie Reflexionen zu achten). Als Ergebnis erhalten wir Folgendes:

Jetzt haben wir einen erheblichen Detailverlust im Schattenbereich. In manchen Fällen kann dies vielleicht sehr ästhetisch aussehen, aber nicht, wenn Sie dunklere Details im Foto anzeigen möchten.

Unten sehen Sie ein Beispiel dafür, wie ein Foto aussehen könnte, wenn die Belichtung reduziert wird, um Details in den Glanzlichtern zu bewahren:

Erfassen Sie einen hohen Dynamikbereich mit Belichtungsreihen.

Wie können Sie also den gesamten Dynamikbereich mit Ihrer Kamera erfassen? In diesem Fall wäre die Lösung Belichtungsreihe: Aufnehmen mehrerer Bilder mit aufeinanderfolgenden Änderungen der Belichtungsstufe (EV), sodass sich diese Belichtungen teilweise überlappen:

Beim Erstellen eines HDR-Fotos nehmen Sie mehrere unterschiedliche, aber verwandte Belichtungen auf, die den gesamten Dynamikbereich der Szene abdecken. Im Allgemeinen unterscheiden sich die Belichtungen um 1–2 Blendenstufen (EV). Dies bedeutet, dass die erforderliche Anzahl an Aufnahmen wie folgt ermittelt wird:

  • Die Szene DD, die wir erfassen möchten
  • DD ist für die Kameraaufnahme in einem Bild verfügbar

Jede weitere Belichtung kann um 1–2 Stufen erhöht werden (abhängig von der gewählten Belichtungsreihe).

Lassen Sie uns nun herausfinden, was Sie mit den resultierenden Fotos mit unterschiedlichen Belichtungen machen können. Tatsächlich gibt es viele Möglichkeiten:

  • Kombinieren Sie sie manuell zu einem HDR-Bild (Photoshop)
  • Kombinieren Sie sie mithilfe der automatischen Belichtungsmischung (Fusion) automatisch zu einem HDR-Bild.
  • Erstellen Sie ein HDR-Bild in einer speziellen HDR-Verarbeitungssoftware

Manuelles Zusammenführen

Das manuelle Zusammenfügen von Bildern mit unterschiedlichen Belichtungen (im Wesentlichen mithilfe einer Fotomontagetechnik) ist fast so alt wie die Kunst der Fotografie. Obwohl Photoshop diesen Vorgang heutzutage einfacher macht, kann er dennoch recht mühsam sein. Da alternative Optionen verfügbar sind, ist es weniger wahrscheinlich, dass Sie Bilder manuell zusammenführen.

Automatische Belichtungsmischung (auch Fusion genannt)

In diesem Fall erledigt die Software alles für Sie (z. B. bei der Verwendung von Fusion in Photomatix). Das Programm durchläuft den Prozess der Kombination von Bildern mit unterschiedlichen Belichtungen und generiert die endgültige Bilddatei.

Mit Fusion entstehen in der Regel sehr gute Bilder, die „natürlicher“ aussehen:

HDR-Bilder erstellen

Jeder HDR-Erstellungsprozess umfasst zwei Phasen:

  • HDR-Bilder erstellen
  • Tonkonvertierung eines HDR-Bildes in ein Standard-16-Bit-Bild

Bei der Erstellung von HDR-Bildern verfolgt man im Wesentlichen das gleiche Ziel, geht dabei aber anders vor: Man erhält nicht gleich das endgültige Bild, sondern nimmt mehrere Bilder mit unterschiedlichen Belichtungen auf und fügt sie dann zu einem HDR-Bild zusammen .

Neu in der Fotografie (die ohne Computer nicht mehr funktioniert): 32-Bit-Gleitkomma-HDR-Bilder, die einen nahezu unendlichen Dynamikumfang an Tonwerten ermöglichen.

Bei der Erstellung des HDR-Bildes scannt das Programm alle durch die Belichtungsreihe entstehenden Tonwerte und erzeugt ein neues digitales Bild, das den kombinierten Tonumfang aller Aufnahmen enthält.

Hinweis: Wenn etwas Neues herauskommt, wird es immer Leute geben, die behaupten, es sei nicht mehr neu und sie hätten es getan, bevor sie geboren wurden. Aber um es auf den Punkt zu bringen: Die hier beschriebene Methode zur Erstellung eines HDR-Bildes ist recht neu, da für die Verwendung ein Computer erforderlich ist. Und jedes Jahr werden die mit dieser Methode erzielten Ergebnisse immer besser.

Also zurück zur Frage: Warum Bilder mit hohem Dynamikbereich erstellen, wenn der Dynamikbereich der Ausgabegeräte so begrenzt ist?

Die Antwort liegt im Tone Mapping, dem Prozess der Umwandlung von Tonwerten mit großem Dynamikbereich in den engeren Dynamikbereich von Bildausgabegeräten.

Aus diesem Grund ist die Tone Mapping für Fotografen der wichtigste und anspruchsvollste Schritt bei der Erstellung eines HDR-Bildes. Schließlich kann es viele Optionen für die Tonwertzuordnung desselben HDR-Bildes geben.

Apropos HDR-Bilder: Wir können nicht umhin zu erwähnen, dass sie in verschiedenen Formaten gespeichert werden können:

  • EXR (Dateierweiterung: .exr, großer Farbraum und genaue Farbwiedergabe, DD etwa 30 Blendenstufen)
  • Radiance (Dateierweiterung: .hdr, weniger breiter Farbraum, großer DD)
  • BEF (proprietäres UnifiedColor-Format zur Erzielung höherer Qualität)
  • 32-Bit-TIFF (sehr große Dateien aufgrund geringer Komprimierungsrate, daher in der Praxis selten verwendet)

Um HDR-Bilder zu erstellen, benötigen Sie eine Software, die die HDR-Erstellung und -Verarbeitung unterstützt. Zu diesen Programmen gehören:

  • Photoshop CS5 und höher
  • HDRsoft in Photomatix
  • HDR Expose oder Express von Unified Color
  • Nik Software HDR Efex Pro 1.0 und älter

Leider erzeugen alle oben aufgeführten Programme unterschiedliche HDR-Bilder, die sich unterscheiden können (wir werden später mehr auf diese Aspekte eingehen):

  • Farbe (Farbton und Sättigung)
  • Tonalität
  • Durch Glätten
  • Geräuschverarbeitung
  • Verarbeitung chromatischer Aberrationen
  • Anti-Ghosting-Stufe

Grundlagen der Tonzuordnung

Wie bei einer Szene mit niedrigem Dynamikbereich müssen wir bei der Anzeige einer Szene mit hohem Dynamikbereich die DD der Szene auf die Ausgabe-DD komprimieren:

Was ist der Unterschied zwischen dem betrachteten Beispiel und dem Beispiel einer Szene mit geringem Dynamikumfang? Wie Sie sehen können, ist die Tonzuordnung dieses Mal höher klassischer Weg Es funktioniert nicht mehr mit Tonkurven. Lassen Sie uns wie üblich auf die einfachste Möglichkeit zurückgreifen, um die Grundprinzipien der Tonzuordnung zu zeigen – betrachten Sie ein Beispiel:

Um die Prinzipien der Tonzuordnung zu demonstrieren, verwenden wir das HDR Expose-Tool von Unified Color, da es Ihnen ermöglicht, verschiedene Vorgänge an einem Bild modular durchzuführen.

Nachfolgend sehen Sie ein Beispiel für die Erstellung eines HDR-Bildes ohne Änderungen:

Wie Sie sehen können, sind die Schatten ziemlich dunkel und die Lichter überbelichtet. Werfen wir einen Blick darauf, was uns das HDR Expose-Histogramm zeigt:

Wie Sie sehen, sieht der Hervorhebungsbereich viel besser aus, aber insgesamt wirkt das Bild zu dunkel.

Was wir in dieser Situation brauchen, ist eine Kombination aus Belichtungskorrektur und allgemeiner Kontrastreduzierung.

Jetzt ist der Gesamtkontrast in Ordnung. Details in den Bereichen der Lichter und Schatten gehen nicht verloren. Aber leider sieht das Bild ziemlich flach aus.

In Zeiten vor HDR hätte dieses Problem durch die Verwendung einer S-Kurve im Kurven-Tool gelöst werden können:

Allerdings wird die Erstellung einer guten S-Kurve einige Zeit in Anspruch nehmen und wenn man einen Fehler macht, kann es leicht zu Verlusten in den Lichtern und Schatten kommen.

Daher bieten Tone-Mapping-Tools eine andere Möglichkeit: die Verbesserung des lokalen Kontrasts.

In der resultierenden Version bleiben Details in den Lichtern erhalten, Schatten werden nicht abgeschnitten und die Flächigkeit des Bildes ist verschwunden. Dies ist jedoch noch nicht die endgültige Version.

Um dem Foto ein vollendetes Aussehen zu verleihen, optimieren Sie das Bild in Photoshop CS5:

  • Passen wir die Sättigung an
  • Kontrastoptimierung mit DOPContrastPlus V2
  • Erhöhen Sie die Schärfe mit DOPOptimalSharp

Der Hauptunterschied zwischen allen HDR-Tools besteht in den Algorithmen, mit denen sie den Kontrast reduzieren (z. B. Algorithmen zur Bestimmung, wo globale Einstellungen enden und lokale beginnen).

Es gibt keine richtigen oder falschen Algorithmen: Alles hängt von Ihren eigenen Vorlieben und Ihrem Fotografiestil ab.

Mit allen wichtigen HDR-Tools auf dem Markt können Sie auch andere Parameter steuern: Details, Sättigung, Weißabgleich, Rauschunterdrückung, Schatten/Glanzlichter, Kurven (die meisten dieser Aspekte werden wir später im Detail behandeln).

Dynamikumfang und HDR. Zusammenfassung.

Die Methode zur Erweiterung des Dynamikbereichs, den eine Kamera erfassen kann, ist ziemlich alt, da die Grenzen von Kameras seit langem bekannt sind.

Die manuelle oder automatische Bildkomposition bietet sehr leistungsstarke Möglichkeiten, den großen Dynamikbereich einer Szene in einen Dynamikbereich umzuwandeln, der für Ihr Ausgabegerät (Monitor, Drucker usw.) zugänglich ist.

Das Erstellen nahtlos zusammengefügter Bilder von Hand kann sehr schwierig und zeitaufwändig sein: Die Dodge & Burn-Methode ist zweifellos unverzichtbar für die Erstellung eines hochwertigen Bilddrucks, erfordert jedoch viel Übung und Fleiß.

Die automatische Generierung von HDR-Bildern ist eine neue Möglichkeit, ein altes Problem zu lösen. Dabei stehen Tone-Mapping-Algorithmen jedoch vor dem Problem, einen hohen Dynamikbereich in den Dynamikbereich eines Bildes zu komprimieren, das wir auf einem Monitor oder in gedruckter Form betrachten können.

Verschiedene Tone-Mapping-Methoden können zu sehr unterschiedlichen Ergebnissen führen, und die Wahl der Methode, die das gewünschte Ergebnis liefert, liegt ganz beim Fotografen – also bei Ihnen.

Mehr nützliche Informationen und Neuigkeiten in unserem Telegram-Kanal„Lektionen und Geheimnisse der Fotografie“. Abonnieren!

Das Wort „Fotografie“ kommt aus dem Griechischen Phos Und graphe, was bedeutet Licht Und Zeichnung, jeweils. Daher bedeutet das Anfertigen einer Fotografie im strengsten Sinne wörtlich „Malen mit Licht“. Aber das Malen mit Licht kann angesichts der Menge an Licht, mit der Sie arbeiten müssen, eine ziemliche Herausforderung sein!

Manchmal befinden Sie sich möglicherweise in einer Situation mit viel Licht, z. draußen oder in einem gut beleuchteten Raum, und manchmal ist das Licht so schwach, dass Sie Ihre Quelle mit Blitz erstellen oder den Verschluss über einen längeren Zeitraum offen lassen müssen. Es ist jedoch wahrscheinlich, dass Sie beim Fotografieren sowohl viel Licht als auch Schatten haben, was es sehr schwierig macht, das gewünschte Bild zu bekommen. Glücklicherweise gibt es einen Begriff, der Ihnen in solchen Situationen helfen kann: Dynamikbereich. Wenn Sie wissen, was es bedeutet und welche Auswirkungen es auf Ihre Fotos hat, können Sie die gewünschten Bilder erstellen.

Szeneneinstellungen

Der Dynamikbereich hat in der Fotografie zwei Hauptanwendungen. Der erste bezieht sich auf die Szene, die Sie fotografieren, während der zweite eher technischer Natur ist und dabei hilft, die Eigenschaften des Kamerasensors zu beschreiben. (Dies ist ein kleiner rechteckiger Mikrochip, der von einer Kamera zum Erstellen von Bildern verwendet wird, ähnlich einem kleinen Quadrat eines digitalen Films).

In den meisten Fällen wird der Fotograf versuchen, ein gut belichtetes Bild aufzunehmen, das heißt, dass die hellen Bereiche nicht zu hell und die dunklen Bereiche nicht zu dunkel sind. In diesem Sinne bezieht sich der Dynamikbereich auf die Gesamtmenge an Licht, die in einer bestimmten Szene empfangen wird. Wenn Sie ein Foto mit vielen hellen, lichtdurchfluteten Bereichen in Kombination mit dunklen, von Schatten umhüllten Bereichen aufnehmen, kann man die Szene als eine Szene mit hohem Dynamikumfang (hohem Kontrast) bezeichnen. Wenn die Szene jedoch so ausgeleuchtet ist, dass sie weder zu hell noch zu dunkel ist, kann von einem geringen Dynamikumfang (geringer Kontrast) gesprochen werden.

Diese Aufnahme einer Gans hat einen geringen Dynamikumfang, d. h. sie ist gleichmäßig belichtet und weist keine Bereiche auf, die deutlich hell oder dunkel sind.

Nein richtig Und falsch

Es gibt keine schlechten oder guten Szenen, aber es ist wichtig zu wissen, wann und bei welchen Lichtverhältnissen Sie fotografieren, damit Sie entsprechend planen können. Wenn Sie mitten am Tag fotografieren, erhalten Sie wahrscheinlich ein sehr helles Bild mit vielen Schatten, da das Sonnenlicht intensiv ist und über Ihnen liegt. Dies wird als Szene mit hohem Dynamikbereich bezeichnet, da sie sehr helle und sehr dunkle Elemente enthält. Sie müssen wissen, wie Sie die Szene und Ihre Kamera steuern, um die gewünschte Aufnahme zu erzielen.

Das Schnappschuss Gans War gemacht V Bedingungen, welche gebracht Zu hoch dynamisch Reichweite. Einige Bereiche sind sehr hell, während andere im Schatten verborgen sind.

Weitergeben dein Vision

Bei der Aufnahme ist es wichtig, den Dynamikbereich zu berücksichtigen. Es ist wichtig, die Situation zu verstehen, in der Sie fotografieren eine notwendige Bedingung um das gewünschte Ergebnis zu erzielen. Wenn Sie mit Licht malen, müssen Sie verstehen, wie es sich auf Ihre Bilder auswirkt.

Hier ist zum Beispiel ein Porträt, das ich an einem sonnigen Tag draußen aufgenommen habe. Mein Modell war gut beleuchtet, aber der Hintergrund hinter ihr war zu hell. Dies führte dazu, dass ich mit dem Foto nicht zufrieden war. Die Aufmerksamkeit des Betrachters sollte auf ihrem Gesicht liegen, aber der helle Hintergrund lenkt ab.

Das Histogramm gibt Ihnen Hinweise auf den Dynamikbereich

Ein Blick auf das Histogramm dieses Bildes bestätigt, was ich beim Betrachten der Szene erkannt habe. Die meisten Daten sind links und rechts verstreut. Dies bedeutet, dass die Szene sowohl sehr helle als auch sehr dunkle Bereiche enthält und daher über einen großen Dynamikbereich verfügt.

Solche Fotos sind nicht unbedingt erfolglos. Manche Fotografen bevorzugen einen großen Dynamikbereich, der ein Gefühl von Kontrast und Schlagkraft erzeugt, das bei gleichmäßigen Belichtungsbedingungen oft fehlt. Persönlich bin ich kein großer Fan dieser Art von Bildern, und in diesem Fall war es einfach, das Problem mit einer kleinen Drehung und der Nutzung des Gebäudes für eine gleichmäßigere Belichtung zu beheben.

Auch hier kann ich mir das Histogramm in Lightroom ansehen und feststellen, dass die Daten nicht mehr in zwei Extreme aufgeteilt, sondern gleichmäßiger verteilt sind. Darüber hinaus können Sie den Live View-Modus Ihrer Kamera nutzen und das Histogramm während der Aufnahme in Echtzeit sehen. Wenn Sie sehen, dass es wie zwei Berge mit einem Tal dazwischen aussieht, deutet das darauf hin, dass die Szene viel kontrastreicher ausfallen wird, als Sie vielleicht bevorzugen.

HDR– hoher Dynamikbereich

Ein Trick, den einige Fotografen in letzter Zeit anwenden, heißt HDR oder High Dynamic Range Processing. Auf diese Weise können Sie das Beste aus der Kombination mehrerer Kompositionen in einem Bild herausholen, indem Sie nur die Teile verwenden, die Sie benötigen. Auf diese Weise können Sie in einer Szene mit sehr hellen und dunklen Bereichen mehrere unter- und überbelichtete Aufnahmen machen und diese in einem Programm auf Ihrem Telefon oder Computer kombinieren, um am Ende ein gleichmäßig belichtetes Bild zu erhalten. Der einzige Nachteil dabei ist, dass das endgültige Bild für das menschliche Auge möglicherweise unrealistisch und künstlich erscheint (wenn die HDR-Technik nicht richtig angewendet wird).

Technologien Erlösung

Das menschliche Auge ist ein biologisches Wunder. Selbst moderne Digitalkameras können nicht annähernd mit unseren eigenen Okularinstrumenten mithalten. Heutzutage sind digitale Kamerasensoren ihren Vorgängern von vor 10 oder sogar 5 Jahren einen Schritt voraus, aber unsere eigenen Augen übertreffen sie in puncto Dynamikbereich deutlich.

Extrem hoher Dynamikbereich und das damit verbundene Problem

Versuchen Sie beispielsweise, an einem sonnigen Tag mit viel Schatten in einem Raum zu stehen. Dadurch entsteht eine Szene mit hohem Dynamikumfang, da sie sowohl sehr helle Bereiche (außerhalb des Fensters) als auch sehr dunkle Bereiche (innerhalb des Raums) enthält. Ihre Augen können weiterhin die Farben und Formen im Raum sowie alles außerhalb des Fensters unterscheiden. Aber versuchen Sie, ein Foto zu machen. Am Ende erhalten Sie ein Bild, das den Lichtern (d. h. im Freien) in einem dunklen Raum oder dem Raum (d. h. Schatten) ausgesetzt ist, und außerhalb des Fensters ist nichts sichtbar.

Die Kamera belichtete entsprechend den Lichtern und ließ den Raum im Dunkeln zurück.

Die meisten Kameras erfassen die Szene auf diese Weise. Mit der HDR-Technik können jedoch mehrere Bilder mit unterschiedlichen Belichtungen erstellt werden, die zu einem gleichmäßig belichteten Foto kombiniert werden können.

Die Kamera belichtete im Schatten, wodurch der Blick aus dem Fenster zu hell wurde.

Technologien entwickeln sich

Obwohl unsere Augen jeder Kamera überlegen sind, sind Digitalkamerasensoren in letzter Zeit viel besser darin geworden, die hellen und dunklen Teile einer Szene zu erfassen, jedoch nur die hellsten und dunkelsten. In diesem Sinne bezieht sich der Begriff „Dynamikumfang“ nicht auf die Lichtverhältnisse, sondern auf die Fähigkeiten des Kamerasensors.

Einige Modelle wie die Nikon D810 oder die Canon 5D Mark IV sind so fortschrittlich, dass ein einzelnes RAW-Bild verarbeitet werden kann, um alle Daten wiederherzustellen, die normalerweise verloren gehen würden. Als ich beispielsweise diesen Sonnenaufgang fotografierte, habe ich die Lichter belichtet und ein schönes, klares Bild mit satten Farben am Himmel erhalten, aber Nebenwirkung es kam dazu, dass die Erde völlig schwarz wurde.

Dank der im Sensor der Nikon 750 enthaltenen Technologie hat die Kamera viel mehr Daten erfasst, als Sie zunächst sehen könnten. Ich habe in RAW mit ISO 100 aufgenommen, was bedeutete, dass ich die große Datenmenge in diesem Bild ausnutzen und es anhand der Schatten rekonstruieren konnte.

Das gleiche Bild, aber mit deutlich weniger Schatten nach der BearbeitungLightroom.

Dies ist ein übertriebenes Beispiel und ich empfehle im Allgemeinen keine so starke Verarbeitung. Aber ich verwende es, um zu veranschaulichen, wie viel Dynamikbereich moderne Kamerasensoren enthalten. Ein anderes, vielleicht realistischeres Beispiel zeigt, wie wichtig ein Sensor ist, der erfassen kann hohes Niveau Dynamikbereich.

Das erste Bild stammt direkt aus der Kamera (Nikon D7100). Obwohl die Hintergrundelemente recht gut belichtet sind, sind Eichhörnchen und Baum zu dunkel. Da die Szene selbst über einen hohen Dynamikumfang verfügt, ist es ziemlich schwierig, die richtige Belichtung zu erzielen. Zum Glück konnte ich Lightroom zum Herausziehen verwenden große Menge Schattendetails, die verloren gehen könnten, wenn der Sensor einen geringen Dynamikbereich hätte.

Ein Rohfoto mit gut belichtetem Himmel und unterbelichteten Objekten.

Ein paar Klicks auf meinem Computer führten zu einer deutlichen Verbesserung gegenüber dem Original.

Abschluss

Seit vielen Jahren beteiligen sich Kamerahersteller an einem Wettbewerb, um ein Produkt mit mehr Megapixeln zu entwickeln. Doch in letzter Zeit ist dieses digitale Wettrüsten zum Stillstand gekommen, da die 20–24 Megapixel der meisten Kameras für nahezu jede Situation bestens geeignet sind. Stattdessen hat sich der Fokus auf die Verbesserung von Parametern wie ISO und die Erweiterung des Dynamikbereichs des Sensors verlagert. Dies wird so lange fortgesetzt, bis die Sensoren gut genug sind, um unter allen Bedingungen hochwertige Fotos aufzunehmen.

Tatsächlich leben wir in so erstaunlichen Zeiten, in denen unsere Kameras sozusagen bei fast jedem Licht wunderschöne Lichtbilder erzeugen können.

Nehmen Sie sich einen Moment Zeit von Ihrem Computermonitor und schauen Sie sich um. Sie werden überall sowohl hell erleuchtete Bereiche als auch tiefe Schatten sehen. Fotofilme und digitale Sensoren nehmen sie nicht vollständig wie Menschen wahr. Die Sättigung von Licht und Schatten kann in einem numerischen Maß ausgedrückt werden, das die Helligkeit der Beleuchtung eines beliebigen Objekts charakterisiert.

Die Standardmessung der Beleuchtungsstärke wird in Candela pro Quadratmeter (cd/m2) ausgedrückt. Die Helligkeit der Sonne beträgt 1000000000:1 oder eine Milliarde Candela pro Quadratmeter. Nachfolgend finden Sie die Zahlen für einige andere Lichtquellen:

  • Sternenlicht = 0,001:1
  • Mondlicht = 0,1:1
  • Innenbeleuchtung des Hauses = 50:1
  • Sonniger Himmel = 100000:1

Was bedeutet das für einen Fotografen? Wenn an einem normalen sonnigen Tag die Helligkeit 100.000:1 beträgt, dann sind die hellsten Objekte hunderttausendmal heller als die dunkelsten Objekte. Natürlich wird dieser Wert nicht unter allen Umständen genau dieser sein. Nebel, Wolken, Morgen- oder Sonnenuntergangssonne beeinflussen den Dynamikumfang des Bildes. Mittagsaufnahmen unterscheiden sich deutlich von den sogenannten „goldenen Stunden des Fotografen“. Erfahrene Fotografen versuchen, nicht zwischen 10 und 14 Uhr draußen zu fotografieren, da sie dadurch nicht einmal dazu beitragen, eine Verzerrung des Dynamikumfangs der aufgenommenen Bilder zu vermeiden.

Aus praktischen Gründen verwendet die Fotografie Belichtungszahlen (EV) – die Korrelation zwischen Verschlusszeit und Blende. EV ist eine ganze Zahl, die die Beleuchtung eines Objekts charakterisiert. Der Formel zufolge beträgt der EV Null, wenn die korrekte Belichtung eine Sekunde bei f/1,0 beträgt. Eine Erhöhung des EV um eins entspricht einem Nenner des Blendenwerts, d. h. führt zu einer Verringerung der Beleuchtung um die Hälfte. Und wenn man den EV um eins verringert, verdoppelt sich die Beleuchtung. Das menschliche Auge hat einen Dynamikbereich von 100.000:1, was 20 EV entspricht. Nachfolgend finden Sie Daten für einige Bilderfassungstools:

  • Negativfilm: Dynamikumfang (dd)=1500:1 oder 10,5EV
  • Computermonitor: d.d. = 500:1 oder 9,0EV
  • Spiegelreflexkamera: d.d. = 300:1 oder 7,0EV
  • kompakte Digitalkamera: d.d. = 100:1 oder 6,6EV
  • hochwertiger Hochglanzdruck: d.d. = 200:1 oder 7,6EV
  • hochwertiger Mattdruck: d.d. = 50:1 oder 5,6EV

Hier beginnt das Problem tatsächlich. Nehmen wir an, das Motiv, das Sie im Freien fotografieren, hat einen Dynamikumfang von 50.000:1, der Sensor Ihrer professionellen Kamera kann jedoch nur einen Dynamikumfang von 300:1 erfassen. Wie können Sie ein Foto mit guter Belichtung aufnehmen und reproduzieren? technische Eigenschaften Ihre Ausrüstung lässt das einfach nicht zu?

Schauen wir uns an, wie Objekte in einer Kamera erfasst werden, denn dies führt zur Antwort auf die Frage, wie man das technisch Unmögliche erfassen kann. Es geht umüber Spiegelreflexkameras, weil sie tatsächlich Filmkameras ersetzt haben. Die meisten DSLR-Kameras unterstützen . Beispiele für das RAW-Format sind die CRW- und CR2-Dateien von Canon und die NEF-Datei von Nikon. Eine RAW-Datei erfasst etwa 10 EV. Ein ziemlich guter Indikator, der jedoch nicht ausreicht, um alles zu erfassen, was Sie brauchen. Der Vorteil des RAW-Formats besteht darin, dass es eine gesamte Belichtungssequenz in einer Datei zusammenfasst, die später erfolgreich verwendet werden kann.

Wenn Sie noch nicht wissen, was RAW ist, können Sie den Artikel über digitale Fotografie lesen.

Kameras speichern Bilder auch als JPEG-Dateien. Sensoren interpolieren Farbe und Intensität und belichten sie in einer Reihe von Vorgängen, die darauf abzielen, das Gleichgewicht anzupassen Weiß, Sättigung, Klarheit usw. Letztlich wird das Bild in das JPEG-Format komprimiert, in dem es auch tatsächlich gespeichert ist. Die JPEG-Datei enthält 256 Intensitätsstufen und deckt nur 8EV ab. Dies ist ein geringer Dynamikbereich. Für die meisten Studioarbeiten ist eine JPEG-Datei vollkommen akzeptabel. Es verkürzt den Arbeitsablauf und währenddessen Portraitfotografie Sie können die Beleuchtung und ihren Dynamikbereich vollständig steuern. Andererseits ist es besser, Landschaften im RAW-Format aufzunehmen.

Nach der Konvertierung von Bildern aus dem RAW-Format werden die beiden Standardformate TIFF und JPEG zum Speichern verwendet. Das JPEG-Format wird direkt in der Kamera aus RAW-Aufnahmen generiert Software. TIFF-Dateien werden durch die Verarbeitung von RAW-Dateien mit speziellen Programmen wie oder erstellt. Eine JPEG-Datei unterstützt Luminanzwerte von 0 bis 255 (insgesamt 256), während eine TIFF-Datei Luminanzwerte von 0 bis 65535 unterstützt. TIFF-Dateien unterstützen offensichtlich einen größeren Luminanzbereich.

Aber selbst eine TIFF-Datei kann nicht den gesamten Dynamikumfang einer wunderschönen Landschaft erfassen. Um einen hohen Dynamikumfang in einem Bild zu erreichen, müssen Sie nach anderen Wegen suchen. Hierzu können Sie die Formate RadianceRGBE (.hdr) und OpenEXR (.exr) verwenden. Photoshop oder Lightroom sind für diese Zwecke nicht geeignet; Sie müssen ein Programm verwenden, mit dem Sie RAW-Dateien in HDR konvertieren und im RadianceRGBE-Format speichern können. Das RadianceRGBE-Format ist ein 32-Bit-Format, während das OpenEXR-Format 48-Bit ist, bei der Verarbeitung jedoch in 32-Bit konvertiert wird. Beide Formate beeinträchtigen die Qualität der Bilder beim Speichern oder Öffnen nicht. Das RadianceRGBE-Format umfasst einen Dynamikbereich von 76 Größenordnungen – viel mehr, als das menschliche Auge benötigt.

Nach der Konvertierung in die Formate .hdr oder .exr bleibt der letzte Schritt. Dateien im .hdr-Format sind nicht für den breiten Einsatz geeignet. Es ist notwendig, eine Tonwertzuordnung durchzuführen, deren Kern darin besteht, 32-Bit-HDR-Dateien rückwärts in 16-Bit-TIFF- oder 8-Bit-JPEG-Dateien mit festen Ganzzahlen umzuwandeln. Nur so erhalten Sie leicht zugängliche Bilder, die den hohen Dynamikumfang der von Ihnen fotografierten Landschaften vollständig einfangen. Es ist wahrscheinlich, dass dieser HDR-Konvertierungsprozess alles andere als perfekt ist, aber er löst das Problem, wie man das Unmögliche einfangen kann.