Der Rechtsklick ist für diese Website deaktiviert.
logo

Adobe Lightroom: sRGB vs. ProPhoto RGB

Ein RAW-Foto, wie es aus der Kamera kommt, besitzt nur den kameraspezifischen Farbraum, der bei der Entwicklung des RAW-Bildes in einen Standardfarbraum gewandelt wird. Dies ist in den meisten Fällen sRGB, denn dieser Farbraum wird von den fast allen Monitoren, im Web und den preiswerten Druckern genutzt. Er stellt den kleinsten gemeinsamen Nenner dieser völlig verschiedenen Ausgabegeräte dar. Es sind nur Farben enthalten, welche alle dieser Geräte auch darstellen können.

Neulich habe ich mit dem Fotografen Thomas Lorbeer das Thema Farbraum diskutiert und überlegt, ob eine Konvertierung der RAW-Dateien in einen anderen Farbraum als sRGB Vorteile bei der Weiterverarbeitung bringt. Das Ergebnis war eindeutig:

Bei einer Ausgabe auf einen Drucker oder ein Medium, welches mehr als den kleinen sRGB Farbraum nutzt, lohnt es sich, einen größeren Farbraum zu nutzen. Würde das RAW in sRGB konvertiert und dann ausgegeben, wird nicht der komplette mögliche Farbumfang des Druckers genutzt, denn dieser kann mehr Farben darstellen, als es typische Monitore können.

[quads id=”1″]

Spannend ist, wie sich der verwendete Farbraum auswirkt, wenn das Foto nur auf dem Monitor im sRGB Farbraum ausgegeben wird. Hierzu habe ich ein RAW-Foto mit Adobe Lightroom sowohl als sRGB Bild als auch in das ProPhoto RGB in das 16 Bit TIFF Format exportiert. Beide Bilder durchliefen meinen normalen Workflow, den ich zur Bildnachbearbeitung anwende. Zuerst wird das Rauschen entfernt, dann das Bild entsprechend der Auflösung der Digitalkamera vorgeschärft (Preshapring-Prozess nach Bruce Frasers Buch „Real World Image Sharpening“), verkleinert und erst jetzt in den Zielfarbraum sRGB gewandelt. Erst im letzen Schritt wird das 16 Bit Foto auf 8 Bit heruntergerechnet und als JPG gespeichert.

Eigentlich wäre kein deutlicher Qualitätszuwachs im Bild zu erwarten, da der Farbraum des Endproduktes in diesem Fall nach wie vor sRGB ist, nur die Konvertierung auf den kleinen Farbraum nach der Rauschentfernung und Schärfung des Bildes verlagert wird. Doch in der Praxis ist der Unterschied sichtbar: verlaufende Farbflächen fransen weniger aus und sind gleichmäßiger. Das resultierende JPG ist bei gleichen Einstellungen ca. 5-10% kleiner, da sich die weichen Verläufe besser komprimieren lassen.

Untenstehendes Beispiel soll den Unterschied verdeutlichen: Das erste Foto wurde sofort beim RAW Export von Lightroom in ein 16 Bit sRGB gewandelt. Das zweite Foto wurde als ProPhoto RGB exportiert und erst vor dem Speichern des JPEG in sRGB konvertiert. Sehr gut lässt sich der Unterschied am hellblauen Streifen über dem Kopf des Tänzers beobachten: Bei der ProPhoto-Variante des Bildes ist der Verlauf deutlich gleichmäßiger. Insgesamt hat das Bild in den Flächen ein geringeres Rauschen.

Fotos: Tanzpaar Eugen Khod & Ksenia Yuzhakova-Khod beim MDR Sommernachtsball, (c) Markus Kämmerer/Happy Arts.
Technische Daten: Canon 1D Mark III, ISO 3200, 1/300s bei f/4, Canon 70-200/2.8L bei 144mm

hg4×0874-srgb.jpg
Das Foto als sRGB. Deutlich sind die unruhigen Flächen erkennbar.
hg4×0874-prophoto.jpg
Das gleiche Foto im ProPhoto RGB Farbraum exportiert und erst später in sRGB konvertiert.

13 thoughts on “Adobe Lightroom: sRGB vs. ProPhoto RGB”

  1. Wenn ich mir in Photoshop aus beiden Bildern die Differenz anschaue, dann sind keine Unterschiede erkennbar. Erst nach einer Tonwertspreizung auf 40 Tonwertschritte sind kleine Unterschiede erkennbar. Unterschiede über den Kopf des Tänzers werden überhaupt nicht angezeigt. Sie müßten in der Differenz ja zu sehen sein.

    Das eingebundene Profil hat doch nix mit dem Bildinhalt zu tun. Es dient doch lediglich der Darstellung.

  2. 1. Nehmen wir einmal an, eine Kamera schafft tatsächlich mehr Farben als AdobeRGB abzubilden. Dann stellen sich weiter folgende Fragen:
    Wäre die Kamera in der Lage, ProPhotoRGB abzubilden, würde der Hersteller das doch wohl als riesigen Vorteil anpreisen und nicht bei den Kamera-Einstellungen nur sRGB oder AdobeRGB anbieten.
    Aber einmal angenommen,
    a) die Kamera schafft es, alle oder die meisten Farben aus Adobe darzustellen plus noch einige weitere Nuancen zusätzlich, die auch Adobe1998 nicht kennt UND
    b) der größere Farbraum, z.B. ProPhotoRGB kennt SÄMTLICHE Farben aus AdobeRGB 1998 PLUS mehr.

    Dann würde das folgendes bedeuten:
    Das RAW-Bild enthält mehr Farben als AdobeRGB.
    Um irgendwann später in der Zukunft auf weiterentwickelten Geräten (Monitor, Beamer, Papier) diese Farben möglicherweise tatsächlich auch ausgeben zu können, würde es Sinn machen, dieses eventuelle Mehr an Farben der Kamera zu konservieren.
    Dazu gibt es nur 2 Möglichkeiten:
    a) Das Original behalten oder
    b) in ein platzsparenderes Format konvertieren, um das RAW allein aus Platzgründen wegzuwerfen.

    Wer jenseits von AdobeRGB diskutiert und ein paar eventuelle Farben mehr als derart bedeutend erachtet, der sollte sich allein aus ganz anderen Gründen mal überlegen, ob er nicht eine Festplatte kauft und das RAW behält.
    Gründe sind u.a., daß je mehr Bearbeitung und auch je mehr Konvertierungsschritte, Verluste bedeuten.

    Herr Kämmerer hat hier aus einem einzigen Grund ein vermeintlich besseres Ergebnis erzielt: er hat das Bild zuvor bearbeitet! Unbearbeitet wäre die direkte Konvertierung nach sRGB im Ergebnis mind. gleichwertig, vermutlich besser – im Sinne minimales Verlustes des Originals.

    Die Logik ist ganz einfach folgende:
    Bei der sofortigen Konvertierung nach sRGB werden die Feinheiten (man stelle sich feine Verläufe vor) deifinitv auf erheblich weniger Farben reduziert, da sRGB nun definitiv viel weniger kennt als AdobeRGB!
    Wird auf einem für sRGB optimierten Gerät ausgegeben, wäre dies der vermeintlich bessere und zeitsparende Workflow.

    Interessant wird es eigentlich(!) nur beim Bearbeiten.
    Denn wenn ich am Bild herumschraube, z.B. Kontraste/Sättigung anpasse (wie bei jeder Art der Bearbeitung, natürlich auch beim Rauschfilter), dann habe ich natürlich durch das Mehr an Farben bei jedem Arbeitsschritt einen deutlich geringeren Verlust durch mehr verfügbare Farben für den Erhalt von Abstufungen/Feinheiten als in sRGB, wo dafür weniger Farben zur Verfügung stehen.

    So verliere ich BEI DER BEARBEITUNG weniger Farben=Feinheiten und erziele wie in diesem Beispiel ein besseres Ergebnis — das sich aber wohl mit AdobeRGB praktisch nicht sichtbar anders ergeben hätte, da die Kamera doch wohl höchstens einen verschwindenden Bruchteil mehr als AdobeRGB schafft (und dazu wohl auf AdobeRGB abgestimmt ist, denn sonst würde man ja ebenso auch gleich ProPhoto schon in der Kamera wählen können!).

    Ein sichtbarer Vorteil zu sRGB kann – wie wohl hier, ungeprüft – durchaus entstehen.
    Daher ist es auch absolut sinnvoll, in AdobeRGB statt sRGB zu fotografieren und zu speichern!

    Bewegen wir uns nach dieser ersten Erkenntnis weiter, und stellen uns nochmal die Fragen:
    1. “Mehr” als AdobeRGB sinnvoll? Und:
    2. In welchem Fall?

    Die Antwort steht bereits oben: beim BEARBEITEN!.
    – Nur hat genau diese Sache nach jetzigem und für mind. die nächsten Jahre oder gar Jahrzehnte absehbar einen ganz erheblichen Haken:
    Nämlich den, daß ich beim Bearbeiten das im Bild vorhandene Mehr an Farben überhaupt nicht sehen kann!!
    Ich arbeite also gerade in den entscheidenen Bereichen BLIND! Da die Farbnuancen natürlich dennoch erhalten bleiben, kann es trotzdem ein Vorteil sein. Ein Beweis dafür wäre das Beispiel von Herrn Kämmerer (weniger Verluste beim Berarbeiten, hier wohl u.a. Entrauschen).

    Wer aber, wie so oft schon gehört und gelesen, erzählt, daß er mit ProPhoto (oder gar ECI-RGB) ARBEITET, VERKENNT GANZ ENTSCHEIDENDE PUNKTE:

    1. Verschiedene Farbtöne kann der Monitor (selbst ein 4.000 Euro Monitor kann gerade mal etwa AdobeRGB) gar nicht darstellen!! Und das heißt: man ändert einen Farbwert im Bild, also eine Farbe die man gar nicht korrekt sieht!!
    Beim reinen Entrauschen in der Regel kein Drama, sehr wohl aber:
    2. Auch ProPhotoRGB UMFASST eben NICHT AdobeRGB (www.iccview.de!), sondern kann einen Teil aus AdobeRGB überhaupt NICHT darstellen.
    Das wiederum heißt logischerweise, daß – Kamera vom Hersteller auf möglichst Wiedergabe der naturgetreuen Farben in AdobeRGB abgestimmt und dadurch gegenüber der Natur bereits hier einmal ein EINE BESTIMMTE Richtung vom Chip genähert – bestimmte Farbtöne nun NOCHMALS den nächstverfügbaren in ProRGB bzw. ECI-RGB genähert werden müssen!!
    D.h. man verliert zwar beim Bearbeiten eines NICHT-MEHR-RAW-Formats (z.B. tif in ProPhotoRGB) vergleichsweise wenige Farbabstufungen, hat allerdings durch die zwei- statt einmalige Konvertierung je nach Farbbereich deutlich stärkere Farbabweichungen von der Natur und RAW!!
    So erhält man beim Entrauschen vielleicht einen geringeren Verlust, das Rot einer Fläche (Wand, Tisch) hat man dafür gleich einmal mehr verfälscht (2 statt 1 Konvertierungen ab RAW bis zum Zielprofil vor der Ausgabe).

    Für die Printausgabe ist daher der “verfälschungsfreieste” Workflow: RAW bearbeiten und dann direkt ins passende RGB oder CMYK Profil, je nach Ausgabeziel.

    Hier kann sich nun jeder die Frage stellen, welche Vorgehensweise schlichtweg Nonsense und insgesamt nachteilig ist und welche geeignet.

    Aus meiner Sicht gibt es – im Regelfall – nur eine perfekte Variante:
    1. Von wichtigen Photos für die Zukunft und minimale Konvertierungsverluste (vor allem Farbverschiebungen und damit natürlich neben dem Gewinn auf der einen Seite bei nicht betroffenen Farben, dort Verlust von Feinheiten bei den betroffenen Farben) immer am besten RAW behalten.
    Sonst am besten wenigstens 2 Profile (z.B. AdobeRGB, da sRGB ohnehin umfassend + zusätzlich etwa ProPhotoRGB), wobei man dann bei hochwertigen tif mit entsprechender Farbtiefe nichts mehr an Dateigröße spart!
    Und beim schlicht komprimierten jpeg dagegen ist die ganze Diskussion um das beschriebene mögliche Mehr an Qualität ohnehin völliger Unsinn.

    Daher: Erstmal überhaupt RAW behalten, im Original leicht korrigieren. anpassen und direkt in den gewünschten Zielfarbraum für Monitor- oder Druckausgabe am sinnvollsten!

    2. Mit richtig gutem teurem kalibriertem Monitor, der AdobeRGB kann, ein AdobeRGB Format bearbeiten (statt ProPhoto, etc. wo man die Farben, die man bearbeitet, eben “lustigerweise” ja gar nicht sieht!!)
    Wer den nicht hat, arbeitet am besten auch mit AdobeRGB, da das auch für die Druckausgabe auf absehbare Zeit optimal ist, die Farben wirklich ausreichend und vor allem man nicht ganz so blind nachbearbeitet wie mit den anderen Formaten.

    P.S.: Wenn es nicht auf Erhalt der von der Kamera aufgenommenen Farben ankommt, sondern mehr auf die übrige Bildqualität insgesamt, kann sich jeder das Vorgehen nun selbst zusammenreimen.

    Meist ideal also:
    In der Theorie: ein perfektes Bild, das schon beim Fotografieren am kalibrierten Monitor mit der Natur per Augenmaß + Farbmessung abgeglichen wird. Unrealistisch!
    Daher: ein von der Kamera auf AdobeRGB abgestimmt aufgenommenes RAW, das der Fotograf an einem AdobeRGB1998-fähigen (mehr geht nicht!!) Monitor nach seiner Erinnerung bzw. persönlichem Gusto für gut befindet und dann vom RAW direkt in AdobeRGB speichert, das man dann wiederum unter minimalem Verlust weiter nach sRGB oder ins jeweils passende CMYK Profil konvertieren kann.

    Sollte man z.B. tun wollen, was die RAW-Software nicht direkt kann, kommt es auf das Photo und Verwendungszweck an (etwa Farbtreue oder Detailerhalt vorrangig):
    Erst nach sRGB und dann bearbeiten wäre jedenfalls schlechter als erst nach AdobeRGB, dann bearbeiten, dann sRGB (Beispiel Herr Kämmerer). ProPhotoRGB, etc. macht aus den genannten Gründen in aller Regel wohl keinen Sinn.

    So wird die ganze Argumentation des vermeintlich optimalen Workflows dann auch wieder rund und paßt auch zu dem Fakt, daß es auch bei den Top-Modellen der Kameras eben KEINE Option “ProPhoto bzw. eciRGB” gibt – und die sind sicher ja auch nicht dermaßen blöd, wie sich aus der Logik so mancher selbsternannter Experten zwangsläufig ergäbe.

  3. “Wäre die Kamera in der Lage, ProPhotoRGB abzubilden, würde der Hersteller das doch wohl als riesigen Vorteil anpreisen und nicht bei den Kamera-Einstellungen nur sRGB oder AdobeRGB anbieten.”

    Die Kamera kann einen weitaus größeren Farbraum als AdobeRGB wiedergeben – in RAW. Die Wahlmöglichkeiten sRGB und AdobeRGB beziehen sich nur auf die JPG-Konvertierung.

    Danach habe ich die Ausführungen nicht mehr weiter gelesen. Laienhaftes Geschwätz.

  4. Natürlich schreitet die technische Entwicklung hier auch stetig voran (Post ist von 2008), sowohl bei der Möglichkeit der Monitor-Darstellung als auch der Aufzeichnungsfähigkeit von Kamera-Chips/-Sensoren.
    Daß die Kamera einen anderen – nicht zwingend aber teils bzw. möglicherweise größeren und/oder auch deckungsgleichen, in jedem Fall aber eigenen Farbraum (Geräteprofil…) – aufzeichnet, steht außer Frage und ist in dem Artikel daher auch explizit angesprochen und wenigstens im Ansatz erklärt und des weiteren ausführlich bei der Begründung der Empfehlungen herangezogen, die genau daher auch lautet, ggf. das Original-RAW zur Archivierung zu behalten.

    Zu dem Herrn Edgar Hugo dabei einfach mal aus dem offensichtlichen Nirvana des arroganten Nichtwissens erflossenen “weitaus” (größer) empfehle ich, einfach selbst mal die Hersteller mal zu befragen. – Eigentlich empfinde ich es als dezent ausgedrückt “nicht nötig”, jemandem auf einen Post zu antworten, der ja sogar Texte bewertet, die er nach eigener Angabe ja gar nie gelesen hat. – Daher auch nur zur Klarstellung für alle anderen interessierten Leser, die diese leider viel zu selten beachteten oder gar veröffentlichten Fakten wirklich ernsthaft und völlig mit Recht interessieren. Alle Aussagen im Post sind auf absehbare Zeit zeitlos und auch in 2010 weiterhin korrekt.

    Es ist sehr bedauerlich, wie laienhaft unglaublich viele Fotografen auch mit dem Thema allgemein umgehen.
    Solange am Ende das herauskommt, was dem Auge des Kunden gefällt, kommt man damit natürlich erstmal immer über die Runden. Oft genug allerdings habe ich schon erlebt, daß man vom Kunden/Fotografen ein Bild bekommt und es bei korrekter Verarbeitung so nicht verwenden kann, weil mit den Profilen völlig falsch umgegangen wurde und der Abzug einzig im völlig verhunzten Digital-Labor des Fotografen selbst so aussieht, wie der es gern hätte.
    Mit der digitalen Fotografie gibt es aber nunmehr seit einigen Jahren endgültig weitestgehend klar normierte und bei fachlich korrekter Arbeit völlig eindeutige Vorgaben, wie ein Bild – nach einmaliger, hier noch subjektiver Bearbeitung des Fotografen – einzig unter Restriktionen der technischen Möglichkeiten am Norm-Monitor und nach Norm-Druck auszusehen hat und leider immer noch viel zu wenige, die sich ausreichend mit dem Thema beschäftigen.
    Ärgerlich ist, daß dann – wenn man den Kunden nicht mühsam auf eigene Kosten aufklären bzw. rückfragen muß, evtl. andrucken, um ihn zu fragen: “Soll das wirklich so aussehen?”, weil man vermuten muß, daß Profile völlig beliebig angewandt, Bilder bis zur Nichtverwendbarkeit nachgeschärft werden, Farbabstufungen – nachdem man die Kamera noch auf Tonwertpriorität eingestellt hatte (“Klingt ja so gut”) – munter bei der unsachgemäßer Verarbeitung vernichtet werden, teils als hätte der Fotograf ein 256-Color .gif als Original.
    Wenn gerade solche dann noch die Zeit damit vertun, bei – vergleichsweise – völlig unwesentlichen und viel komplexeren Diskussionen und Feinheiten (wie AdobeRGB vs. ProPhotoRGB vs. WideGamut usw.) völlig disqualifiziert den Besserwisser heraushängen zu lassen statt ihren Kunden professionelle Arbeit von A-Z zu bieten, dann sollten die das im Interesse Ihrer Opfer (Kunden) lieber als Hobby anderswo betreiben.
    Das ist im Prinzip nicht anders als wenn der Anwalt zu seinem Mandanten sagt: “Tut mir leid, daß wir den Fall verloren haben, weil es das Gesetz schon seit 1970 gar nicht mehr gibt – wußte ich eben nicht.”

    Auf die im von Herrn Kämmerer verlinkten Artikel (guter Beitrag!) leider auch eben wieder nicht in der Tiefe erläuterten, jedoch völlig zu Recht erwähnten kameraspezifischen, selbst bzw. von beispielsweise Adobe erstellten Farbprofile (s.o. sowie früherer Post) im Detail einzugehen, würde hier den Rahmen weit sprengen – auch ein wieder völlig anderes Thema als im vorherigen Post. Es sei dabei jedoch noch einmal kurz ansatzweise der Zusammenhang zum vorherigen Post hergestellt: die Erstellung eigener Profile findet – in dem Bereich der Feinheiten/Farbnuancen, die die Diskussion u.a. betrachtete – ihre Grenzen wiederum sowohl in der Ausgabe (Monitor, Druck) als auch darin, dass wohl die allerwenigsten Praktiker zu einer unter genannten Aspekten und Weiterem dazu in der Lage wären, solche Profile korrekt und mit sinnvollem Mehrwert zu erstellen.

    Was hierbei aber – mal nur ganz grundsätzlich und auch absolut sinnvoll – getan wird, ist der Versuch zu gewährleisten, daß z.B. dasselbe Blau eines KameratypsA und das einer KameraB am Ende im zugrunde gelegten – i.d.R. sinnvollerweise normierten und notwendigerweise natürlich wiederum überhaupt ausreichend großen(!) – Zielfarbraum (z.B. in einem ProPhoto dem im Artikel angesprochenen “Melissa-RGB”) farblich gleich ist: Angleich der gerätespezifischen Abweichung – was nichts anderes heißt als daß ein und derselbe Blauton, vorausgesetzt beide Geräte kennen ihn, andere “Werte/Koordinaten” hat und daher bei Anwendung ein und desselben Profils abweichend dargestellt wird.
    Der Sinn kameraspezifischer Profile speziell bei Bildbearbeitungssoftware hat also zunächst einmal gar nicht unbedingt etwas damit zu tun, möglichst viele Farben zu erhalten, sondern die gerätespezifisch verschiedenen Farbnuancen auf ein und denselben Nenner zu bringen.

    Auch wenn fachlich hier so nicht korrekt(!), mal zur einfacheren allgemeinen Verdeutlichung:
    Angenommen das gewünschte “Norm-Blau” habe im Zielprofil (z.B. nur rein theoretisch völlig “norm-perfekte” Darstellung desselben Blautons auf sämtlichen Ausgabegeräten/Monitoren/Druckern dieser Erde…!) den digitalen Wert 181239. KameraA speichert exakt denselben Farbton aber als 181240. Dann kann das mit einem gerätespezifischen Profil derart korrigiert werden, daß unser von der Kamera – gerätespezifisch – als Wert 181240 gespeicherter Blauton (“falsch” immer nur bzgl. der “Ziel-Norm”!) nun den “richtigen” Wert 181239 erhält. – Praktisch kann man sich das mal einfach grob so vorstellen: Durch Zuweisen des gerätespezifischen Profils von KameraA, wird das 181240er Blau der Kamera als 181239er Blau im Ziel-Profil der Ausgabe (z.B. Monitor) angezeigt. Durch Konvertieren in das Ziel-Profil erhält das 181240er Blau den Wert 181239. Im ersten Fall (Zuweisen) bleibt der vom Gerät mit anderem Wert aufgezeichnete Blauton erhalten und der – nur laut Ziel-Profil – “korrekte” wird simuliert. – Beim Konvertieren, wird der Wert tatsächlich im Bild auf 18239 geändert, womit dann auch das neue Profil mit gespeichert/angegeben werden muß!

    Was die Bildbearbeitung also i.d.R. tut ist also etwa wie folgt vorstellbar:
    Sie “korrigiert” – mit Hilfe gerätespezifischer Profile – von ihrer spezifischen oder einer allgemeinen Ziel-Norm abweichende “Werte” derart, daß sie sagt (oder bzw. durch Norm festgelegt ist): “Der Himmel an diesem Pixel hat in der Realität bzw. lt. Norm das Blau 181239. Basta. – KameraA erkennt und notiert dieses Blau 181239 aber immer als Blau 181240 und Kamera C vielleicht immer als Blau 181237. Also stelle ich – mit Hilfe eben gerätespezifischer Profile – ein Blau 181240 sowie ein Blau 181237 von Kamera C – jeweils als “eigentlich gemeintes” Blau 181240 dar. Die gerätespezifischen Unterschiede sind damit ausgeglichen.

    Ein von mehreren Kameras in der Praxis theoretisch exakt (Licht usw.) gleich, nur von unterschiedlichen Kameras A, B, C aufgenommenes Bild würde somit in der Bildbearbeitungssoftware mit Hilfe der gerätespezifischen Profile 100% identisch aussehen (sollen – allerdings wiederum vorausgesetzt, die Gerätefarben wären 100% “exakt” vermessen!).

    Die Frage, ob das evtl. kleinere Zielprofil nur weniger Farben kennt als das Ausgangsprofil, also z.B. – nochmals: hier nur zur rein bildhaften, nicht fachlich korrekten Erläuterung – Blau-Nuancen in 10er-Schritten – also “181240er Blau”, als nächstes erst wieder ein “181250er Blau” usw. … – kennt und daher Blautöne “auf-/abrunden” muß, wobei Nuancen verloren gehen – und inwieweit eine Erhaltung dessen Sinn macht und in der Praxis geschehen sollte, ist dann wieder die zentrale im vorherigen Post diskutierte Frage – wie auch die Frage, ob und ggf. inwieweit ein vermeintlicher “Blauton 181238” dazwischen (der z.B. anders als in sRGB im größeren AdobeRGB oder ProPhotoRGB existent, also digital so speicherbar wäre) mit handeslüblichen Geräten/Monitoren/Druckern (und zuletzt auch dem menschlichen Auge) überhaupt darstellbar und nur so vom Bildbearbeiter ja überhaupt auch während der Bearbeitung noch gesehen und somit nur beurteilt und überhaupt nach individuellem Wunsch angepaßt werden kann. – Wie zudem immer auch die Frage bleibt, ob und inwieweit die Abweichungen und Einschränkungen etwa beim Druck selbst unter optimalen Bedingungen dann noch von Labor zu Labor etc. nicht auch weit größer sind als die Differenzen beim Erhalt der Farben zwischen sRGB, AdobeRGB und anderen im digitalen Bild – wo dann im vorherigen Post von 2008 Gesagtes meine wohl hinreichend gut und begründete Meinung widerspiegelt, die jeder, der sich ernsthaft dieselbe Mühe macht, dann auch fachlich wird nachvollziehen können. Ich freue mich, wenn meine Erläuterungen angesichts spärlichen und vielen falschen oder irreführenden Materials diesem interessierten Leserkreis weiterhelfen und wünsche allen dabei viel Vergnügen bei ihren eigenen Überlegungen und Tests zum Thema!

  5. P.S. Noch kurz zu Frau Baumanns Hinweis, da sie sich ja offensichtlich ein wenig interessiert zeigt:

    Die Ausführungen im ursprünglichen Artikel Herrn Kämmerer kann man so unterschreiben.
    Das ist auch ganz einfach erklärt:

    Wenn – wie ich es im letzten Post verdeutlicht habe – ein sRGB Farbraum (die Werte sind wie gesagt falsch und frei erfunden, nur zum einfacheren Verständnis) – weil eben kleiner, nur Farbnuancen in den in meinem Beispiel verwendeten 10er-Schritten kennt, also kein Blau zwischen 181240 und 181250, dann muß also jedes Blau dazwischen (also dessen digitaler Zahlenwert) bereits bei der allerersten Konvertierung von RAW nach RGB auf- bzw. abgerundet werden.

    Konvertiert man zunächst in einen größeren Farbraum, der unabhängig vom Wert selbst, einfach mehr Farbwerte und damit auch Farben speichern kann, hat man während jedes Bearbeitungsschrittes eine höhere Anzahl Farben insbesondere für Abstufungen/Veläufe/Kontraste zur Verfügung.

    Erhöht man z.B. den Kontrast, würden z.B. Werte zwischen 181240 und 181250 zu einem geeigneten Wert 181243 zusammengelegt/reduziert werden können. Beim kleineren Farbraum bliebe – man stelle sich das für jede einzelne Farbabstufung/Pixel in einem Verlauf vor – würden bereits in diesem ersten Schritt (Kontrast erhöhen) alle Töne auf entweder 181240 oder 181250 gerundet werden. Und so gehen bereits bei der Konvertierung und anschließend bei jedem Bearbeitungsschritt jeweils immer mehr Farbinformationen = Farbtöne verloren als wenn weniger häufig bzw. weniger stark gerundet werden müßte, bis das Bild dem Auge des Betrachters gefällt, und erst dann (nochmals) gerundet.
    Konvertiert man also – z.B. für Monitor-Ausgabe – erst im letzten Schritt, dann wird der Wert für jeden einzelonen Pixel erst und nur dort gerundet, während in der Bearbeitungsphase einfach jeweils mit genaueren Zahlen (=mehr mögliche Farbtöne/Abstufungen pro Pixel) gerechnet wird.

    Im Prinzip ist das dasselbe, wie in der Mathematik:
    5,25 * 3,75 * 3,80 = 74,8125, dann erst auf die erste Nachkommastelle gerundet, ergibt: 74,8.
    Rundet man dagegen die genaueren Werte schon vorher und sogar mehrfach, erhält man: 5,3 * 3,8 * 3,8 = 76,532, gerundet dann = 76,5 – also sehr viel ungenauer, weil vom Runden vorher einfach “Original-Informationen” verloren gegangen sind. ((Hoffe, richtig gerechnet, auf die extreme Schnelle, Prinzip soll nur klar sein.))

    Anm.: Eine unterschiedliche Dateigröße kann auf den ersten Blick täuschen, schon allein weil nicht nur PS etc. teils ungeheuer viele Informationen in jpgs/Bilddateien schreiben, die gar nichts mit den Bilddaten selbst (Farben der Pixel) zu tun haben.

  6. Es ist eine interessante Diskussion und ich kann aus meiner Erfahrung sagen, dass der Farbraum tatsächlich eine große Rolle spielt. Mir sind schon häufiger Fotos unschöne Artefakte (zum Beispiel kreisförmig) in meinen Fotos bei Verläufen aufgefallen und diese liegen tatsächlich an den entsprechenden Farbräumen.

  7. Depp Basics? Brauchen wir ja eigentlich hier nicht, oder was will der Herr uns sagen? Wie auch immer, gern noch ein fachlicher Beitrag bei dieser Gelegenheit.

    Nehmen wir gern – natürlich richtig, Herr Bolz – und gern mal folgende konkretere Überlegungen dazu:
    Sie möchten ein Bild mit Funktionen bearbeiten, die die RAW-Software nicht bietet (wobei die Filter, Effekte, etc. dann natürlich auch 48-bit Farbtiefe unterstützen sollten, was viele bis heute ja nicht tun). Dann macht eine wenigstens zwischenzeitliche Konvertierung zu diesem Zweck mitunter schon Sinn.
    Also z.B.: Aus RAW natürlich korrekt nach ProPhoto (wegen mir auch eciV2 oder WideGammut, vgl. Farbräume…), 48-bit .tif (unterstellt, die Kamera bildet mehr, ggf. sichtbar mehr bzw. andere Farben als AdobeRGB1998 kennt, ab und diese seien auch im Bild vorhanden – denn man ist überrascht, wenn man mal die tatsächlich oft nur vorhandene Farbanzahl in Bildern mißt, wie wenige Farben das oft auch nur sind…).
    Gerade Farbverlaufsabstufungen werden so natürlich nach heutigem Stand ziemlich bestmöglich während der minimal nötigen (weil sonst ja wieder verlustbehaftet/verfälschend) Bearbeitungsschritte erhalten – bzw. kann ProPhoto mit (auch am Monitor unsichtbaren) Farbtönen eventuell, wenigstens je nach Original und Motiv theoretisch, mit mehr Farben im Farbkasten feiner, verlustärmer abstufen/erhalten/auffüllen, während evtl. gerade auch zahlreicherer Bearbeitungsschritte nacheinander.

    Erspart bleibt anschließend natürlich nicht, das Bild in einen heute auch abbildbaren (sehr teure gute Monitore z.B. inzwischen laut Herstellern etwas mehr als AdobeRGB usw.) Zielfarbraum zu konvertieren.

    Damit hätte man aber sämtliche Bildabstufungen (klarstes Beispiel natürlich sichtbare Verläufe, im Prinzip aber natürlich überall im Bild vorhandene Details) so weit wie möglich während des Bearbeitens erhalten, obwohl in gewissem Maße blind, ungesehen. Betrachtet man dann das Bild nach Konvertierung im Ausgabefarbraum AdobeRGB, das ein guter kalibrierter Monitor noch abbilden kann:
    Mit der teils eben blinden Bearbeitung könnten sich natürlich insbesondere auch flächigere Farben ungewollt verschoben haben, z.B. Rot eines Kleids dabei in ProPhoto mit der Bearbeitung ungewollt – weil eben dieser ProPhoto Farbton am Monitor nicht darstellbar, nicht sichtbar – genauso natürlich für jede Farbe, die der Monitor nicht/falsch anzeigt..
    Dies wird dann ja logischerweise u.U. erst bei Konvertierung zurück nach z.B. Ausgabefarbraum sRGB oder AdobeRGB1998 auch am Monitor beim Proofen sichtbar und könnte dann anschließend aber ja noch korrigiert werden – während die vorherige Bearbeitung (speziell deutlich bei “sehr sichtbaren” Verläufen und/oder auch vielen Arbeitsschritten etc.) dann aber verlustärmer war, also u.a. auch Artefakte insoweit vermeidend.

    Benötigt man keine Bearbeitung, die die RAW-Software nicht auch kann, dann kann/sollte man sich (siehe auch vorherige Ausführungen) diesen – wegen des Addierens später dann wieder nicht mehr darstellbarer, also bei Rück-Konvertierung in einen kleineren, darstellbaren Ausgabefarbraum wiederum notwendig genäherter Farbtöne – Umweg natürlich sparen und direkt von RAW nach Ausgabefarbraum konvertieren – statt von der Dateigröße viel größere und letztlich blind bearbeitete 48-bit .tifs etc. herumzuschleppen und zu sichern als die RAW-Originale (wobei man voraussetzen muß, daß die ebenfalls von der Software immer “korrekt” und gleich dargestellt werden, was bei .tif, .jpg etc. natürlich – und vor allem beim Austausch von Bildmaterial mit Dritten – eindeutig sichergestellt ist, wenn das Farbmanagement von Rechner, Software und Monitor sämtlich korrekt justiert ist und man fehlerfrei arbeitet).

    Und natürlich gilt prinzipiell vorher im Thread Gesagtes bzw. die korrekten Hinweise der werten Co-Autoren.

  8. Kurzes Update zu 2008:
    ProPhotoRGB umfaßt nunmehr in der Tat AdobeRGB1998, eciRGB z.B. aber auch in V2 wohl nicht – wobei die hier ja auch mitunter diskutierte Frage immer ist: ein wie großer Farbraum macht wirklich und wofür und wie weit in die Zukunft gedacht Sinn oder eher weniger…
    Schön zum selbst anschauen: iccview.de

  9. Selbst mein kalibrierter alter LG 2420 Monitor umfaßt schon mehr Farben als Adobe RGB.Adobe RGB ist nicht einmal in der Lage Photoshop-5CMYK volständig abzudecken,weshalb es auch neuere Farbräume wie z.B. Adobe YCC601 gibt.Der einzige Farbraum der heutige Kameras,Displays abdeckt ist ProphotoRGB.Daß man den Vorteil grösserer Farbräume erst durch Bildbearbeitungen sieht,ist wohl auch klar,deswegen überhaupt gibt es JPG und Co.

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.