Nicht nur das JPEG liegt im 8-bit-Format vor, sondern sämtliche Betrachtungshardware und Software arbeitet im 8-bit Format
Verstehe diese Aussage nicht.
Dein Bildschirm, egal ob Mac, PC Windows oder Linux, arbeitet mit 8 Bit pro Farbe. Es gibt nur sehr wenige und sehr teure Hardware (die ersten Monitore sind für ein Mördergeld erhältlich) die mehr als 8 Bit pro Kanal (= Farbe) darstellen können. Das bedeutet auch, dass auf normalen Monitoren 16-bit Tiffs nur mit 8-bit dargestellt werden - die "hinteren" 8 Bits werden abgehackt. Auch dort sind die Mehrinformationen nicht mit aktueller Hardware visuell darstellbar. Man könnte zwar beispielsweise Tonwertberechnungen durchführen lassen auf Basis der 16-bit Tiffs, aber das Ergebnis würde vom sog. "LDR" Monitor falsch dargestellt (LDR = Low Dynamic Range, das ist im Moment der Standard).
Erst mit sog. "High Dynamic Range" Monitoren (auch "HDR Monitor" genannt) werden mehr als 255 Helligkeitsstufen pro Farbe zur Verfügung stehen. Dann erst können 16-Bit Tiffs und RAW Bilder "in echt" angeschaut werden.
Natürlich kann auch das RAW keine verlorenen Bildteile wiederbringen, aber es ist mehr möglich als mit dem JPEG aus der Kamera.
*zustimm*
Korr von Weißabgleich, Belichtung, chrom. Aberration, Vignettierung etc. oder ein Fisheye-Motiv wieder geradebiegen.
Natürlich bietet RAW insofern von vorneherein mehr Möglichkeiten, als dass ein Weissabgleich beispielsweise noch nicht stattgefunden hat. Aber das hat nichts mit der "Mehrinformation" zu tun, sondern damit, dass noch keinerlei "Manipulation" an den Bilddaten stattgefunden hat.
Aber das "Mehr" an Farbinformationen kannst Du zu Hause nicht darstellen - insofern verstehe ich auch den etwas eigenarten Beitrag nicht, wo ein Farbverlauf über 4096 Farbstufen "dargestellt" wird (erkennen kann ich da sowieso nichts - denn mein Monitor ist auch nur ein normaler Monitor): jeder Monitor auf jedem Schreibtisch kann nur 255 Farbstufen pro Kanal. Das ist unumgänglich eine Beschränkung des 24 Bit RGB Formats.
Und: wieso sollten Fehlern von Objektiven (chrom. Abberation beispielsweise) mit höherer Farbtiefe besser "geradezubiegen" sein? Wo besteht da der Zusammenhang?
Es macht nur Sinn, wenn man in einem Format weiterarbeitet, welches keine Verluste gegenüber RAW hat
Das geht aber genau nicht: man kann nicht RAW Bilder mit aktueller Hardware bearbeiten (bzw. "sehen, was man macht"). Das einzige visuell kontrollierbare, was geht, ist die Konvertierung von RAW in RGB zu beeinflussen. Letztere ist zwingend notwendig, wenn man ein RAW Bild ansehen (und weiterverarbeiten) will. Aber man kann kein RGB wieder zurückverwandeln in ein "höherwertiges" Format - d.h. "gehen" tut es, aber es nützt nichts mehr, weil nur noch 8 Bit pro Farbe vom System zur Verfügung gestellt werden.
Die ganze Problematik wird dann erschlagen sein, wenn HDR Monitore der Standard sind. Wahrscheinlich wird es dann auch nur noch einen Standardkonvertierer von RAW in 16-bit TIFF geben (der einfach fehlende Bits mit Nullen auffüllt, die meisten RAW Formate sind 12 - 14 Bit pro Kanal) und dann kann man auch mit diesen Mehrinformationen wirklich arbeiten. Aber da sind wir heute noch nicht. Alles, was man heute auf dem Monitor sieht, ist Low Dynamic Range.
Grüße
Rainer