gerd_heuser Posted February 26, 2007 Share #21 Posted February 26, 2007 Advertisement (gone after registration) ??? Wer, wenn es um Fotografie geht, sprichtdenn von 1-Bit-Bildern mit 20 Blenden Helligkeitsdifferenz ohne dieZwischenwerte? Das wird wohl eine hübsche Fotokopie sein. Man darf im Fotobereich doch wohl schon annehmen, dass man dieZwischenstufen auch gerne aufnehmen und speichern möchte. Und da hängtdie Farbtiefe (=Wortbreite) mit dem maximal codierbaren Dynamikumfangdoch wohl direkt und zwingend zusammen: 8 Bit Farbtiefe = 8Blendenstufen Dynamikumfang; 12 Bit = 12 Blendenstufen, etc. Ich bin zwar nicht enjott, aber es ging um das Prinzip einerDigitalisierung. Was man dem AD-Wandler wie zuführt, bzw. wie man dieverfügbaren Stufen definiert, ist allein Sache des Entwicklers odereiner Norm/Vereinbarung. 8-Bit = 8 Blendenstufen usf. ist daher auch falsch. 8 Bit sind zunächstmal 256 Differenzierungsmöglichkeiten, nicht mehr und nicht weniger. Welche Licht- oder Dichteumfänge man damit beschreibt und wie: s.o. . Link to post Share on other sites More sharing options...
Advertisement Posted February 26, 2007 Posted February 26, 2007 Hi gerd_heuser, Take a look here Experiment. I'm sure you'll find what you were looking for!
mjh Posted February 26, 2007 Share #22 Posted February 26, 2007 Was man dem AD-Wandler wie zuführt, bzw. wie man dieverfügbaren Stufen definiert, ist allein Sache des Entwicklers odereiner Norm/Vereinbarung.8-Bit = 8 Blendenstufen usf. ist daher auch falsch. 8 Bit sind zunächstmal 256 Differenzierungsmöglichkeiten, nicht mehr und nicht weniger. Ja, hier geht vieles durcheinander. In der Tat stehen 8 Bit nur für 256 unterschiedliche Werte, mit denen man 14 Blendenstufen sehr grob oder eine einzige Blendenstufe extrem fein unterteilen kann. In einer JPEG-Datei mit 3 x 8 Bit werden die Schatten und Lichter typischerweise weniger fein als die Tonwerte dazwischen aufgelöst; die Tonwertauflösung kann also auch variieren. Welchem Dynamikumfang dies entspricht, läßt sich aus der Zahl der Bits nicht erschließen. Wenn man allerdings von der Quantisierung der analogen Werte redet, die aus dem Sensor ausgelesen werden, dann kann man aus der Zahl der Bits tatsächlich auf den maximal möglichen Dynamikumfang schließen, insofern der A/D-Wandler linear arbeitet. Aus den mittlerweile wohl allgemein bekannten Gründen wäre es vorteilhaft, wenn bereits der A/D-Wandler nichtlinear arbeitete, und für einen solchen Wandler würde wiederum keine direkte Entsprechung zwischen der Samplegröße in Bits und dem maximalen Dynamikumfang gelten. (Der tatsächliche Dynamikumfang wird noch einmal durch das immer vorhandene Rauschen reduziert und wird daher generell kleiner sein.) Link to post Share on other sites More sharing options...
gerd_heuser Posted February 26, 2007 Share #23 Posted February 26, 2007 Ja, die Audio und auch die Videotechnik ist da wohl voraus. . Link to post Share on other sites More sharing options...
augenschmaus Posted February 26, 2007 Share #24 Posted February 26, 2007 ... Wenn man allerdings von der Quantisierung der analogen Werte redet, die aus dem Sensor ausgelesen werden, dann kann man aus der Zahl der Bits tatsächlich auf den maximal möglichen Dynamikumfang schließen, insofern der A/D-Wandler linear arbeitet. ... Exakt von diesem Sachverhalt habe ich geredet. Link to post Share on other sites More sharing options...
isaac Posted February 28, 2007 Author Share #25 Posted February 28, 2007 Hallo Gerd! Harald, interessanter Ansatz mit dem Beleuchtungsspektrum. Wie kommt man an die Beispielbilder?. Eigentlich nur, wenn man sie von meiner Festplatte kopiert :-) Aber im Ernst, ich muß erst wieder etwas Zeit finden (neben dem "Rausgehen und Bilder machen") und aussagekräftige Ausschnitte vorbereiten... Link to post Share on other sites More sharing options...
isaac Posted February 28, 2007 Author Share #26 Posted February 28, 2007 Hallo augenschmaus! Mir ist schleierhaft, wie Du an ein "12 Bit Original DNG" kommst, wenn aus der M8 keine vollen 12 Bit zu bekommen sind, und aus 8 Bit 14 Bit zauberst, um sie dann zu vergleichen. Vielleicht kann man das nochmal so sagen, dass es jeder versteht. Aber bitte: Beim Einlesen der 8 bittigen Bildinformation wird diese über eine LookUp-Table (Tag LinearizationTable) pro Pixel in einem 16 Bit Wort mit 14 Bit gespeichert. Die obersten 2 Bit bleiben also unbenutzt, brauchen aber Platz. Aber diese Bildinformationen sind (ebenso wie die in 8 Bit) "originale" Daten (von der Speicherkarte). Nun werden alle Pixelwerte durch 4 dividiert und schon haben wir 12 Bit Originaldaten. Genügt das? Link to post Share on other sites More sharing options...
isaac Posted February 28, 2007 Author Share #27 Posted February 28, 2007 Advertisement (gone after registration) Hallo ennjott! Da sind aber doch einige Unstimmigkeiten.Wortbreite hat erstmal nichts mit der Dynamik zu tun, es lassen sich auch 20 Blendenstufen in 1 Bit pro Pixel speichern (eben mit 2 Werten). Dynamik verlierst du bei einer Konvertierung von 14 zu 12 Bits nur, wenn du die Werte einfach abschneidest. Dann frage ich mich auch, woher die unkomprimierten DNGs kommen. Es sieht eigentlich so aus, als sei einfach nur ein normales 8-Bit-DNG aus der Kamera gewandelt worden. In dem Fall hast du beim erneuten Packen eine geringere Entropie (ohne h!) als bei einem Bild, das wirklich Rohdaten des Sensors enthält. Rückschlüsse auf den Platzbedarf tatsächlicher Bilder läßt das nicht zu. Exakt auf den Punkt gebracht :-) Darum habe ich auch nicht den Platzbedarf für die "umgewandelten DNG" zum Vergleich herangezogen, sondern die Bilddaten nach dem Entmosaiken. Diese sollten wieder annähernd eine vergleichbare Enthropie zu den Originalen enthalten. Wohlgemerkt, eine (in der Größenordnung) "vergleichbare" Enthropie. Es sind natürlich nicht die Originaldaten selbst, aber eine gute (und auch für das Experiment ausreichende) Näherung. Es geht ja nicht um die Bildinformation selbst, sondern nur um die statistische Verteilung der Bildwerte. In der Wirklichkeit - die wir mangels der echten 14 Bit Daten nicht kennen - wird die Enthropie irgendwo dazwischen, eher auf der Seite der interpolierten Werte, liegen. Sag mir bitte ein besseres Näherungsverfahren... Link to post Share on other sites More sharing options...
isaac Posted February 28, 2007 Author Share #28 Posted February 28, 2007 Hallo augenschmaus! Man darf im Fotobereich doch wohl schon annehmen, dass man die Zwischenstufen auch gerne aufnehmen und speichern möchte. Genau das war auch der Grund für mein "Experiment"! Und da hängt die Farbtiefe (=Wortbreite) mit dem maximal codierbaren Dynamikumfang doch wohl direkt und zwingend zusammen: 8 Bit Farbtiefe = 8 Blendenstufen Dynamikumfang; 12 Bit = 12 Blendenstufen, etc. Eben nicht, bzw. nicht ganz. Du mußt unterscheiden zwischen der Bitanzahl, die (maximal) für alle Werte verfügbar ist (also im Fall der M8 sind das 14 Bit) und der Bitanzahl, mit der ein einzelner Wert aufgelöst werdeb kann (eben nur 8 Bit). Wir können also Werte über einen (Blenden)Bereich von 14 Bit abspeichern und damit (mathematisch) operieren, wir müssen uns aber im Klaren sein, daß jeder diskrete Wert nur eine Genauigkeit von 8 Bit inne hat. Wir haben damit die Farbtöne über einen (Blenden) Bereich von 14 Bit, sie bleiben aber - egal was man anstellt - nur auf 8 Bit genau. Auch wenn sie mit mehr Bits abgespeichert werden, die unteren 6 Bits sind nicht mehr und nicht weniger als Hausnummern. Mein Experiment hat gezeigt, daß diese Diskrepanz bei mehr oder weniger exakt belichteten Aufnahmen im Farbtemperaturbereich Tageslicht und darüber einen sehr wohl gangbaren Weg darstellt (was man ja auch anhand der produzierten Bilder kaum in Abrede stellen kann :-), im Bereich "verfügbares Licht" aber nicht mehr vollständig zutriff, weil der Rotkanal nach oben in die Sättigung übersteuert wird, der Blaukanal aber nach unten die Rauschschwelle um einiges unterschreitet. Wenn man nun die Bildfarben der Farbtemperatur (je nach Wunsch) auf die des Betrachtungslichtes anpaßt, dann steht man vor der Situation, daß der rote und auch der blaue Farbanteil im Bild nicht mehr (oder nur sehr sehr bedingt) der Tatsächlichkeit entspricht. Link to post Share on other sites More sharing options...
isaac Posted February 28, 2007 Author Share #29 Posted February 28, 2007 Hallo guest! 14Bit Lossless JPEG ? http://www.jpeg.org/public/jfif.pdf Eigentor :-) ? Für "sequential DCT, baseline" sind 8 Bit definiert, für "sequential DCT, extended" sind 8 und 12 Bit definiert, für "progressive DCT" sind 8 und 12 Bit definiert und für "Lossless" sind 2 - 16 Bit definiert. Wirklich aufpassen bei der Implementation von Decoder und Encoder muß man nur ob die Präzision bis 8 Bit (Wert läßt sich dann in einem Byte speichern) oder mehr als 8 Bit (Wert läßt sich nur mehr in einem Word = 2 Bytes speichern) beträgt. Und man kann sich das Leben auch noch leichter machen, indem man bei größer 8 Bit Präzision immer 16 Bit angibt, man verschenkt damit maximal ein paar Bytes im DHT Marker (Bereich der Huffman Codes), da diese Codes aber nie auftreten, unterscheiden sich die komprimierten Daten in ihrem Umfang auch nicht von jenen, wo explizit eine niedrigere Präzision angegeben worden ist. Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.