ennjott Posted December 21, 2006 Share #281 Posted December 21, 2006 Advertisement (gone after registration) Kompletter Unsinn. Also mit dir zu "diskutieren" hat ja wohl überhaupt keinen Zweck. Klar, alles Unsinn, die Belichtung bei Film war in Stein gemeißelt, nichts konnte man daran ändern. Blahfasel. Wird mir nun auch zu lächerlich hier. Der Kameraprozessor oder die Implementation der Firmware ist offensichtlich zu lahm, vernünftige Raws zu schreiben, und hinkt damit dem Stand der Technik gewaltig hinterher. Ich wünsche noch viel Spaß dabei, ein paar weitere dutzend Seiten darüber zu sinnieren und zu spekulieren. Link to post Share on other sites More sharing options...
Advertisement Posted December 21, 2006 Posted December 21, 2006 Hi ennjott, Take a look here Eine Frage der Kommunikation .... I'm sure you'll find what you were looking for!
feuervogel69 Posted December 21, 2006 Share #282 Posted December 21, 2006 also angaben was unsere sinne so alles erfassen können, halte ich immer für daneben. in nichts sind menschen so unterschiedlich wie in ihrer sensibilität und: deren steigerung durch konzentration. sprich: unser auge mag "normal" die und die auflösungswerte haben-sowie ich mich auf etwas (blume, graue wand, oberflächen) konzentriere, setzt mein gehirn ein waahnsinniges nichtlineares programm in gang um die meist,öglichsten verwertbaren infos herauszudestillieren. und genau da unterscheiden sich dann "geübte" menschen wahnsinnig von ungeübten (in der sensibilisierung). beispiel (aus meiner praxis): ein mikrofon "hört" auf den ersten blick viel mehr (autogeräusche, störgeräusche) und man denkt es ist sensibler. auf der fertigen aufnahme ist es trotzdem weit weniger möglich z.b. eine 2. stimme herauszuhören oder andere details zu entdecken, die man doch "gehört" hat. unser ohr hat nur gelernt unwichtiges (z.b. störgeräusche) wegzufiltern und andere dinge (musikalische klänge z.b.) hochaufgelöst bewußt zu machen. augen lernen auch sehr schnell. in natura kann ich z.b. sehr gut "metalle" sehen, d.h. unterscheiden: silber, nickel, chrom, eisen, stahl (in ansätzen sogar wieweit der vergütet ist und mit was). ich habe noch kein foto gesehen, wo mir diese unterscheidung möglich wäre (was erstmal nicht heißen soll, das es das damit nicht gäbe, aber ich habe halt noch keins gesehen, obwohl ich schon metalle auf fotos sah ;-) . ich denke meine unterscheidung beruht darauf, daß ich unterschiede sowohl im spektrum, im glanz und der oberfläche, als auch in diesen mini-pünktchen (rot magenta blau grünes punktförmiges schillern von oberflächen wie z.b. auch haut!) besonders bei starkem sonnenlicht. diese "minipünktchen" habe ich z.b. noch auf keinem foto gesehen... also gegenüber dem auge ist foto noch lange nicht soweit.... zumindest meine wahrnehmung vorm hintergrund menschlicher nichtlinearer datenverarbeitung. lg matthias Link to post Share on other sites More sharing options...
mjh Posted December 21, 2006 Share #283 Posted December 21, 2006 Das Ergebnis der Überlegungen ist, dass mir die Kamera Daten liefert, die einem 8-Bit-JPEG in den Lichtern sogar unterlegen sind. Genauer gesagt: Im Bereich der oberen zwei Blendenstufen ermöglicht die lineare 8-Bit-Repräsentation etwas feinere Unterscheidungen: Zwei Blendenstufen unter dem hellsten Tonwert differenzieren Leicas 8 Bit ebenso wie lineare 8 Bit gleichermaßen 0,023 EV; am Ende des Tonwertspektrums gibt es den größten Unterschied zwischen 0,011 EV mit Leicas Methode und 0,006 EV mit linearen 8 Bit. Im Rest des Tonwertspektrums, also unterhalb der oberen zwei Blendenstufen, differenziert Leicas Methode feiner – in den Schatten bis zu 20fach feiner. Außerdem ist der damit darstellbare Dynamikumfang zu den Schatten hin deutlich größer. Link to post Share on other sites More sharing options...
drahthaar Posted December 22, 2006 Share #284 Posted December 22, 2006 Nach genau 283 Beiträgen stehe ich jetzt genau auf dem Stand von post #5, den ich hier noch einmal zitiere: Äh, wie war das - 8 bit sind "quasi" besser als 16 bit? Zunächst habe ich wirklich gedacht, aus den gegensätzlichen Positionen der Protagonisten würde sich in der Diskussion eine Klärung ergeben. Zumindest für mich. Doch aus dem vermeintlichen Lernzuwachs wurde nach und nach noch größere Ratlosigkeit, weil ich dachte, dass im Gegensatz zu einer philosophischen Diskussion eine technische Frage letztendlich richtig (!) gelöst oder beantwortet werden kann, zumal es sich ja hier um angewandte und nicht abstrakte Technik handelt. Ich befürchte, dass dieser Thread sich wieder auflöst in eine allgemeine "Leica macht das schon richtig - Selbstgefälligkeit". Schade, dass ich zu dieser Diskussion nur fragend beitragen kann. Und seltsamerweise sind gerade die konkreten, praxisorientierten Fragen am wenigsten beantwortet worden. Mein ganz spezielles Fazit: Bei Leica machen manche aus jeder Not eine Tugend. Rolf Link to post Share on other sites More sharing options...
augenschmaus Posted December 22, 2006 Share #285 Posted December 22, 2006 Ja, und ich rede davon, daß das in diesem Fall ziemlich gleichgültig ist: Würde jemand ernsthaft behaupten, man müsse 1/44 EV unbedingt in 256 Zwischenstufen unterteilen und zwei Stufen wären definitiv zu wenig? Wie hier schon mehrfach dargelegt, fotografiert man in RAW und 16 Bit, um im RAW-Konverter gewisse Spielräume nutzen zu können. Dazu gehören auch vermeintliche "überflüssige" Zeichnungen in den Lichtern, die man noch in den sichtbaren Bereich verschieben kann. Darüberhinaus beziehen sich die Verluste ja nicht nur auf die letzte dargestellte Stufe der Skala, sondern auch auf die mittleren Lichter und die oberen Mitten - es gibt nur einen Punkt im ganzen Bereich, da entspricht die Tonwert-Auflösung einem ordinären JPEG - darunter ist sie besser (aber noch deutlich schlechter als volles 16 Bit) und darüber ist sie in einem größeren Bereich schlechter. Diese Tonwertausdünnung zu vollziehen, bevor die finale Gammakurve im RAW-Konverter angewendet wird, gehört zu den größeren Unglaublichkeiten. Da ist es besser, die Gammakorrektur mit vollen 12 oder 14 Bit in der Kamera zu machen, bevor man das In-Kamera-JPEG auf 8 Bit reduziert. Es gibt keinen Grund zu glauben, dass das DNG eine spürbar bessere Qualität liefert als ein JPEG. Das ist eigentlich die Quintessenz. Und wenn irgendjemand irgendetwas testen möchte (z.B. Freund Carsten W. aus dem int. Forum, der sich da ja recht unhöflich über diesen Thread ausgelassen hat), sollte er als erstes mal die DNGs mit den In-Kamera-JPEGs vergleichen. Über Versuche, subtile Lichter aus DNGs zu "gewinnen", wurde hier schon berichtet. Ergebnis: 100% negativ. Wer sich nun noch weiter argumentativ auf dem Karussel drehen möchte, rufe ich mit (vor-) weihnachtlichen Grüßen zu: Frohe Fahrt ! Link to post Share on other sites More sharing options...
augenschmaus Posted December 22, 2006 Share #286 Posted December 22, 2006 ... auch, wenn man aus dem geballten Informationshaufen herausdestillieren könnte, daß hier vielleicht eine andere, nicht so "geniale" Motivation dahintergestanden ist - und auch die Datenbasis vielleicht zu nieder angesetzt wurde ... So sehe ich das auch . Link to post Share on other sites More sharing options...
augenschmaus Posted December 22, 2006 Share #287 Posted December 22, 2006 Advertisement (gone after registration) Mein ganz spezielles Fazit: Bei Leica machen manche aus jeder Not eine Tugend. Rolf Es hätte mein Fazit sein können ... Link to post Share on other sites More sharing options...
mjh Posted December 22, 2006 Share #288 Posted December 22, 2006 Wie hier schon mehrfach dargelegt, fotografiert man in RAW und 16 Bit, um im RAW-Konverter gewisse Spielräume nutzen zu können. Dazu gehören auch vermeintliche "überflüssige" Zeichnungen in den Lichtern, die man noch in den sichtbaren Bereich verschieben kann. Was ja auch in vernünftigem Umfang möglich ist. es gibt nur einen Punkt im ganzen Bereich, da entspricht die Tonwert-Auflösung einem ordinären JPEG - darunter ist sie besser (aber noch deutlich schlechter als volles 16 Bit) und darüber ist sie in einem größeren Bereich schlechter. Wie ich schon schrieb: Der Punkt, an dem lineare 8 Bit und Leicas 8 Bit dieselbe Tonwertauflösung haben, liegt 2 EV unter dem höchsten darstellbaren Tonwert. Alle Blendenstufen darunter, also der größte Teil des Tonwertspektrums, wird mit Leicas Methode feiner aufgelöst (bis zu 20fach). Über das ordinäre JPEG kann man keine so sicheren und präzisen Aussagen treffen, da es bei dessen Tonwertaufbereitung zu viele Unwägbarkeiten gibt – das wird je nach Motiv und Licht mal so und mal anders ausfallen. aber noch deutlich schlechter als volles 16 Bit Volle 16 Bit enthielten zu einem nicht geringen Teil Rauschen; meinst Du nicht, daß die 12 Bit, mit denen sich Canon, Nikon, Pentax etc. begnügen, auch reichen würden? Es gibt keinen Grund zu glauben, dass das DNG eine spürbar bessere Qualität liefert als ein JPEG. Nur Theorie und Praxis; manchen genügen solche Gründe. Über Versuche, subtile Lichter aus DNGs zu "gewinnen", wurde hier schon berichtet. Ergebnis: 100% negativ. Im internationalen Forum wurde ganz ernsthaft berichtet, man könne keine „blown highlights“ mehr retten. Wobei das ist ja mehr oder weniger die Definition von „blown hightlights“ ist – daß sie nämlich nicht mehr zu retten sind. Da helfen auch keine 16 Bit. Link to post Share on other sites More sharing options...
hagee Posted December 22, 2006 Share #289 Posted December 22, 2006 eine frage am thema vorbei: wenn die bildfläche um die hälfte verkleinert wird, ergibe sich pro flächeneinheit die doppelte informationsdichte (auflösung), ist ein (nicht linearer) algorithmus denkbar, der diese auch ausnutzt, z.B. in grauwertdifferenzirungen umsetzt ? das kleinere (raw-) bild könnte dann qualitativ besser sein als das grosse (original), möglicherweise auch nach kompression ? oder wird das bereits gemacht und fällt mir nur nicht auf ? (wäre dann so ähnlich wie beim klassischen ausbelichten). liebe grüsse hg Link to post Share on other sites More sharing options...
Guest chris_h Posted December 22, 2006 Share #290 Posted December 22, 2006 also angaben was unsere sinne so alles erfassen können, halte ich immer für daneben. in nichts sind menschen so unterschiedlich wie in ihrer sensibilität und: deren steigerung durch konzentration. sprich: unser auge mag "normal" die und die auflösungswerte haben-sowie ich mich auf etwas (blume, graue wand, oberflächen) konzentriere, setzt mein gehirn ein waahnsinniges nichtlineares programm in gang um die meist,öglichsten verwertbaren infos herauszudestillieren. und genau da unterscheiden sich dann "geübte" menschen wahnsinnig von ungeübten (in der sensibilisierung). beispiel (aus meiner praxis): ein mikrofon "hört" auf den ersten blick viel mehr (autogeräusche, störgeräusche) und man denkt es ist sensibler. auf der fertigen aufnahme ist es trotzdem weit weniger möglich z.b. eine 2. stimme herauszuhören oder andere details zu entdecken, die man doch "gehört" hat. unser ohr hat nur gelernt unwichtiges (z.b. störgeräusche) wegzufiltern und andere dinge (musikalische klänge z.b.) hochaufgelöst bewußt zu machen. augen lernen auch sehr schnell. in natura kann ich z.b. sehr gut "metalle" sehen, d.h. unterscheiden: silber, nickel, chrom, eisen, stahl (in ansätzen sogar wieweit der vergütet ist und mit was). ich habe noch kein foto gesehen, wo mir diese unterscheidung möglich wäre (was erstmal nicht heißen soll, das es das damit nicht gäbe, aber ich habe halt noch keins gesehen, obwohl ich schon metalle auf fotos sah ;-) . ich denke meine unterscheidung beruht darauf, daß ich unterschiede sowohl im spektrum, im glanz und der oberfläche, als auch in diesen mini-pünktchen (rot magenta blau grünes punktförmiges schillern von oberflächen wie z.b. auch haut!) besonders bei starkem sonnenlicht. diese "minipünktchen" habe ich z.b. noch auf keinem foto gesehen... also gegenüber dem auge ist foto noch lange nicht soweit.... zumindest meine wahrnehmung vorm hintergrund menschlicher nichtlinearer datenverarbeitung. lg matthias Letzteres dürfte hauptsächlich auch eine Frage des Auflösungsvermögens sein - wo wir dann bei der Diskussion über die Größe des Aufnahmechips und der Pixeldichte besser aufgehoben wären ... Wenn du schreibst, daß unser Gehör wohl gelernt hat, wichtige (wertvolle) Information von unwichtiger zu unterscheiden und diese auch differenzierter wahrzunehmen, dann billigst du dem Gehirn genau jene Leistungsfähigkeit zu, die in der Digitaltechnik versucht wird nachzuahmen. Wobei sich bei der Technik halt die Frage stellt, wie stark differenziert deren "Wahrnehmungsfähigkeit" getrieben werden muß, um hier "analog" zu den Sinnen zu funktionieren. Das Hauptproblem im Digitalbereich seh ich dabei gar nicht so sehr in den "überschaubaren" Quantifizierungen, sondern in den oftmals angewandten Komprimierungsverfahren, die meiner Meinung nach die gelieferte Datenbasis entscheidend zum Nachteil des Betrachters, des Hörers verändert - nicht mehr "genügend" Differenzierung liefert, aus der heraus unser Hirn besser in der Lage wäre, Information zu extrahieren. --- @ mhj In deiner Darlegung hinsichtlich Veränderung der Datenbasis "unterstellst" du Leicas Ansatz aber tatsächlich logarithmisch - ganz oben relativer Verlust, im großen Rest relativ starker Gewinn - aufgebaut zu sein (wo sie selbst nur von einer Ähnlichkeit schreiben) ... !? Link to post Share on other sites More sharing options...
olaff Posted December 22, 2006 Share #291 Posted December 22, 2006 zusammenfassung für teufel: ordentliche eskimos wie nanook können spielend über 1.000 verschiedene schneesorten namentlich benennen, es gibt also gerade in den hellsten farbtönen sehr, sehr viele informationen. würde man den schnee fotografieren und das bild dann ausdrucken, könnte nanook gerade mal 50 verschiedene schneesorten darauf benennen, weil im workflow bishin zum ausdruck viele farbinformationen verloren gingen (zwei kernprobleme sind dabei die begrenzte prozessorleistungen bei letztlich größer werdender auflösungen von sensoren und die qualiät des ausplots, weshalb hier taschenspielertricks bei allen herstellern vermutet werden). wäre nanook in köln aufgewachsen und beispielsweise fußballer oder beim fernsehen, könnte der bengel sicher nur 1 schneesorte namentlich benennen, wenn ich das richtig verstanden habe. das wäre ein extremes beispiel für tonwertabriss und deshalb ist das ganze letzlich eine frage der kommunikation. Link to post Share on other sites More sharing options...
Guest chris_h Posted December 22, 2006 Share #292 Posted December 22, 2006 Deine Eskimos benennen den Schnee aber nicht nach seiner Helligkeit allein, gell Olaf ... Link to post Share on other sites More sharing options...
Guest chris_h Posted December 22, 2006 Share #293 Posted December 22, 2006 eine frage am thema vorbei: wenn die bildfläche um die hälfte verkleinert wird, ergibe sich pro flächeneinheit die doppelte informationsdichte (auflösung), ist ein (nicht linearer) algorithmus denkbar, der diese auch ausnutzt, z.B. in grauwertdifferenzirungen umsetzt ? das kleinere (raw-) bild könnte dann qualitativ besser sein als das grosse (original), möglicherweise auch nach kompression ? oder wird das bereits gemacht und fällt mir nur nicht auf ? (wäre dann so ähnlich wie beim klassischen ausbelichten). liebe grüsse hg Ich fürchte, DEN Ansatz hab' ich jetzt nicht ganz verstanden. Könntest du den bitte noch ein wenig differenzierter darlegen !? Link to post Share on other sites More sharing options...
mjh Posted December 22, 2006 Share #294 Posted December 22, 2006 ordentliche eskimos wie nanook können spielend über 1.000 verschiedene schneesorten namentlich benennen Sagt man … siehe The Great Eskimo Vocabulary Hoax. Link to post Share on other sites More sharing options...
Guest chris_h Posted December 22, 2006 Share #295 Posted December 22, 2006 Sagt man … siehe The Great Eskimo Vocabulary Hoax. Und selbst wenn: 10 unterschiedliche Farben x 10 Helligkeitsstufen x 10 Konsistenzen = 1000 unterschiedliche Schneearten ... Link to post Share on other sites More sharing options...
strick Posted December 22, 2006 Share #296 Posted December 22, 2006 Wenn - irgendwann in ferner Zukunft - eine 16 bit-M rauskommt, wird das alles Schnee von gestern sein Grüße Gregor Link to post Share on other sites More sharing options...
feuervogel69 Posted December 22, 2006 Share #297 Posted December 22, 2006 solange erfreue ich mich an der hervorragend weißflächenwiedergabe dank ausreichnender empfindlichkeit für blaues streulicht, an meiner sd10 die für ein paar hundert euro mit über 3 mpix blausensoren daherkommt (im gegensatz zu den etwas über 2mpix blausensoren der m8, die dann auch noch verrechnet werden!) und mir so gerade weiß und schattiges weiß hervorragend auflöst... btw.: im übrigen waren die "schneebilder" vom dachstein für mich dann der letzte anstoß die sd10 zu kaufen, da man dort irgendwie schon sah, daß die schneedarstellung etwas hart geriet und die übergänge in den lichtern nicht so gut durchzeichnet waren. lg matthias Link to post Share on other sites More sharing options...
olaff Posted December 22, 2006 Share #298 Posted December 22, 2006 also bei cmos chips von kodak bieten nur die lütten 12 bit, alle größeren 10 bit oder weniger. der größte ist 5 MP groß. kein wunder, wenn alle daten ständig umgerechnet werden müssen, oder... Link to post Share on other sites More sharing options...
Guest chris_h Posted December 22, 2006 Share #299 Posted December 22, 2006 Danke, Matthias, jetzt hab' ich auch meinen Weihnachtsgruß ans Forum noch auf die Schnelle gefunden ... In diesem Sinne: FROHES FEST ! [ATTACH]19182[/ATTACH] Christian (dazu noch eines meiner Lieblingszitate: Grau ist alle Theorie.) Link to post Share on other sites More sharing options...
Guest zebra Posted December 22, 2006 Share #300 Posted December 22, 2006 Es gibt keinen Grund zu glauben, dass das DNG eine spürbar bessere Qualität liefert als ein JPEG. Das ist eigentlich die Quintessenz. Lass es mich mal freundlich formulieren: Du glaubst sicher auch, dass die Erde eine Scheibe ist. Peter Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.