Guest waldi2 Posted August 30, 2007 Share #1 Posted August 30, 2007 Advertisement (gone after registration) Hallo miteinander, ich bin der Waldi aus Nürnberg. Wir hatten kürzkich im privaten Bereich eine Diskussion, die ich hier ins Forum hineintragen wollte, da ich nicht mehr weiterweiss. Das Thema war folgendes: Bei Analogmaterial (Film) wurde das Auflösungsvermögen in lp/mm angegeben. Moderne Filme (z.B. TMAX) hatten lt. Hersteller ein Auflösungsvermögen von 120 bis 200 lp/mm. Auf einem digitalen Medium braucht man, um eine Linie darzustellen, sicherlich 2 Pixel, d. h. für ein Linienpaar 4 Pixel. Daraus folgende Überlegung: bei längsseitig 3916 Pixel bedeutet dies, dass z.B. die M8 in der Breitseite 979 Linienpaare auflösen kann, bei einer Sensorbreite von 27mm wären dies ganze 36 lp/mm! (zum Vergleich Canon 5D: längsseitig 4369 Pixel = 1092 Linienpaare = 30,3 lp/mm. Wie ist es dann zu erklären, dass die Anforderung an Objektive und deren Justage bei Digitalkameras höher sein soll wie bei Film, wo doch das "Aufnahmematerial" ein so viel geringeres Auflösungsvermögen hat als Film? Viele Grüße, Waldi Link to post Share on other sites More sharing options...
Advertisement Posted August 30, 2007 Posted August 30, 2007 Hi Guest waldi2, Take a look here Zusammenhang Pixel und lp/mm. I'm sure you'll find what you were looking for!
etibeti Posted August 30, 2007 Share #2 Posted August 30, 2007 Guck mal hier: Auflösung und hier PHOTOgraphical.NET - Canon 1Ds vs. film - 35mm Gruß Andreas Link to post Share on other sites More sharing options...
ennjott Posted August 31, 2007 Share #3 Posted August 31, 2007 lt. Hersteller ein Auflösungsvermögen von 120 bis 200 lp/mm. Das kommt sehr auf das Kontrastverhältnis an. Film hat ja keine feste Obergrenze, Details bekommen einfach einen immer schwächeren Kontrast. Auf einem digitalen Medium braucht man, um eine Linie darzustellen, sicherlich 2 Pixel, d. h. für ein Linienpaar 4 Pixel. Man braucht 2. Das Paar bedeutet ja schon einen Wechsel zwischen dunkel & hell (oder zwischen verschiedenen Farben). (zum Vergleich Canon 5D: längsseitig 4369 Pixel = 1092 Linienpaare = 30,3 lp/mm. Es sind in der Praxis ca. 40-45 bei der 5D. Durch das Farbmosaik verlieren übliche Digitalkameras im Schnitt 1/3 ihrer linearen Auflösung (Motivabhängig). Also 2/3 von 60 in diesem Fall. Wie ist es dann zu erklären, dass die Anforderung an Objektive und deren Justage bei Digitalkameras höher sein soll wie bei Film, wo doch das "Aufnahmematerial" ein so viel geringeres Auflösungsvermögen hat als Film? 1. Es geht nicht nur um die Auflösung. Bei Film darf Licht auch sehr schräg einfallen, beim Sensor verursacht das Probleme (Farbsäume, Farbveränderungen & Vignettierung). 2. Sensoren sind völlig flach, während Film meist nicht optimal plan liegt und außerdem die Emulsion noch eine gewisse Dicke hat. Ich habe noch keine Vergleichstests gesehen oder gemacht, aber ich habe den starken Eindruck, dass Bilder mit Film dadurch tatsächlich eine höhere Schärfentiefe haben. Schwer zu sagen wegen des unterschiedlichen Gesamteindrucks. 3. Digitalbilder werden heute im Vergleich zu Aufnahmeformat am Bildschirm in enormer Vergrößerung betrachtet, da fällt jede Ungenauigkeit auf. 4. Film hat zwar die klar höhere Auflösung. Das sieht man aber normalerweise nur unterm Mikroskop, denn man kriegt sie nicht vom Negativ runter. Außer mit einem chemischen Abzug mit optischer Vergrößerung allerhöchster Qualität. Dieser Kopierverlust drückt das Endresultat meist unter die Auflösung eines guten Digitalbildes - wieder Motivabhängig, das Farbmosaik hat z.B. große Probleme mit eher einfarbigen Motiven. Vegetation sieht damit oft übel und "vermatscht" aus. Vergiß Vergleichstests mit Scans (z.B. siehe Link oben). Eine ausreichende Auflösung für aussagekräftige Ergebnisse hat kein Scanner, auch kein Trommelscanner. Habe das hier mal vorgerechnet, Forensuche nach "Systemauflösung".. das Endergebnis zieht allenfalls mit einer 5D gleich, bei einem bezahlbaren Scanner liegt es fast unausweichlich drunter (wobei ich den Look trotzdem oft besser finde; man sieht, daß mehr in der Vorlage steckt). Nicht zu vergessen ist auch, dass man 100 lp/mm überhaupt erstmal auf den Film kriegen muß - Stichwörter Fokussierung und Verwacklung. Trotzdem finden sich in alten Fotomagazinen und Useneteinträgen von Mitte der 90er, also bevor jemand beweisen wollte, wie toll doch digital sei, Gespräche über Endresultate mit Farbfilm im Bereich 70-80 lp/mm. Was immerhin noch knapp doppelter 5D-Auflösung entspricht. Davon will jetzt keiner mehr was wissen - Schreiberlinge nicht, die auch in Zukunft noch Vorabmodelle der Hersteller wollen, und vielfach Benutzer auch nicht, die stolz auf ihr aktuelles Spielzeug sind. Link to post Share on other sites More sharing options...
esser Posted August 31, 2007 Share #4 Posted August 31, 2007 Eine alte Diskussion. In der Praxis spielt diese Frage eigentlich keine große Rolle. Rein theoretisch nuss man bei der Chipfotografie (ich vermeide "Digitalfotografie", denn digital ist ja nur die letztendliche Aufzeichnung der Daten) unterscheiden zwischen der hell-dunkel Auflösung, bei der 2 Pixel für ein Lp reichen würden, und der Farbauflösung, bei der für die Definition einer Farbe 4 Pixel gebraucht werden (1X r, 2X g, 1X . Ein "Farb"-Lp bräuchte also 8 Pixel. In der Realität erscheinen Chipfotos in der Regel genauso scharf wie Dias, solange man sie nicht zu sehr vergrößert. Aber dann wird auch zuerst die Pixelstruktur des Projektors/Vergrößerers sichtbar. Ich persönlich digitalisiere meine Dias zunächst, wenn ich Bilder für die Wand (40 X 60 cm) anfertigen lassen will (*.tiff Format, 300 dots per inch bei Endgröße). Einfach um sie in Photoshop bearbeiten zu können. Für die Projektion kommen derzeit nur Dias direkt in Frage, da Beamer zu schlechte Qualität liefern. Link to post Share on other sites More sharing options...
ennjott Posted August 31, 2007 Share #5 Posted August 31, 2007 Das ist so nicht richtig. Was du beschreibst, wäre ähnlich der Funktion von RGB-Pixeln beim Monitor. Es werden eben nicht genau 4 Pixel für ein Farbpixel verwendet; benachbarte Pixel in jede Richtung und auch Luma/Chroma-Info hängen zusammen (da man nicht wissen kann, ob ein Pixel weniger Licht erhalten hat oder es ob einfach die falsche Farbe an der Stelle war). Das Farbmuster besteht auch soweit ich weiß nicht aus "perfekten" Filtern sondern die Wellenbereiche überlappen sich etwas. Richtig ist, dass man die Helligkeitsinformation genauer berechnen kann. Dennoch fehlt auch der Helligkeitsauflösung immer ein ganzes Stück im Vergleich zu einem reinen S/W-Sensor. Ich finde übrigens, daß Digitalbilder weit schlechter vergrößern als Film. Dessen amorphe Struktur sieht, wenn sie sichtbar gemacht wird, einfach wesentlich natürlicher aus als Klötzchen. Zu den Projektoren; alles eine Frage des Preises. 2x2-Matrix aus 1080er-Projektoren dürfte sich mit herkömmlichen Dias messen lassen. Und es gibt Firmen, die sowas anschlußfertig bis 16x16 verkaufen. Link to post Share on other sites More sharing options...
Guest s.m.e.p. Posted August 31, 2007 Share #6 Posted August 31, 2007 Hallo miteinander, ich bin der Waldi aus Nürnberg. Wir hatten kürzkich im privaten Bereich eine Diskussion, die ich hier ins Forum hineintragen wollte, da ich nicht mehr weiterweiss. Das Thema war folgendes: Bei Analogmaterial (Film) wurde das Auflösungsvermögen in lp/mm angegeben. Moderne Filme (z.B. TMAX) hatten lt. Hersteller ein Auflösungsvermögen von 120 bis 200 lp/mm. Auf einem digitalen Medium braucht man, um eine Linie darzustellen, sicherlich 2 Pixel, d. h. für ein Linienpaar 4 Pixel. Daraus folgende Überlegung: bei längsseitig 3916 Pixel bedeutet dies, dass z.B. die M8 in der Breitseite 979 Linienpaare auflösen kann, bei einer Sensorbreite von 27mm wären dies ganze 36 lp/mm! (zum Vergleich Canon 5D: längsseitig 4369 Pixel = 1092 Linienpaare = 30,3 lp/mm. Wie ist es dann zu erklären, dass die Anforderung an Objektive und deren Justage bei Digitalkameras höher sein soll wie bei Film, wo doch das "Aufnahmematerial" ein so viel geringeres Auflösungsvermögen hat als Film? Viele Grüße, Waldi Waldi, meinst du nicht, dass das alles sehr theoretisch um nicht zu sagen "Erbsenzählerei" ist? Fotografierst du um als Endprodukt Abzüge in der Hand zu halten oder projezierst du lieber Dias? Im letzteren Falle würde ich bei den Dias bleiben, da brauchts schon sehr teure Beamer um die Qualität eines LEICA Diaprojektors zu erzielen. Um Abzüge selbst auszudrucken oder ausbelichten zu lassen ist die Digitaltechnik aber dem Film mittlerweile überlegen! Probier´s mal aus: Das gleiche Motiv einmal digital (welche Kamera hast du eigentlich?) und einmal auf Film fotografieren, natürlich von einem sehr stabilen Stativ!!! Dann das Negativ und die digitale Datei im Fachlabor im Fachlabor so gross wie möglich (z.B. 50x75cm) vergrössern lassen. Das Ergebnis sagt mehr als jede Theorie! Stefan Link to post Share on other sites More sharing options...
ennjott Posted September 1, 2007 Share #7 Posted September 1, 2007 Advertisement (gone after registration) Dann das Negativ und die digitale Datei im Fachlabor im Fachlabor so gross wie möglich (z.B. 50x75cm) vergrössern lassen. Also ich finde schon die Scans aus meinem Nikon 5000ED (21 MP) selbst bei älterem Film bereits bei 20x30 deutlich besser als übliche Digitalkameras. 50x75 verträgt sowieso kein Digitalfoto, 20x30 klappt für meine Begriffe schon erst ab deutlich über 10 MP vernünftig. Abgesehen davon, daß man bei Negativfilm keine weiß "ausgeschossenen" Himmel oder sonstige Lichter hat bzw. nicht unterbelichten und dann die schlecht (mit wenig Bits) aufgelösten Schatten aufziehen muß. Die lineare Aufzeichnung des Digitalsensors mit der fehlenden Schulter kann ein großer Nachteil sein, und das ist mal keine Erbsenzählerei sondern sofort sichtbar. Beim Bewegtfilm weiß jeder Profi, daß man digital (z.B. mit der Arriflex D20) verdammt aufpassen muß bei der Beleuchtung des Sets und die Spots gedämpft werden müssen. Nur die kauzige Fotowelt hat ihre Internetgurus, die behaupten, ein Sensor hätte auch noch einen größeren Dynamikbereich als Negativfilm. Link to post Share on other sites More sharing options...
etibeti Posted September 1, 2007 Share #8 Posted September 1, 2007 ...50x75 verträgt sowieso kein Digitalfoto, 20x30 klappt für meine Begriffe schon erst ab deutlich über 10 MP vernünftig. . Dass ist -mit Verlaub - grosser Unsinn !! Mit einer M8 oder einer DSLR ab 10 MP aufwärts und einer adäquaten Optik vorne dran lassen sich sehr wohl Vergrösserungen im Bereich 50x70 und größer in einer Qualität realisieren, die auf Film im KB-Format wenn überhaupt höchstens mit ISO 50 oder besser machbar waren. Link to post Share on other sites More sharing options...
poseidon Posted September 1, 2007 Share #9 Posted September 1, 2007 Also ich finde schon die Scans aus meinem Nikon 5000ED (21 MP) selbst bei älterem Film bereits bei 20x30 deutlich besser als übliche Digitalkameras.50x75 verträgt sowieso kein Digitalfoto, 20x30 klappt für meine Begriffe schon erst ab deutlich über 10 MP vernünftig. Abgesehen davon, daß man bei Negativfilm keine weiß "ausgeschossenen" Himmel oder sonstige Lichter hat bzw. nicht unterbelichten und dann die schlecht (mit wenig Bits) aufgelösten Schatten aufziehen muß. Die lineare Aufzeichnung des Digitalsensors mit der fehlenden Schulter kann ein großer Nachteil sein, und das ist mal keine Erbsenzählerei sondern sofort sichtbar. Beim Bewegtfilm weiß jeder Profi, daß man digital (z.B. mit der Arriflex D20) verdammt aufpassen muß bei der Beleuchtung des Sets und die Spots gedämpft werden müssen. Nur die kauzige Fotowelt hat ihre Internetgurus, die behaupten, ein Sensor hätte auch noch einen größeren Dynamikbereich als Negativfilm.[/quote Hi, ich kann hier Deine Erfahrung nicht ganz teilen, da ich durchaus auch andere Erfahrungen gemacht habe. Wie viele 50X75 Bilder vom DMR willst Du sehen, übrigens habe ich da auch noch 75X100 cm anzubieten, die alle in punkto Schärfe und Auflösung besser sind als alles was ich je auf Film gemacht habe. Ausbelichtet vom Fachlabor. Den Nikon Scanner habe ich auch, ist aber kein Vergleich zur Original DMR Aufnahme, die kommt besser. Mir der großen Canon verhält er sich ähnlich. Und selbst mir der E510 von Olympus bin ich nicht schlechter als mit Film, was Abzüge angelangt, wenn ich damit auch erst mal nur bis 30X45 gekommen bin. Gruß Horst Link to post Share on other sites More sharing options...
fotofritze Posted September 1, 2007 Share #10 Posted September 1, 2007 Also ich finde schon die Scans aus meinem Nikon 5000ED (21 MP) selbst bei älterem Film bereits bei 20x30 deutlich besser als übliche Digitalkameras.50x75 verträgt sowieso kein Digitalfoto, 20x30 klappt für meine Begriffe schon erst ab deutlich über 10 MP vernünftig. wunschdenken? Link to post Share on other sites More sharing options...
ennjott Posted September 2, 2007 Share #11 Posted September 2, 2007 Dass ist -mit Verlaub - grosser Unsinn !!. Nein, das ist eine Frage der Sehschärfe. Über 20x30 sind mit mageren 40 lp/mm einfach nicht drin, wenn man 300 DPI haben will. Kann ja jeder leicht ausrechnen. Ich rechne da mit mindestens 400 DPI, da ein Sensor mit Bayermatrix immer ca. 1/3 lineare Auflösung verliert durch das Farbmosaik. Und: durchaus möglich, daß manchen 50x75 vom DMR reicht. Und auch möglich, daß es besser ist als alles, was derjenige mit Film jemals zustandebekommen hat - wie gesagt, es ist schwierig, die Details vom Negativ zu holen. Und das Schöne an digital ist ja: es ist für die meisten einfach gut genug. Mir würde es aber nicht reichen bei der Größe. Da würde ich längst zu größeren Formaten greifen. Ich bekräftige meine Meinung, daß kein Digitalbild von 35mm oder kleiner eine Vergrößerung auf 50x75 verträgt. Vermutlich auch kein Bild von Film, habe das nicht getestest. Übrigens, in der aktuellen Arri News 04/07 (vielleicht bekannt; Arnold & Richter - Ausrüster für Kinofilmer) werden Praxisresultate mit Kodak ISO50-Film mit 80 lp/mm angegeben. Entspricht 22 MP oder ca. 44 "Bayer-MP". Link to post Share on other sites More sharing options...
mjh Posted September 4, 2007 Share #12 Posted September 4, 2007 Bei Analogmaterial (Film) wurde das Auflösungsvermögen in lp/mm angegeben. Moderne Filme (z.B. TMAX) hatten lt. Hersteller ein Auflösungsvermögen von 120 bis 200 lp/mm.Auf einem digitalen Medium braucht man, um eine Linie darzustellen, sicherlich 2 Pixel, d. h. für ein Linienpaar 4 Pixel. Daraus folgende Überlegung: bei längsseitig 3916 Pixel bedeutet dies, dass z.B. die M8 in der Breitseite 979 Linienpaare auflösen kann, bei einer Sensorbreite von 27mm wären dies ganze 36 lp/mm! (zum Vergleich Canon 5D: längsseitig 4369 Pixel = 1092 Linienpaare = 30,3 lp/mm. Wie ist es dann zu erklären, dass die Anforderung an Objektive und deren Justage bei Digitalkameras höher sein soll wie bei Film, wo doch das "Aufnahmematerial" ein so viel geringeres Auflösungsvermögen hat als Film? Schwarzweißfilm kann recht hohe Auflösungswerte erreichen, aber das könnte auch ein Schwarzweißsensor; Farbfilme haben schon aufgrund der größeren Dicke der Emulsion eine geringere Auflösung. Sensoren mit Bayer-Filter benötigen rund 3 Pixel, um ein Linienpaar aufzulösen; der genaue Wert hängt von der Qualität des Demosaicing ab. Übrigens erreichen die klitzekleinen Sensoren moderner digitaler Kompaktkameras erstaunliche Auflösungswerte in Linienpaaren pro Millimeter – eine Fuji F50fd schafft rund 200 lp/mm bei ISO 100, hat aber natürlich keinen Sensor im Kleinbildformat. Nun sind die theoretischen Maximalwerte der Auflösung von Filmmaterial in der Praxis nicht so einfach zu verwirklichen; in Tests wie dem der ProfiFoto vom letzten Jahr zogen die Digitalkameras ihren analogen Pendants davon; schon gegen die Canon EOS-1Ds Mark II hatten die Mittelformatkameras einen schweren Stand und das digitale Mittelformat spielt in einer anderen Klasse. Abgesehen davon: Wenn man sich einige Meisterwerke der Fotogeschichte einmal genau anschaut, ist man erstaunt, wie gering deren Auflösung eigentlich ist. Das tut diesen Bildern aber keinen Abbruch. Heutzutage strebt man oft nach dem letzten Quentchen Auflösung, produziert aber nichtssagende Bilder. Aber das nur am Rande … Daß Digitalkameras höhere Anforderungen an die Fokussierung und die Kontrastübertragung der Objektive stellen, liegt daran – ich hatte es auch in der jüngsten LFI erklärt –, daß sich ein Sensor wie eine extrem dünne Emulsion verhält. Von den Schichten des Farbfilms zeigt in einem gewissen Toleranzbereich der Fokussierung wenigstens eine ein halbwegs scharfes Bild; dieses scharfe Bild wird von leicht unscharfen Bildern der übrigen Schichten überlagert, trägt aber immer noch zum gesamten Schärfeeindruck bei. Der Sensor hat nur eine, von der Wirkung her sehr dünne Schicht und kennt daher keinen Toleranzbereich. Link to post Share on other sites More sharing options...
mjh Posted September 4, 2007 Share #13 Posted September 4, 2007 Das Farbmuster besteht auch soweit ich weiß nicht aus "perfekten" Filtern sondern die Wellenbereiche überlappen sich etwas. Sie überlappen sich sogar sehr stark, genauso wie die Durchlaßbereiche der Farbrezeptoren im menschlichen Auge. Und das müssen sie auch, denn nur dadurch ist es möglich, alle Farben des sichtbaren Spektrums zu differenzieren – mit Filtern, die das Spektrum sauber in drei Bereiche teilten, könnte man nur drei Farben unterscheiden, und Filter mit einem geringen Überlappungsbereich würden immer noch große Lücken lassen, in denen es keine Farbdifferenzierung mehr gäbe. Link to post Share on other sites More sharing options...
gerd_heuser Posted September 4, 2007 Share #14 Posted September 4, 2007 Daß Digitalkameras höhere Anforderungen an die Fokussierung und die Kontrastübertragung der Objektive stellen, liegt daran – Bei der Fokussierung stimme ich dir zu, aber wieso höhere Anforderungen an die Kontrastübertragung? Im Gegenteil werden ja feinere Strukturen der Abbildung gar nicht vom Chip aufgelöst. Man schneidet auch mit dem AA-Filter bewußt die höheren Frequenzen leistungsfähiger Objektive weg, um keine Moirees zu bekommen! Die superkleinen Sensoren, bei denen schon Beugungsbegrenzung bei niedrigen Blenden eine Rolle spielt, lassen wir mal außen vor. Sie überlappen sich sogar sehr stark, genauso wie die Durchlaßbereiche der Farbrezeptoren im menschlichen Auge. Und das müssen sie auch, denn nur dadurch ist es möglich, alle Farben des sichtbaren Spektrums zu differenzieren – mit Filtern, die das Spektrum sauber in drei Bereiche teilten, könnte man nur drei Farben unterscheiden, und Filter mit einem geringen Überlappungsbereich würden immer noch große Lücken lassen, in denen es keine Farbdifferenzierung mehr gäbe. Entschuldigung, das ist so nicht ganz richtig. Ideale Filter mit rechteckigen Durchlaßkurven, die direkt aneinander grenzen strebt man sogar an, es gibt bloß keine und deshalb müssen sich die Durchlasskurven überlappen weil sonst Lücken entstünden. Die Überlappungen (genannt Nebenfarbdichten) bringen unsaubere Farben und Metamerie-Effekte. Man kann mit den entsprechenden Anteilen aus idealen Bandpaßfiltern durchaus alle sichtbaren Farben darstellen, was man ja auch in der Farbmetrik mathematisch nachweist. Daß die Farbrezeptoren des Auges auch genausowenig ideale Begrenzungen haben, hat damit nichts zu tun, im Gegenteil: würde man die Rezeptoren nicht nach Möglichkeit schmalbandig ansprechen, addierten sich die Farbfehler und man sähe keine satten (=sauberen) Farben. Link to post Share on other sites More sharing options...
mjh Posted September 4, 2007 Share #15 Posted September 4, 2007 Bei der Fokussierung stimme ich dir zu, aber wieso höhere Anforderungen an die Kontrastübertragung? Im Gegenteil werden ja feinere Strukturen der Abbildung gar nicht vom Chip aufgelöst. Man schneidet auch mit dem AA-Filter bewußt die höheren Frequenzen leistungsfähiger Objektive weg, um keine Moirees zu bekommen! Es stimmt zwar, daß dieses Problem entsteht, wenn die Auflösung der Bildaufzeichnung der des Objektivs nicht gewachsen ist (und die Schärfe des Bildes nicht durch ein Antialiasingfilter gedrosselt wird), aber das kann im Grunde bei jeder Art von Bildaufzeichnung geschehen, also nicht nur beim Sensor. Der Sensor erzeugt nur deshalb so auffällige Moirés, weil seine Pixel einerseits völlig regulär angeordnet sind und weil zweitens jedes Pixel nur für eine Farbe empfindlich ist und die Farbauflösung damit noch einmal niedriger als die Helligkeitsauflösung ausfällt; das Demosaicing kann dann zu den Helligkeits- auch noch Farbmoirés erzeugen. Der Film ist aufgrund seiner Korn- und Schichtstruktur dagegen gefeit, auch wenn seine Auflösung ebenfalls beschränkt ist. Ideale Filter mit rechteckigen Durchlaßkurven, die direkt aneinander grenzen strebt man sogar an, es gibt bloß keine und deshalb müssen sich die Durchlasskurven überlappen weil sonst Lücken entstünden. Wie man ein ganzes Farbspektrum differenzieren soll, wenn sich die Durchlaßkurven nicht überlappen, das müßtest Du mir mal erklären. Ein RGB-Sensor mit solchen Filtern würde ein kontinuierliches Spektrum als drei homogene Farbflächen abbilden: Wellenlängen von Rot bis Gelborange würden nur von rotempindlichen Pixeln registriert, die daran anschließenden Wellenlängen bis Blaugrün nur von den grünempfindlichen Pixeln und der Rest nur von den blauempfindlichen Pixeln. Die einzigen Zwischentöne, die der Sensor wiedergeben könnte, wären die von Mischfarben, aber reine Farben aus Licht nur einer Wellenlänge würden auf drei Farbtöne vergröbert; auch die Differenzierung unterschiedlicher Sättigungsgrade ginge verloren. Immerhin könnte man ein Monitorbild abfotografieren, das ja von vornherein nur drei Farben in unterschiedlichen Anteilen enthält, und würde einigermaßen natürliche Farben erhalten, aber für Fotos der von der Sonne beschienenen Welt um uns herum wäre das nichts. Was nun die Metamerieeffekte betrifft, so lassen sie sich naturgemäß nicht vermeiden, wenn man mit einem metamerischen Farbsystem arbeitet. Die Überlappung der Durchlaßkurven ist eine Voraussetzung, auf der ein solches Farbsystem basiert: Nur weil sich die Empfindlichkeit beispielsweise der rot- und grünempfindlichen Pixel überlappt, kann man Farbverläufe von Rot über Orange und Gelb bis Grün an dem sich graduell verändernden Verhältnis der Rot- zu den Grünwerten erkennen. Natürlich gibt es umgekehrt keine eindeutige Abbildung von RGB-Werten in Wellenlängen oder Kombinationen von Wellenlängen, aber so ist das nun mal in einem metamerischen Farbsystem. Link to post Share on other sites More sharing options...
ennjott Posted September 4, 2007 Share #16 Posted September 4, 2007 Ich weiß, daß die "Farben" Überlappungen bestimmer Wellenbereiche darstellen.. ich meinte, daß die Filter dieser Überlappung nicht genau folgen, sondern weitere Bereiche mit einbeziehen. Muß aber sagen, daß ich nicht gerade firm im Bereich Farbe bin - diskutiert ihr das man aus. Hier mal der Link zu den Newslettern (04/07 hat die genannte Info): ARRI Group Worldwide Homepage Die Erklärungen da gehören, wie ich finde, mit zum sinnvollsten, was es im Netz bislang zu dem Thema zu lesen gibt. Die Erläuterungen mit den Heynacher-Integralen sind einleuchtend; klar ist natürlich, daß die hohen Auflösungen beim Film nur mit geringem Kontrast abgebildet werden und das Digitalbild dank der künstlichen Frequenzaufsteilung subjektiv leicht schärfer wirken kann. Zumindest bei den meisten Leuten, denn es kommt auch auf die Wahrnehmung an - ich finde die in schwachen Kontrast abgleitenden Details bei Film (linkes Heynacher-Integral) viel natürlicher und angenehmer als den blockigen "Digitallook" mit der harten Auflösungsobergrenze (rechtes Integral). Und zwar so lange, bis diese Obergrenze bei dem liegt, was Film noch bei nennenswerten MTF-Werten macht. Das aber wird vielleicht dauerhaft höher bleiben, denn Sensoren müssen, anders als Film, bei Kleinbildkameras Alleskönner sein. Link to post Share on other sites More sharing options...
Guest leicageek Posted September 4, 2007 Share #17 Posted September 4, 2007 Wie man ein ganzes Farbspektrum differenzieren soll, wenn sich die Durchlaßkurven nicht überlappen, das müßtest Du mir mal erklären. Ein RGB-Sensor mit solchen Filtern würde ein kontinuierliches Spektrum als drei homogene Farbflächen abbilden: Wellenlängen von Rot bis Gelborange würden nur von rotempindlichen Pixeln registriert, die daran anschließenden Wellenlängen bis Blaugrün nur von den grünempfindlichen Pixeln und der Rest nur von den blauempfindlichen Pixeln. Die einzigen Zwischentöne, die der Sensor wiedergeben könnte, wären die von Mischfarben, aber reine Farben aus Licht nur einer Wellenlänge würden auf drei Farbtöne vergröbert; auch die Differenzierung unterschiedlicher Sättigungsgrade ginge verloren. Immerhin könnte man ein Monitorbild abfotografieren, das ja von vornherein nur drei Farben in unterschiedlichen Anteilen enthält, und würde einigermaßen natürliche Farben erhalten, aber für Fotos der von der Sonne beschienenen Welt um uns herum wäre das nichts. Was nun die Metamerieeffekte betrifft, so lassen sie sich naturgemäß nicht vermeiden, wenn man mit einem metamerischen Farbsystem arbeitet. Die Überlappung der Durchlaßkurven ist eine Voraussetzung, auf der ein solches Farbsystem basiert: Nur weil sich die Empfindlichkeit beispielsweise der rot- und grünempfindlichen Pixel überlappt, kann man Farbverläufe von Rot über Orange und Gelb bis Grün an dem sich graduell verändernden Verhältnis der Rot- zu den Grünwerten erkennen. Natürlich gibt es umgekehrt keine eindeutige Abbildung von RGB-Werten in Wellenlängen oder Kombinationen von Wellenlängen, aber so ist das nun mal in einem metamerischen Farbsystem. Verstehe ich das richtig, dass Du sagen willst, dass wir keine Farben sehen können, die sich nicht durch Überlappung ergeben? Link to post Share on other sites More sharing options...
mjh Posted September 4, 2007 Share #18 Posted September 4, 2007 Verstehe ich das richtig, dass Du sagen willst, dass wir keine Farben sehen können, die sich nicht durch Überlappung ergeben? Es gibt tatsächlich allenfalls ganz schmale Bereiche von Wellenlängen, auf die nicht zwei oder gar drei Arten von Farbrezeptoren reagieren. Und das ist auch gut so, denn sonst hätten wir beispielsweise große Schwierigkeiten, Violett zu erkennen. Im metamerischen RGB-Farbsystem wird Violett als Mischung von Rot und Blau wiedergegeben, aber reines Violett liegt in einem völlig anderen Wellenlängenbereich als Rot. Würden die für Rot, Grün und Blau empfindlichen Rezeptoren nur oder fast nur auf diese Wellenlängenbereiche reagieren, würde reines Violett höchstens von den blauempfindlichen Rezeptoren registriert und könnte nicht von Blau unterschieden werden. Dies gelingt nur, weil einerseits die grünempfindlichen Rezeptoren einen sehr breiten Empfindlichkeitsbereich haben und andererseits die rotempfindlichen Rezeptoren noch ein kleines Nebenmaximum am entgegengesetzten Ende des Spektrums bei Violett haben. Link to post Share on other sites More sharing options...
berndr Posted September 5, 2007 Share #19 Posted September 5, 2007 Hallo zusammen, warum die Sache nicht mal andersherum betrachten. Eine Diaausbelichtung mittlerer Qualität benötigt: 4096x2731 ca. 11Mp Eine Diaausbelichtung guter Qualität: 8192x6724 ca. 55Mp Eine Diaausbelichtung High End Qualität: 16384x12288 ca. 200Mp Gemessen an diesem Werten spielen die aktuellen High End Digitalkameras noch lange nicht in der höchsten Liga! Natürlich ist die Frage offen, ob man bei einem klassisch, nicht über Laser belichteten Dia eine solche Auflösung erreichen kann. Gruß, Bernd. Link to post Share on other sites More sharing options...
feuervogel69 Posted September 5, 2007 Share #20 Posted September 5, 2007 ich betrachte die sache ganz pragmatisch indem ich die ergebnisse vergleiche. mir ist bis jetzt leider kein analoger abzug geglückt, der digital in den schatten gestellt hätte (farbe; SW außen vor aufgrund der völlig anderen erlebnisqualität des filmes). mit sicherheit liegt das aber nicht daran daß der film im nachteil ist (ich halte film nachwievor vor höchstauflösend+natürlich), sondern daß im normalfall bei den fotolaboren der analoge workflow einfach durch die massenabfertigung und die dortige spardigitalisierung leider nicht mehr mit einem normalen RAW-workflow mithalten kann. lg matthias Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.