mjh Posted March 8, 2010 Share #181 Posted March 8, 2010 Advertisement (gone after registration) wenn die abberationen die auflösung limitieren, nutzt auch ein höher auflösender sensor nix. überlagerte und vermauschelte bilder, sind auch mit höheren auflösungen nicht rettbar. ...es sei denn, man macht mittles filter schöne farbauszüge! dann würde man das problem umgehen und durchaus noch auflösung gewiinen können, sofern die kamera pixelgenau bei rgb 3-mal hintereinander das gleiche bild aufzunehmen vermag. es geht leider auch in der fotooptik ab einem gewissem punkt nix über ein gut korrigiertes objektiv. die kontrastleistung ist nur ein parameter der darüber auskunft gibt... So uneingeschränkt stimmt das nicht. Zunächst einmal macht sich die chromatische Aberration auch bei der Kontrastübertragungsfunktion und in MTF-Kurven bemerkbar: Wenn die sagittale Auflösung halbwegs stabil bleibt, die tangentiale Auflösung hoher Frequenzen aber zum Rand hin stetig abnimmt, besteht der begründete Verdacht, dass hier die laterale chromatische Aberration am Werk ist. Und wenn man einen Farbsensor hat, kann man die (laterale) chromatische Aberration auch in Grenzen korrigieren, denn aus den rot-, grün- und blauempfindlichen Pixeln erhält man ja drei Farbauszüge, die sich sehr präzise zur Deckung bringen lassen, wenn man die Eigenschaften des Objektivs kennt. (Tatsächlich wird man nach Möglichkeit nicht erst drei Farbauszüge erzeugen und dann entzerren, sondern die CA schon beim Demosaicing berücksichtigen.) Die Abweichungen innerhalb des Wellenlängenbandes, das ein rotes, grünes oder blaues Filter durchlässt, kann man zwar nicht beseitigen, aber auch eine apochromatische Korrektur kann die Abbildung ja nur für drei Wellenlängen korrigieren und für alle anderen lediglich verbessern. Nach einer solchen digitalen Korrektur sehen dann nicht nur die Bilder, sondern auch die MTF-Kurven des Gesamtsystems noch besser ist. Deshalb kann man nicht einfach auf eine optische Korrektur verzichten, aber beides zusammen ist besser als eine Methode allein. Link to post Share on other sites More sharing options...
Advertisement Posted March 8, 2010 Posted March 8, 2010 Hi mjh, Take a look here Wo liegt die theoretische Auflösungsgrenze?. I'm sure you'll find what you were looking for!
feuervogel69 Posted March 8, 2010 Share #182 Posted March 8, 2010 alles was ich hier schrieb stimmt nur eingeschränkt, da die tatsächliche auflösung doch von so viel faktoren abhängt. aber um übersichtlich zu bleiben muß man ja vereinfachen. ich meinte hauptsächlich ältere objektive wo die farbsäume dann breiter sind als der pixelpitch. die "farbauszüge" deines gedankenganges entsprechen ja natürlich nicht (wie bei meiner angedachten lösung) der nominalauflösung des sensors, sondern viel niedrigeren werten (knappe 5mpix für rot und blau bei der m9!) es bleibt insgesamt sehr diffizil und komplex. lg Link to post Share on other sites More sharing options...
mjh Posted March 8, 2010 Share #183 Posted March 8, 2010 ich meinte hauptsächlich ältere objektive wo die farbsäume dann breiter sind als der pixelpitch. Nur dann ist ja eine digitale CA-Korrektur möglich (und sinnvoll, denn Abweichungen, die schmaler als der Pixelabstand sind, bräuchte man nicht wirklich zu korrigieren). Aber das müssen keine älteren Objektive sein, auch wenn hoch korrigierte Objektive vielleicht allenfalls ein Pixel breite Farbsäume erzeugen und man sehr genau hinschauen muss, um sie zu entdecken. Ich stand mal vor dem Problem, den Effekt von Hasselblads digitaler CA-Korrektur demonstrieren zu müssen, wobei die unkorrigierten Farbsäume aber so schmal und unauffällig waren, dass man sie selbst bei starker Vergrößerung im Druck nicht mehr sehen konnte (und der Fotograf des Testmotivs erklärte, da seien überhaupt keine Farbsäume). die "farbauszüge" deines gedankenganges entsprechen ja natürlich nicht (wie bei meiner angedachten lösung) der nominalauflösung des sensors, sondern viel niedrigeren werten (knappe 5mpix für rot und blau bei der m9!) es bleibt insgesamt sehr diffizil und komplex. Das Demosaicing interpoliert schon etwas mutiger, sodass die Auflösung im Bild tatsächlich höher ist. Es geht auch gar nicht anders: 50 Prozent aller Pixel sind ja grünempfindlich, sodass der Grünkanal eigentlich das am höchsten (mit der halben Megapixelzahl) aufgelöste Bild enthält. Wenn man nun aber im Rot- und Blaukanal einfach nur Bilder mit einem Viertel der vollen Sensorauflösung erzeugen würde, dann würden Veränderungen in allen drei Kanälen – beispielsweise ein schlichtes Schwarzweißmuster, bei dem sich von Schwarz zu Weiß und umgekehrt die Helligkeitswerte in allen Farbkanälen an der gleichen Stelle ändern –, nicht immer synchron sein, was zu Regenbogeneffekten an den Übergängen zwischen Schwarz und Weiß führen würde. Man kommt also gar nicht umhin, die Auflösung im Rot- und Blaukanal künstlich an die des Grünkanals anzugleichen. Das ist der schmale Grat, auf dem man sich beim Demosaicing bewegt: Man erzeugt möglichst viele Details, von denen einige aber vielleicht Artefakte sind. Die CA-Korrektur erfolgt auch nicht nur auf ein oder gar nur auf mehrere Pixel genau, sondern in Subpixel-Schritten. Vor allem aber ist die Korrektur in extremeren Fällen die Voraussetzung dafür, dass das Demosaicing überhaupt zu vernünftigen Ergebnissen kommt: Da beispielsweise einem grünempfindlichen Pixel die Daten für den Rot-Wert fehlen, muss dieser aus den rotempfindlichen Nachbarpixeln interpoliert werden. Wenn nun aber das rote Licht von benachbarten Punkten des Motivs aufgrund der chromatischen Aberration anders gebrochen wird als das grüne, sind die auf dem Sensor unmittelbar benachbarten Sensorpixel gar nicht die richtigen; man muss erst anhand der bekannten Daten zur chromatischen Aberration berechnen, welche rotempfindlichen Sensorpixel tatsächlich das Licht von benachbarten Punkten des Motivs registriert haben. Link to post Share on other sites More sharing options...
feuervogel69 Posted March 8, 2010 Share #184 Posted March 8, 2010 und dies sind einige gründe, warum mir der foveon in geeigneten lichtsituationen besser gefällt... dazu kommt dann noch der große spielraum bis zur beugungsgrenze, da die pixel ja hier sehr groß sein können. natürlich leisten die bayeralgorhytmen hervorragende arbeit. respekt, wenn das so ist, wie du da eben schreibst, daß vor dem demosaicing das herausrechnen der ca´s erfolgt-daß erklärt mir u.U. warum die digitalen m´s (oder auch das dmr) so saubere dateien liefern (neben dem kodaksensor): wenn quasi im 1. schritt der abberationsherausrechnung nciht viel herauszurechnen ist (aufgrund der objektivqualität), dann erhöht sich damit also die qualität des demosaicings schon von allein, da hier schon die ersten rechnefehler vermieden werden. ich finde es trotzdem schwierig: wenn eine -sagen wir mal rote-kante eine grüne pixelweit überdeckt, dann kann man evtl. das rot zurückrechnen, aber dadurch wird doch nicht die "darunterliegende" information des grünen bildes sichtbar... kurz: selbst wenn die abberation herausgerechnet wird, also keine störenden farbsäume, so bleibt doch dann doch an diesen stellen ein "informationsloch". oder? lg Link to post Share on other sites More sharing options...
mjh Posted March 9, 2010 Share #185 Posted March 9, 2010 natürlich leisten die bayeralgorhytmen hervorragende arbeit. respekt, wenn das so ist, wie du da eben schreibst, daß vor dem demosaicing das herausrechnen der ca´s erfolgt-daß erklärt mir u.U. warum die digitalen m´s (oder auch das dmr) so saubere dateien liefern (neben dem kodaksensor): wenn quasi im 1. schritt der abberationsherausrechnung nciht viel herauszurechnen ist (aufgrund der objektivqualität), dann erhöht sich damit also die qualität des demosaicings schon von allein, da hier schon die ersten rechnefehler vermieden werden. Nein nein, so allgemein wird das nicht gemacht; gerade Leica tut es nicht – jedenfalls nicht bei ihren Eigenproduktionen, während es eine V-Lux sehr wohl tut. Canon und Nikon rechnen seit einiger Zeit die chromatische Aberration heraus, ebenso Hasselblad. Was ich aber ansonsten über das Demosaicing schrieb, gilt universell. Seit Bryce E. Bayers ursprünglicher Idee haben die Softwareentwickler eine Menge gelernt, aber das Demosaicing bleibt eine echte Herausforderung. Auf der anderen Seite stellen Foveons X3-Sensoren eigene Herausforderungen, auch, aber nicht nur an die Softwareentwickler; sonst hätten sie sich längst allgemein durchgesetzt. Vollfarbsensoren und solche mit Bayer-Filter haben jeweils ihre eigenen Vor- und Nachteile, und so lange man Bayer-Sensoren in so vielfältigen Ausführungen überall wohlfeil bekommt, haben es die Vollfarbsensoren schwer. ich finde es trotzdem schwierig: wenn eine -sagen wir mal rote-kante eine grüne pixelweit überdeckt, dann kann man evtl. das rot zurückrechnen, aber dadurch wird doch nicht die "darunterliegende" information des grünen bildes sichtbar... kurz: selbst wenn die abberation herausgerechnet wird, also keine störenden farbsäume, so bleibt doch dann doch an diesen stellen ein "informationsloch". oder? Das grüne Bild ist ja da; man muss es nicht rekonstruieren. Alle drei Farbauszüge sind vorhanden, nur kommen sie zum Rand hin immer weniger zur Deckung, und wenn das Grün etwas mehr zur einen Seite hervorlugt und das Rot mehr zur anderen, erhält man rot-grüne Farbsäume, die ein eigentlich weißes Motiv auf schwarzem Grund umgeben. Entzerrt man die Farbauszüge dann so, dass sie wieder zur Deckung kommen, addieren sich Rot, Grün und Blau, je nach ihrer Intensität, zu Weiß oder Schwarz. Es kommt nur darauf an, dass man die Werte von Rot, Grün und Blau unabhängig voneinander vorliegen hat. Das gilt ja eigentlich auch für den Farbfilm, und insofern könnte man das rein theoretisch auch mit einem Farbfilm machen, wenn sich dessen Emulsionsschichten voneinander ablösen, jeweils einzeln ziehen und stauchen und am Ende wieder zusammenkleben ließen – was leider in der Praxis kaum möglich wäre, bei den unendlich plastischen digitalen Daten aber gar kein Problem ist. Link to post Share on other sites More sharing options...
feuervogel69 Posted March 9, 2010 Share #186 Posted March 9, 2010 ich habe mich nicht gut ausgedrückt.... die rgb entzerrung und deckungsgleichheit ist klar, ich erfinde mal ein anderes beispiel: gestrypp im hintergrund (zweiglein von bäumen o.s.) und im vordergrund eine stele, die jetzt angenommerweise mit CA´s auf dem sensor landet. die abberation an sich wird jetzt herausgerechnet,soweit alles klar, aber hinter den farbsäumen auf dem bild, befanden sich doch in der praxis informationen der realen zweigleins ;-)) entsteht nicht in unserem falle dann so etwas wie ein leichter halo-also dort wo früher die ca war, ist zwar jetzt keine farbinfo, aber doch auch nicht die reale info dessen was dort eigentlich war. ? im unterschied dazu ein real korrigiertes objektiv doch hier dann tatsächlich die stelenkante und sofort anschließend die zweigleinstrukturen zeigen müßte.oder? Link to post Share on other sites More sharing options...
Guest Land Posted March 9, 2010 Share #187 Posted March 9, 2010 Advertisement (gone after registration) ich habe mich nicht gut ausgedrückt.... die rgb entzerrung und deckungsgleichheit ist klar, ich erfinde mal ein anderes beispiel: gestrypp im hintergrund (zweiglein von bäumen o.s.) und im vordergrund eine stele, die jetzt angenommerweise mit CA´s auf dem sensor landet. die abberation an sich wird jetzt herausgerechnet,soweit alles klar, aber hinter den farbsäumen auf dem bild, befanden sich doch in der praxis informationen der realen zweigleins ;-)) entsteht nicht in unserem falle dann so etwas wie ein leichter halo-also dort wo früher die ca war, ist zwar jetzt keine farbinfo, aber doch auch nicht die reale info dessen was dort eigentlich war. ? im unterschied dazu ein real korrigiertes objektiv doch hier dann tatsächlich die stelenkante und sofort anschließend die zweigleinstrukturen zeigen müßte.oder? "in unserem Falle" ist gut, es ist eine Falle, in der Tat: Vermutlich versucht die Software das zu tun, was unser Hirn mit solchen Informationen macht - com put are. Ich denke immer noch, daß die Annahme einfacher Optik in Verbindung mit mittelmäßigem Chip und hochwertiger Software mehr ausrichten wird, als wir uns das heute vorstellen ! Dabei meine ich Kamera-Software, die insichtbar im Hintergrund arbeitet und keinesfalls nachträgliches PS oähnl. Heute fällt mir auf, daß digitale Bilder nicht nur den Hautgout http://de.wikipedia.org/wiki/Hautgout des analogen Bildes vermissen lassen, sondern auch noch den Eindruck oder Verdacht erwecken, nicht richtig echt oder wirklich zu sein - irgendetwas fehlt oder ist zuviel - ob das die extreme Schärfe ist, die künstlich wirkt oder eine weniger gute Tiefenwirkung des Bildes, das von der Natur abweicht- ich weiß es nicht, bin aber am nachforschen. Ich muß zugeben, daß die digitale Technik ihre Vorteile hat aber mich nicht dauerhaft überzeugt (nach tausenden von Vergleichen von allen Marken und Optiken und Foren, Suchmaschinen etc.) - so wie es jetzt ausschaut, werde ich nach der Fertigstellung div. Serien doch wieder auf analog umsteigen oder solange pausieren, bis sich eine augenähnlichere Technik durchgesetzt hat.... (Die bisherige Analyse lässt mich in diese Richtung denken, daß manche Bilder mit zu offener Blende -dh. zu geringer Tiefenschärfe bei extrem kurzen Zeiten und nachträglichem PS Gefummel gemacht worden sind - ) Link to post Share on other sites More sharing options...
mjh Posted March 9, 2010 Share #188 Posted March 9, 2010 gestrypp im hintergrund (zweiglein von bäumen o.s.) und im vordergrund eine stele, die jetzt angenommerweise mit CA´s auf dem sensor landet. die abberation an sich wird jetzt herausgerechnet,soweit alles klar, aber hinter den farbsäumen auf dem bild, befanden sich doch in der praxis informationen der realen zweigleins ;-)) entsteht nicht in unserem falle dann so etwas wie ein leichter halo-also dort wo früher die ca war, ist zwar jetzt keine farbinfo, aber doch auch nicht die reale info dessen was dort eigentlich war. ? Zunächst einmal führt die Formulierung „hinter den Farbsäumen“ in die Irre. Man darf sich die laterale chromatische Aberration nicht so vorstellen, als würde ein Maler erst einmal ein perfektes Bild malen, um dann an einigen Stellen farbige Säume über die Kontrastkanten zu pinseln, mit denen er seine so mühsam gemalten Details überdeckt. In einem Foto überdecken die Farbsäume nicht das eigentliche Bild; vielmehr sind sie das Bild. Nur eben ein Bild, bei dem die Bildelemente in den drei Farbauszügen nicht an genau derselben Stelle stehen. Wenn man diese gerade rückt, verschwinden die Farbsäume. Anders gesagt: Die Farbsäume enthalten keine zusätzliche Farbe; sie bestehen aus den realen vom Motiv reflektierten Farben, nur leider etwas unsortiert. Und zwar auf eine präzise beschreibbare Weise unsortiert, weshalb wir die gewünschte Ordnung wieder herstellen können. Da wir in der Regel dreidimensionale Szenerien fotografieren ist die Sache noch etwas komplizierter, denn außerhalb der Schärfenebene treffen in einem Pixel Strahlen von unterschiedlichen Punkten der Szene zusammen. Aber deshalb ist das Bild ja auch außerhalb der Schärfenebene unscharf, und die chromatische Aberration geht in der Unschärfe unter. Schließlich gibt es noch die longitudinale chromatische Aberration, aufgrund derer auch die Schärfenebene von der Wellenlänge des Lichts abhängt, und was diese betrifft, sind wir allein auf die optische Korrektur des Objektivs angewiesen. Link to post Share on other sites More sharing options...
feuervogel69 Posted March 9, 2010 Share #189 Posted March 9, 2010 ich gebe zu, daß "hinter den farbsäumen" unzulässig reales bild und abgebildetes bild vermischte....;-)) nun ja. was bleibt? wenn die farbsäume die größer als der pixelpitch sind, herausgerechnet werden, sinkt die auflösung im gleichen maßstab, da ja an die stelle der herausgerechneten werte keine reale information tritt, sondern nur interpoliertes. letztlich kann nur eine messung für einen bestimmten fall eine auflösung angeben und ermitteln. danke für die interessanten erläuterungen michael. weiter bracuht man es hier wahrscheinlich nicht zu treiben, das würde sonst uferlos. wenn ich dereinst mal den r3800 haben sollte und auflösung vermisse, dann knipse ich einfach ein paar bilder mehr und stitche die zusammen ;-))) ganz ohne theoretische beugung und praktische abberationen ;-) lg matthias Link to post Share on other sites More sharing options...
Guest Land Posted March 10, 2010 Share #190 Posted March 10, 2010 Irgendwelche kleinen techn. Unzulänglichkeiten oder Flickschustereien, wie diese Farbsäume und Artefakte zu beseitigen, wird es immer geben- der chemische Film war eigentlich auch nichts anders. Hätte ich nur die Vergleiche von so manchem teueren jap. Hersteller zu sehen bekommen, die zuweilen recht sonderbare und befremdlich wirkende Bilder bringen, könnte recht schnell das ganze Steckenpferd den Funfaktor verlieren. Nochmal: Da die Labore nur noch digital abtasten und daraus Vergrößerungen machen, ist jeder Versuch Qualität zu fotografieren sinnlos, weil diese auf ein fast unerträgliches Niedrigniveau gebracht wird. Unfreundlich waren die Fotoläden eigentlich immer... (SW halte ich bei meiner speziellen Fotografie für informationsverarmt, die Natur ist farbig, - das C41 Verfahren und die damit verbundenen Umstände sind mir zu viel, sonst wäre das eigene Labor längst eingerichtet) Die digitale Fotografie hat ganz unbestritten neue Freiheiten gebracht, die konkreten Bildvergleiche lassen -nach meinen sehr sorgfältig und langen Beobachtungen- eher kompakte Festbrennweiten punkten, die mit guter Software erstaunliches leisten, allemal mehr als ausreichend für den Hobbybereich. (Ohne das Bild nachträglich aufbrezeln zu müssen) Link to post Share on other sites More sharing options...
pop Posted March 10, 2010 Share #191 Posted March 10, 2010 (SW halte ich bei meiner speziellen Fotografie für informationsverarmt, die Natur ist farbig Die Natur ist dreidimensional. Sie bewegt sich. Sie lärmt und riecht. Kann die S2 Gerüche aufzeichnen ("S" für "Smell")? Link to post Share on other sites More sharing options...
Guest Land Posted March 10, 2010 Share #192 Posted March 10, 2010 Die Natur ist dreidimensional. Sie bewegt sich. Sie lärmt und riecht. Kann die S2 Gerüche aufzeichnen ("S" für "Smell")? Etwa so, als wenn mir jemand beim Anschauen der Web-Bilder über die Schulter schnauft und bei jedem Schritt der Monitor wackelt? (Dielen) Link to post Share on other sites More sharing options...
01af Posted March 10, 2010 Share #193 Posted March 10, 2010 Die Natur ist dreidimensional. Sie bewegt sich. Sie lärmt und riecht. Kann die S2 Gerüche aufzeichnen ("S" für "Smell")? Mir scheint, da verwechselt jemand das Bild von der Wirklichkeit mit der abgebildeten Wirklichkeit. Eine Kamera ist nicht dazu da, die Wirklichkeit nachzuahmen. Das kann sie nicht, und das soll sie auch gar nicht. Auch wenn manche Leute irrigerweise glauben, eine perfekte Fotografie sei ein Stück geklonte Wirklichkeit. Link to post Share on other sites More sharing options...
pop Posted March 10, 2010 Share #194 Posted March 10, 2010 Mir scheint, da verwechselt jemand das Bild von der Wirklichkeit mit der abgebildeten Wirklichkeit. Nicht wirklich. Die Karte ist nicht das Territorium. Eine Kamera ist nicht dazu da, die Wirklichkeit nachzuahmen. Das kann sie nicht, und das soll sie auch gar nicht. Auch wenn manche Leute irrigerweise glauben, eine perfekte Fotografie sei ein Stück geklonte Wirklichkeit. Die Argumentation ging wie folgt: Land hat bemerkt, dass sein (ihr) Stil der Fotografie nach Farbe ruft, da die Natur farbig sei. Ich habe dann versucht, darauf hinzuweisen, dass die Natur noch mehr Attribute hat, wie zum Beispiel die Räumlichkeit usw. Die Implikation ist, dass bei der Fotografie wie auch bei jeder anderen darstellenden Kunst eine Form von Abstraktion oder Reduktion angewandt wird. So lässt sich ohne weiteres zeigen, dass (nach dem heutigen Stand der Technik) jede Form der Fotografie auf die Wiedergabe des Geruchs verzichtet, sehr viele (aber nicht alle) verzichten auf die Wiedergabe der Räumlichkeit, der Bewegung, der Farben. Weitere Reduktionen sind sicherlich ohne grosse Schwierigkeit erfindbar oder entdeckbar. Umgekehrt kann natürlich die Fotografie auch abändern oder hinzu erfinden. Solarisation, HDR und andere Manipulationen des Wert- und Farbumfangs kommen hier beispielhaft in den Sinn. Link to post Share on other sites More sharing options...
ferdinand Posted March 10, 2010 Share #195 Posted March 10, 2010 philosophisch gut gesprochen aber wo bleiben Eure Bilder dazu? Die will ich mal sehen Link to post Share on other sites More sharing options...
01af Posted March 11, 2010 Share #196 Posted March 11, 2010 Die Argumentation ging wie folgt: Land hat bemerkt, dass sein (ihr) Stil der Fotografie nach Farbe ruft, da die Natur farbig sei. Ich habe dann versucht, darauf hinzuweisen, dass die Natur noch mehr Attribute hat, wie zum Beispiel die Räumlichkeit usw. Ja ... ich hätte meine Anmerkung mit einem Zitat von "Land" einleiten sollen statt dem von dir. Schließlich war der eigentliche Auslöser meiner Befremdnis die Aussage "S/W halte ich bei meiner speziellen Fotografie für informationsverarmt, die Natur ist farbig" – zumal man vielen von "Lands" Bildern auf seiner Webseite schon auf drei Meilen gegen den Wind ansieht, daß sie vom Farbnegativ gescannt sind. Bevor ich solche krummen Farben akzeptiere, fotografiere ich lieber schwarzweiß. Übrigens, die Ursache dieser für gescannte Farbnegative so typischen verzerrten Farbwiedergabe ist nicht etwa beim Farbnegativfilm zu suchen, sondern beim Invertierungsverfahren der Scan-Software. Ich kenne nur zwei Programme, die diese Invertierung, also die Umwandlung des Farbnegativs in ein Positiv, richtig machen: SilverFast von LaserSoft Imaging und ColorNeg bzw. ColorPerfect von C F Systems. Alles andere ergibt Murks. Link to post Share on other sites More sharing options...
Guest Land Posted March 11, 2010 Share #197 Posted March 11, 2010 Ja ... ich hätte meine Anmerkung mit einem Zitat von "Land" einleiten sollen statt dem von dir. Schließlich war der eigentliche Auslöser meiner Befremdnis die Aussage "S/W halte ich bei meiner speziellen Fotografie für informationsverarmt, die Natur ist farbig" – zumal man vielen von "Lands" Bildern auf seiner Webseite schon auf drei Meilen gegen den Wind ansieht, daß sie vom Farbnegativ gescannt sind. Bevor ich solche krummen Farben akzeptiere, fotografiere ich lieber schwarzweiß. Übrigens, die Ursache dieser für gescannte Farbnegative so typischen verzerrten Farbwiedergabe ist nicht etwa beim Farbnegativfilm zu suchen, sondern beim Invertierungsverfahren der Scan-Software. Ich kenne nur zwei Programme, die diese Invertierung, also die Umwandlung des Farbnegativs in ein Positiv, richtig machen: SilverFast von LaserSoft Imaging und ColorNeg bzw. ColorPerfect von C F Systems. Alles andere ergibt Murks. Soso, mein "Echtheitsbeweis" ist die Landschaft, zu der ich Dich recht herzlich einlade. (Gerne auch zu Kaffee und Kuchen) Zeige doch mal ein paar Bilder oder Links dazu aus Deinem Schaffen. (Das mit den Scan's stimmt nicht, wenn es um die URL geht, bei den Links jedoch zur Hälfte,- dann aber vom Positiv, nicht vom Negativ !) Link to post Share on other sites More sharing options...
Jonsi Posted March 11, 2010 Share #198 Posted March 11, 2010 Au weia. [...] Um das einmal klarzustellen: Ein Objektiv ist bei einer bestimmten Blende beugungsbegrenzt, wenn es, ausgehend von eben dieser Blende, sowohl beim Aufblenden wie auch bei Abblenden schlechter wird. Oder andersherum formuliert: die optimale Blende eines Objektives ist grad die, bei der es beugungsbegrenzt ist. Oder genauer: bei der es beginnt, beugungsbegrenzt zu sein – denn ist ein Objektiv bei einer Blende beugungsbegrenzt, so ist es das natürlich auch bei allen kleineren Blenden. Habe den Thread mit großem Interesse gelesen. Aber obige Aussage kann ich nicht nachvollziehen (und sie kann m.E. so auch nicht stimmen). Wenn ein Objektiv ausgehend von der optimalen Blende beim Abblenden schlechter wird, wie kann es dann bei einer kleineren Blende ebenfalls beugungsbegrenzt sein (also beim aufblenden schlechter werden) ? Oder mache ich hier einen Denkfehler? Jonsi. Link to post Share on other sites More sharing options...
mjh Posted March 11, 2010 Share #199 Posted March 11, 2010 Aber obige Aussage kann ich nicht nachvollziehen (und sie kann m.E. so auch nicht stimmen). Wenn ein Objektiv ausgehend von der optimalen Blende beim Abblenden schlechter wird, wie kann es dann bei einer kleineren Blende ebenfalls beugungsbegrenzt sein (also beim aufblenden schlechter werden) ? Oder mache ich hier einen Denkfehler? Dir ist die feine Unterscheidung entgangen, dass mit „Das Objektiv ist bei Blende X beugungsbegrenzt“ üblicherweise gemeint ist, dass es ab dieser Blende beugungsbegrenzt ist, also auch bei kleineren Blenden – aber bei keiner größeren Blende. Man kann es aber auch wörtlich nehmen. Nach der ersten Lesart folgt daraus, dass das Objektiv bei jeder größeren Blende nicht mehr beugungsbegrenzt ist, nach der zweiten jedoch nicht. In der zweiten, wörtlichen Lesart heißt es nur, dass man sich irgendwo innerhalb des beugungsbegrenzten Bereichs befindet. Link to post Share on other sites More sharing options...
Guest Land Posted March 11, 2010 Share #200 Posted March 11, 2010 Dir ist die feine Unterscheidung entgangen, dass mit „Das Objektiv ist bei Blende X beugungsbegrenzt“ üblicherweise gemeint ist, dass es ab dieser Blende beugungsbegrenzt ist, also auch bei kleineren Blenden – aber bei keiner größeren Blende. Man kann es aber auch wörtlich nehmen. Nach der ersten Lesart folgt daraus, dass das Objektiv bei jeder größeren Blende nicht mehr beugungsbegrenzt ist, nach der zweiten jedoch nicht. In der zweiten, wörtlichen Lesart heißt es nur, dass man sich irgendwo innerhalb des beugungsbegrenzten Bereichs befindet. Das leuchtet natürlich ein, ist gut erklärt, aber: Schaut man sich die Bilder an, die -trotz dieser Erkenntnisse- in den Foren zu sehen sind, reibt man sich verwundert die Augen. (Wenn nicht mal mehr die Farben stimmen, wird`s eng in der Fotografie, die langsam aber sicher zur BilderPS-Bastelstube verkommt, bei der solche Überlegungen mehr als feinsinnig angesehen werden können.) Der Trend geht zum "automatisch guten" Bild- wer braucht heute noch Wissen um die manuelle Fotografie, viele sind schon zu bequem um den Fokus per Hand zu finden?! Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.