joachimeh Posted June 5, 2007 Share #1 Posted June 5, 2007 Advertisement (gone after registration) Hallo, kann mir hier jemand bitte einen Hinweis geben wie die Korrektur der chromatischen Aberration in der elektronischen Nachbearbeitung prinzipiell funktioniert. Ich benutze PTlens und bin mit dieser Software recht zufrieden, möchte aber wissen, was da vonstattengeht. Ich glaube, beobachtet zu haben, dass dort die Bilder in die einzelnen Farbkanäle zerlegt und dann mit den Schiebereglern "Rot - Cyan" und "Blau - Gelb" soweit hin un her verschoben werden, bis die Verfärbung verschwindet. Das würde aber doch bedeuten, dass, wenn z.B. der Bildquadrant links oben korrigiert ist, der rechts unten umso mehr chromatische Fehler hätte, wenn nicht gleichzeitig eine Skalierung des verschobenen Kanalbildes erfolgen würde. Also, wie funktioniert es nun wirklich, das möchte ich wissen, um so exakt wie möglich zu arbeiten. Ich beutze die V-Lux 1 und habe bislang chr. Aberration nur bei sehr starken Kontrasten im Gegenlicht bei starker Vergrösserung wahrgenommen. Wenn ich allerdings den Panasonic WW-Konverter LW55 0,7 hinzufüge, wird die chr. Aberration schon bei weniger starken Kontrasten sichtbar. Link to post Share on other sites More sharing options...
Advertisement Posted June 5, 2007 Posted June 5, 2007 Hi joachimeh, Take a look here Chromatische Aberration. I'm sure you'll find what you were looking for!
mjh Posted June 5, 2007 Share #2 Posted June 5, 2007 Man kann sich das als eine individuelle Entzerrung der drei Farbkanäle vorstellen. Vereinfacht gesagt, erscheinen die Bilder im roten, grünen und blauen Kanal unterschiedlich groß, und wenn man diese Bilder passend verkleinert beziehungsweise vergrößert, kommen die Konturen in allen drei Kanälen wieder zur Deckung. Tatsächlich kann die Verschiebung komplexer sein, so daß eine einfache, lineare Skalierung den Fehler nicht vollständig beseitigt. Die gängigen Raw-Konverter bieten, sofern sie die chromatische Aberration überhaupt korrigieren können, aber nur ein einziges, für die meisten Objektive halbwegs geeignetes Skalierungsverfahren an, bei dem man nur das Ausmaß der Korrektur kontrollieren kann. Wenn die zu korrigierenden Objektive bekannt sind, kann man die tatsächliche Verschiebung sehr viel genauer ausmessen oder ausrechnen, und dann jedes Pixel eines Farbkanals in Abhängigkeit von seiner Lage im Bild um einen genau berechneten Betrag verschieben. Wie präzise das Panasonic beispielsweise bei der V-Lux1 modelliert hat, weiß ich nicht; Details haben sie nicht veröffentlicht. Von Hasselblad weiß ich, daß sie das Ausmaß der nötigen Skalierung durch ein Polynom fünften Grades beschreiben; damit sind schon sehr genaue Annäherungen an die nötigen Verschiebungen von der Bildmitte bis zu den Ecken hin möglich. Link to post Share on other sites More sharing options...
joachimeh Posted June 5, 2007 Author Share #3 Posted June 5, 2007 Danke, Michael, das bestätigt meine Beobachtung (Verschiebung und Skalierung der einzelnen Kanäle). Ob die Skalierung linear oder polynom erfolgt ist für mich weniger wichtig, ich verstehe jetzt das Prinzip. Link to post Share on other sites More sharing options...
Leica(at)Palatinate Posted June 6, 2007 Share #4 Posted June 6, 2007 Unter chromatischer (Laengs-)Aberation verstand ich bisher immer die Abhaengigkeit der Brennweite von der Wellenlaenge des Lichtes, bzw. den daraus resultierenden Fehler bzgl. der nominellen Brennweite, was der Linsenhersteller versucht, per Design zu optimieren. Eure Frage und Antworten machen mich da etwas perplex. Habe ich da etwas verpasst? Gruss, Hermann Link to post Share on other sites More sharing options...
gerd_heuser Posted June 6, 2007 Share #5 Posted June 6, 2007 Nein, warum? Du hast nichts verpaßt. Mit der Brennweite verändert sich auch der Abbildungsmaßstab, so daß die Farbteilbilder wenn Restfehler vorhanden sind, unterschiedlich groß abgebildet werden. Das ist alles. Link to post Share on other sites More sharing options...
rbihler Posted June 7, 2007 Share #6 Posted June 7, 2007 Ihr seid echt gut - was man hier alles lernt. SUPER ! Gruß Reiner Link to post Share on other sites More sharing options...
Leica(at)Palatinate Posted June 7, 2007 Share #7 Posted June 7, 2007 Advertisement (gone after registration) Wow! - Ich schliesse mich dem Lob von Reiner an. Trotzdem erstaunlich, dass man sich die Muehe macht, die meinem Gefuehl nach minimalen Rest-Unterschiede in der Abbildungsgroesse (und wohl auch noch in der Verzerrung ueber die Bildflaeche, wie oben angedeutet) digital zu korrigieren. Die Abweichungen fuer die drei Wellenlaengen muessten demnach mindestens im Bereich der Pixelgroesse liegen und haengen dann auch noch von dem Grad der Korrektur der Optik ab (von Objektiv zu Objektiv unterschiedlich), wie oben bereits erwaehnt. Waere das ein neues APO-Konzept, indem man digital geeignete Objektive gezielt auf die drei Wellenlaengen der Sensoren hin optimiert statt auf eine moeglichst flache Kurve im gesamten sichtbaren Bereich hin? Gruss, Hermann Link to post Share on other sites More sharing options...
gerd_heuser Posted June 7, 2007 Share #8 Posted June 7, 2007 Waere das ein neues APO-Konzept, indem man digital geeignete Objektive gezielt auf die drei Wellenlaengen der Sensoren hin optimiert statt auf eine moeglichst flache Kurve im gesamten sichtbaren Bereich hin? Ich verstehe zwar nicht ganz, was du mit "flache Kurve" meinst (im fotografischen Zusammenhang :-)) aber dieser Weg ist kein Weg. Wo im Motiv sich die spektralen Anteilsverteilungen befinden, ist ja völlig statistisch. Andere Wege sind auch schon beschritten worden, nämlich mit Glasfaseroptik, wo die einzelnen Pixel mit einer eigenen Glasfaser versorgt werden, und das Bündel nach den Grundfarben aufgeteilt wird. In etwa verwandt mit den 3CCD-Cams PS: Nochmal zu den "digital optimierten" Objektiven: Zumeist Werbegewäsch. Erstes Ziel eines Objektivbauers ist möglichst hoher Mikrokontrast woraus eine hohe Auflösung folgt. Bei den besten Leicaoptiken sind wir da an der Grenze des wirtschaftlich sinnvollen angelangt, teilweise schon an der theoretischen Beugungsbegrenzung. Das ist sowohl für analog als auch digital das Optimum. Digital blenden andere Hersteller sogar die feinsten Strukturen mit dem AA-Filter wieder weg. Nun gibt es noch zwei Parameter, die sich "digital optimiert" schimpfen. Einmal ein kleinerer Bildkreis für nicht Vollformatsensoren, wo der Konstrukteur innerhalb dieses Bildkreises weniger Kompromisse eingehen muß als wenn er auch außerhalb auf die Korrektur Rücksicht nehmen muß. Zweitens die telezentrische Konstruktion, damit die abbildenden Strahlen in möglichst spitzem Winkel auf den Sensor fallen. Dies ist bei den SLRs per se schon notwendig gewesen, bei den vorhandenen Gegebenheiten der M eben gerade nicht, woraus die ganzen Zwänge der M8 resultieren, die von einigen Querulanten Leica angelastet werden. Link to post Share on other sites More sharing options...
mjh Posted June 7, 2007 Share #9 Posted June 7, 2007 Trotzdem erstaunlich, dass man sich die Muehe macht, die meinem Gefuehl nach minimalen Rest-Unterschiede in der Abbildungsgroesse (und wohl noch auch in der Verzerrung ueber die Bildflaeche, wie oben angedeutet) digital zu korrigieren. Die Abweichungen fuer die drei Wellenlaengen muessten demnach mindestens im Bereich der Pixelgroesse liegen und haengen dann auch noch von dem Grad der Korrektur der Optik ab (von Objektiv zu Objektiv unterschiedlich), wie oben bereits erwaehnt. Das kommt auf das Objektiv an. Bei Panasonics FZ10 aus dem Jahre 2003 beispielsweise waren im extremen Telebereich Farbsäume zu sehen, die im Randbereich schon ein paar Pixel breit sein konnten. Die Venus Engine II der Nachfolgerin FZ20 korrigierte dann die chromatische Aberration noch einmal elektronisch nach, woraufhin die Farbsäume fast vollständig verschwunden waren – das Objektiv war das gleiche. Die FZ50 und V-Lux 1 hat ein etwas anderes Objektiv, aber das Ergebnis ist ähnlich. Kompaktkameras eignen sich naturgemäß sehr gut für solche Korrekturen, weil das Objektiv nicht austauschbar ist und man mit festen Korrekturwerten arbeiten kann. Hasselblad wiederum (die 39 Megapixel einer H3D-39 machen auch kleinste Abweichungen sichtbar) kennt seine Wechselobjektive sehr genau; sie lassen einfach das Simulationsmodell, mit dem sie ihre Objektive rechnen, zusätzlich noch das präzise Ausmaß aller Abbildungsfehler bei Tausenden von Kombinationen von Entfernungseinstellung und Blende berechnen und erzeugen daraus Korrekturtabellen für den Raw-Konverter. Andere Raw-Konverter erlauben nur eine manuelle Korrektur; dann muß man nach Sicht arbeiten und den Regler so lange verschieben, bis die Farbsäume ein Minimum erreicht haben. Waere das ein neues APO-Konzept, indem man digital geeignete Objektive gezielt auf die drei Wellenlaengen der Sensoren hin optimiert statt auf eine moeglichst flache Kurve im gesamten sichtbaren Bereich hin?Die Durchlaßbereiche der drei Farbfilter überlappen sich ja über breite Wellenlängenbereiche hinweg; daher wäre das kein so gutes Konzept. Ohne Überlappung wäre die digitale Korrektur noch effektiver, aber was nützt das, wenn man die Farben dafür nicht mehr fein differenzieren kann? Außerdem sollten Objektive auch noch mit der nächsten Sensorgeneration ebenso gut zusammenarbeiten, und man muß damit rechnen, daß die Filter neuer Sensoren etwas andere Durchlaßkurven haben. Link to post Share on other sites More sharing options...
joachimeh Posted June 7, 2007 Author Share #10 Posted June 7, 2007 Trotzdem erstaunlich, dass man sich die Muehe macht, die meinem Gefuehl nach minimalen Rest-Unterschiede in der Abbildungsgroesse (und wohl auch noch in der Verzerrung ueber die Bildflaeche, wie oben angedeutet) digital zu korrigieren. Na ja, so minimal sind die Restfehler unter bestimmten Lichtverhältnissen auch bei der V-Lux nicht. Hier ein Beispiel, an dem es mir auffiel: Welcome, dear visitor! As registered member you'd see an image here… Simply register for free here – We are always happy to welcome new members! Ausschnitt 225x240Px aus einem unbearbeiteten 3648x2736 JPEG Foto, Vario Elmarit f/3.2; f = 11,2mm (53mm); ISO 100, also ganz "normale" Einstellungen. Ich finde der Farbfehler ist recht deutlich, ließ sich aber mit PTLens "vollständig" korrigieren. Link to post Share on other sites Simply register for free here – We are always happy to welcome new members! Ausschnitt 225x240Px aus einem unbearbeiteten 3648x2736 JPEG Foto, Vario Elmarit f/3.2; f = 11,2mm (53mm); ISO 100, also ganz "normale" Einstellungen. Ich finde der Farbfehler ist recht deutlich, ließ sich aber mit PTLens "vollständig" korrigieren. ' data-webShareUrl='https://www.l-camera-forum.com/topic/25983-chromatische-aberration/?do=findComment&comment=275524'>More sharing options...
feuervogel69 Posted June 7, 2007 Share #11 Posted June 7, 2007 nicht alles ist CA..... deine violetten säume sehen mir eher nach überstrahlungen aus! purple fringing o.s.ä. lg matthias Link to post Share on other sites More sharing options...
Leica(at)Palatinate Posted June 10, 2007 Share #12 Posted June 10, 2007 ...Ich verstehe zwar nicht ganz, was du mit "flache Kurve" meinst... Hi Gerd, ich bin erst jetzt in der Lage, Dir zu antworten, weil ich einige Tage an die juengeren postings nicht "dran" gekommen bin. Der admin hat mir helfen muessen (Danke, Andreas!). Die grafische Darstellung der Abhaengigkeit der Brennweite von der Wellenlaenge, bzw. der Fehler der nominellen Abweichung davon, ist eine Kurve (aehnlich einem Polynom). Je mehr ein Objektiv fuer die chromatische Aberation korrigiert ist, desto mehr relative Maxima/Minima (aber geringer in den Ausschlaegen), desto mehr Schnittpunkte mit der idealen Waagrechten gibt es und desto "flacher" wird diese ;-) Kurve. Gruss, Hermann Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.