Guest Land Posted March 5, 2010 Share #61 Posted March 5, 2010 Advertisement (gone after registration) Recht gesagt, Holger. So sehe ich das auch- mir ging es nur mal (auch mitten im schönsten Technik-Kauderwelch) so um den Einwurf, weshalb diese Technik überhaupt gebraucht wird, damit das nicht ganz vergessen wird... Link to post Share on other sites More sharing options...
Advertisement Posted March 5, 2010 Posted March 5, 2010 Hi Guest Land, Take a look here Wo liegt die theoretische Auflösungsgrenze?. I'm sure you'll find what you were looking for!
Steve Ash Posted March 5, 2010 Share #62 Posted March 5, 2010 Holger, +1 Meine Meinung zu dem Thema: Ein gutes Bild wird nicht dadurch schlechter, dass es ebenso in technischer Hinsicht brilliert. Und auch der Entstehungprozess und damit die Ausrüstung darf ein Teil der Freude am Bild sein. Dies ist es, was mich zu Leica geführt hat. Am guten Bild (inhaltlicher Teil) arbeite ich freilich noch. Gruß Steve Link to post Share on other sites More sharing options...
mjh Posted March 5, 2010 Share #63 Posted March 5, 2010 im prinzip kann man in der letzten tabelle gut sehen, daß die m9 fast schon im roten farbbereich (ich lasse jetzt mal interpolation etc. außen vor) bei blende 8 beugungsbegrenzt arbeitet. (19mpix ist hier als beugungsgrenze angegebn (2 pixel für ein airy-scheibchen)! einfach nur ein gedankenanstoß meinerseits, daß man die auflösung bei KB wirklich sinnvoll nicht unbedingt jetzt unbegrenzt steigern kann. die frage wäre ja auch bei welcher blende leicas objektive beugungsbegrenzt sind. Noch eine Ergänzung: Das Problem ist, dass Du den Begriff „beugungsbegrenzt“ hier in zwei unterschiedlichen Bedeutungen verwendest. Was nicht Deine Schuld ist; das wird in letzter Zeit dauernd getan und ich habe mich in dieser Sache vermutlich auch schon schuldig gemacht. Wie auch immer … Traditionell findet man den Begriff „beugungsbegrenzt" in Beschreibungen der Abbildungsqualität eines Objektivs (oder Teleskops, Mikroskops etc.). Man bezeichnet ein Objektiv als (bei einer bestimmten Blende) beugungsbegrenzt, wenn es das Licht nach den Kriterien der geometrischen Optik zu einem kleineren Kreis als das Beugungsscheibchen bei dieser Blende bündelt. Je größer die Blende, bei der ein Objektiv beugungsbegrenzt ist, desto besser ist es korrigiert, und bei Teleskopen, die man nicht abblenden kann oder zumindest nicht abblenden möchte, verlangt man, dass sie schon offen beugungsbegrenzt sind. In diesem Zusammenhang stellt „beugungsbegrenzt“ also einen Zusammenhang zwischen der Unschärfe aufgrund von Abbildungsfehlern und der Unschärfe aufgrund der Beugung her. In den letzten Jahren wird „beugungsbegrenzt“ allerdings auch benutzt, um einen Zusammenhang zwischen der Beugung und dem Auflösungsvermögen von Sensoren herzustellen. Man sagt dann, dass eine Kombination von Objektiv und Sensor bei einer bestimmten Blende beugungsbegrenzt sei, wenn eine höhere Zahl entsprechend kleinerer Sensorpixel die effektive Auflösung nicht weiter erhöhen würde, weil die Beugung die Auflösung bereits stärker begrenzt als die Auflösung des Sensors. Hierbei spielt die Abbildungsqualität des Objektivs keine Rolle; man geht vielmehr von einem Objektiv aus, das frei von Abbildungsfehlern ist – selbst bei einem solchen, natürlich hypothetischen Objektiv würde die Beugung allein schon der Auflösung eine Grenze setzen, die enger als die Auflösungsgrenze des Sensors gezogen ist; bezieht man die nie ganz vermeidbaren Abbildungsfehler mit ein, wird es nur um so schlimmer. Bei der einen Lesart von „beugungsbegrenzt“ geht es also um den Zusammenhang zwischen Abbildungsqualität und Beugung, wobei die Auflösung von Sensor oder Film keine Rolle spielt, bei der anderen um den Zusammenhang zwischen der Sensorauflösung und der Beugung, wobei die Abbildungsqualität des Objektivs keine Rolle spielt. So oder so wird aber kein Zusammenhang zwischen der Abbildungsqualität des Objektivs und der Sensorauflösung hergestellt, worauf aber die ursprünglich hier gestellte Frage zielte. Link to post Share on other sites More sharing options...
feuervogel69 Posted March 5, 2010 Share #64 Posted March 5, 2010 ? was du sagst ist zwar richtig, aber ich hatte die frage hier im trhead eben nach der "theoretisch" möglichen auflösung verstanden. und eben: wo die ganze zeit die auflösung durch die begrenzugn des sensors diskutiert wurde, woltle ich hier die theoretisch überhaupt mögliche seitens der objektive zeigen... wollte man das ganze PRAKTISCH diskutieren müßte man natürlich mal ein ganz konkretes objektiv hernehmen und konkrete sensoren und dann schauen wie weit es geht. mein ziel war, zu zeigen, daß allein durch die beugung momentan z.b. bei blende 8 und rotem licht eigentlich die m9 fast ausgereizt ist. blende 4 ist sicher bei leica absolut bestens korrigiert, so daß hier noch reserve ist, aber es ist eben einfach nicht so, daß man hier die auflösung ohne weiteres auf 70 mpix hochschrauben könnte. man will ja auch bei blende 8 noch die volle schärfe haben. also dies noch angemerkt: was will man mit 70 mpix auf KB, wenn dann ab blende 4 die auflösung durch beugung reduziert wird? rote blumen dann verwaschen aussehen, das bild matschig wird? evtl. wird man bis 40 mpix herausholen können (halbierung des jetzigen pixelpitches), aber ich halte eigentlich eher die steigerung der dynamik für sinnvoller asl noch mehr auflösung.... also so oder so, ist die frage, was man eigentlich gewinnt, wenn man noch mehr pixel auf dei KB-fläche macht, bzw. was man am anderen ende dafr bezahlen muß an qualität. daß die ganze geschichte eine balance darstellt, wird viel zu oft einfach nicht begriffen. die einzige wirkliche exorbitante auflösungssteigerung wäre ein foveon-sensor in KB und irgendwas 14 mix...aber das geht technisch irgendwie nicht. leider.... lg Link to post Share on other sites More sharing options...
saxo Posted March 5, 2010 Share #65 Posted March 5, 2010 ...evtl. wird man bis 40 mpix herausholen können (halbierung des jetzigen pixelpitches), aber ich halte eigentlich eher die steigerung der dynamik für sinnvoller asl noch mehr auflösung.... Interessiert habe ich den Thread gelesen, und einiges gelernt. Wenn ich mir so die Entwicklung in den letzten Jahren anschaue, dann wird es in Zukunft immer mehr spezialisierte Kameras geben für verschiedene Zwecke: hohe Lichtempfindlichkeit /Dynamik oder hohe Auflösung, etc. IMHO lässt sich eben nicht alles unter einen Hut bringen. Die eierlegende Wollmilchsau, also eine Kamera für jeden Einsatzzweck, wird es in optimaler Qualität nicht geben. Gruß Martin Link to post Share on other sites More sharing options...
01af Posted March 5, 2010 Share #66 Posted March 5, 2010 Traditionell findet man den Begriff „beugungsbegrenzt" in Beschreibungen der Abbildungsqualität eines Objektivs (oder Teleskops, Mikroskops etc.). Man bezeichnet ein Objektiv als (bei einer bestimmten Blende) beugungsbegrenzt, wenn es das Licht nach den Kriterien der geometrischen Optik zu einem kleineren Kreis als das Beugungsscheibchen bei dieser Blende bündelt. Au weia. Da kommt jetzt wieder der fotoMAGAZIN-"Experte" durch, oder wie? Tut mir leid, aber solches Geschwafel regt mich auf! Seit einigen Jahren begegne ich immer wieder Leuten – im Internet oder im wirklichen Leben –, die bezüglich fotografischer oder fototechnischer Fragestellungen vollkommen hanebüchenes Zeug von sich geben. Und wenn man dann nachforscht, wie sie zu ihrem "Fachwissen" kommen, stellt man fest, sie haben die Color-Foto gelesen ... oder das fotoMAGAZIN ... oder sonst irgend eine einschlägige "Fach"-Publikation. Die Zeiten, in denen die Fachbeiträge in diesen Blättern von sachkundigen Leuten wie z. B. Alexander Borell, Harald Mante, Walter E. Schön oder Josef Scheibel stammten, sind wohl endgültig vorbei ... Um das einmal klarzustellen: Ein Objektiv ist bei einer bestimmten Blende beugungsbegrenzt, wenn es, ausgehend von eben dieser Blende, sowohl beim Aufblenden wie auch bei Abblenden schlechter wird. Oder andersherum formuliert: die optimale Blende eines Objektives ist grad die, bei der es beugungsbegrenzt ist. Oder genauer: bei der es beginnt, beugungsbegrenzt zu sein – denn ist ein Objektiv bei einer Blende beugungsbegrenzt, so ist es das natürlich auch bei allen kleineren Blenden. Ein entscheidender, aber leider immer wieder falsch darstellter Punkt dabei ist, daß diese Beugungsbegrenzung unabhängig von der Film- oder Sensorauflösung ist. Überschreitet ein Objektiv sein Optimum, so tut es das auf jedem Sensor bei derselben Blende. Der weitverbreitete Irrglaube, die Beugungsgrenze hänge auch von der Sensorauflösung ab, beruht darauf, daß man in der Praxis den Unterschied zum Optimum ja auch irgendwie wahrnehmen können muß. Und auf schwächer auflösenden Sensoren sind geringe Auflösungsunterschiede weniger leicht erkennbar. Wohlgemerkt – es ist nicht so, daß sie nicht da wären! Sie sind nur schwerer erkennbar ... zumal es auch noch andere Faktoren gibt, die einen Einfluß auf die Bildschärfe haben. Dadurch entsteht in der Praxis gern der Eindruck, die Beugungsgrenze verschiebe sich mit der Sensorauflösung. Doch tatsächlich tut sie das nicht. Wenn z. B. ein Objektiv bei einem bestimmten Kontrast 60 Lp/mm auflöst und das andere bei demselben Kontrast 80 Lp/mm, dann sieht man einen Unterschied zwischen den beiden auch dann, wenn der Sensor nur 40 Lp/mm auflösen kann. Deshalb existieren auch keine zwei unterschiedlichen Bedeutungen des Begriffes "beugungsbegrenzt", wie Michael es zu suggerieren versucht. Dabei sollte man sich allerdings darüber im klaren sein, daß es "die" optimale Blende bei den allermeisten Objektiven genau genommen so gar nicht gibt. Denn die Beugungsbegrenzung findet in der Bildmitte in aller Regel bei einer anderen (größeren) Blende statt als am Bildrand oder in der Bildmitte. Welche Blende also optimal sei, hängt u. a. vom Anspruch des Fotografen ab. Wird höchste Auslösung in der Bildmitte gefordert, ist die optimale Blende (und damit die maximale Auflösung) eine andere, als wenn größtmögliche Leistung über das gesamte Bildfeld gefordert wird. Je größer die Blende, bei der ein Objektiv beugungsbegrenzt ist, desto besser ist es korrigiert, und bei Teleskopen, die man nicht abblenden kann oder zumindest nicht abblenden möchte, verlangt man, dass sie schon offen beugungsbegrenzt sind. Das ist jetzt ausnahmsweise einmal richtig. In den letzten Jahren wird „beugungsbegrenzt“ allerdings auch benutzt, um einen Zusammenhang zwischen der Beugung und dem Auflösungsvermögen von Sensoren herzustellen. Man sagt dann, dass eine Kombination von Objektiv und Sensor bei einer bestimmten Blende beugungsbegrenzt sei, wenn eine höhere Zahl entsprechend kleinerer Sensorpixel die effektive Auflösung nicht weiter erhöhen würde, weil die Beugung die Auflösung bereits stärker begrenzt als die Auflösung des Sensors. Das wird in den letzten Jahren tatsächlich immer wieder getan, aber es ist Unfug. Das Auflösungvermögen eines Sensors hängt allein von seinem Pixelabstand ab und sonst von gar nichts. Und das Auflösungsvermögen eines abbildenden Systems aus Objektiv und Sensor ist umso höher, je kleiner der Pixelabstand ist. Da gibt es im Prinzip keine Grenze! Was es gibt, ist eine obere Schranke, die durch die Objektivauflösung gegeben ist. Steigt die Sensorauflösung unter einem gegebenen Objektiv an, so nähert sich die Systemauflösung asymptotisch der Objektivauflösung – doch um sie zu erreichen, müßte die Sensorauflösung unendlich hoch sein. Daraus folgt eine praktische Grenze, einfach weil der Aufwand für eine Steigerung immer größer und zugleich der mögliche Nutzen daraus immer kleiner wird. Doch eine theoretische Grenze existiert NICHT. Je höher die Sensorauflösung, desto höher die Systemauflösung. Immer. Mit jedem Objektiv. Wie Frage ist halt nur, um wieviel höher ...? Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #67 Posted March 6, 2010 Advertisement (gone after registration) Ich bezweifele, daß sich ein Objektiv aus Glas, das ja gewissermaßen "analog" funktioniert, mit einem starren Sensor mit einer gewissen Pixel-Zahl überhaupt vergleichen lässt und bewzeifele, daß jemals die komplette Lichtinformation der Linsen auf eine derart beschränkte Zahl von Sensoren übertragen lässt- für mich als interessierten Laien undenkbar: Somit würde sich die nächste Frage stellen - was wäre, wenn ein und dasselbe Objektiv mit Sensoren div. Auflösung und div. Filmmaterial, gröberes und feinkörniges in den direkten Vergleich kommen würde? Spielt der Durchmesser des Objektives u.U. eine größere Rolle als man zuweilen denkt- dh. wäre ein Objektiv einer Mittelformatkamera - freilich mit entsprechend großem Anschluß - nicht besser ? Manuelle Mittelformat-Objektive an einer DSLR? - DigicamClub - mehr sehen Link to post Share on other sites More sharing options...
01af Posted March 6, 2010 Share #68 Posted March 6, 2010 Ich [...] bewzeifele, daß jemals die komplette Lichtinformation der Linsen auf eine derart beschränkte Zahl von Sensoren übertragen lässt. Natürlich nicht. Deswegen gibt's ja auch keine Auflösungsgrenze. Somit würde sich die nächste Frage stellen – was wäre, wenn ein und dasselbe Objektiv mit Sensoren diverser Auflösung und diversem Filmmaterial, gröberes und feinkörniges, in den direkten Vergleich kommen würde? Seufz. Das habe ich doch jetzt schon mehrmals lang und breit erklärt ... Spielt der Durchmesser des Objektives u. U. eine größere Rolle, als man zuweilen denkt, d. h. wäre ein Objektiv einer Mittelformatkamera – freilich mit entsprechend großem Anschluß – nicht besser? Im Prinzip nein. Was für die Beugung zählt, ist die Größe der Eintrittspupille in Relation zur Brennweite (also die relative Öffnung), nicht die Größe des Bildkreises. In der Praxis aber doch, weil's weniger vignettieren würde. Und weniger Vignettierung bedeutet nicht nur gleichmäßigere Ausleuchtung des Bildfeldes, sondern auch weniger Beugung für die Bildränder. In der Bildmitte aber wär's egal. Manuelle Mittelformat-Objektive an einer DSLR? - DigicamClub - mehr sehen Dummes Geschwafel. Wenn jenes russische Mittelformatobjektiv selbst auf APS-C-Format, also bei Ausblendung der Randbereiche, erst bei Blende 8 bis 11 sein Optimum erreicht, dann ist es eine wertlose Scherbe ... was aber nicht heißt, daß man keine schönen Bilder damit machen könnte. Nur – zur Steigerung der optischen Leistung ist das nicht so ganz der richtige Weg. Link to post Share on other sites More sharing options...
Guest tadakuni Posted March 6, 2010 Share #69 Posted March 6, 2010 Somit würde sich die nächste Frage stellen - was wäre, wenn ein und dasselbe Objektiv mit Sensoren div. Auflösung und div. Filmmaterial, gröberes und feinkörniges in den direkten Vergleich kommen würde? Dann wäre Folgendes: a) Die Abbildungsleistung des jeweiligen Objektivs lässt sich durch eine sogenannte Übertragungsfunktion beschreiben. Das gleiche gilt für den jeweiligen Film/Sensor. c) Die Abbildungsleistung des Gesamtsystems lässt sich ebenfalls durch eine Übertragungsfunktion beschreiben. Diese entspricht näherungsweise dem Produkt der Übertragungsfunktionen der einzelnen Systemkomponenten. Für die "theoretische Grenze" der Übertragungsfuntion des Gesamtsystems "Objektiv - Film/Sensor" bedeutet dies: Sie ist dann erreicht, wenn der Film/Sensor bei allen Ortsfrequenzen kleiner/gleich der "Grenzfrequenz" des jeweiligen Objektivs eine MTF von 100% aufweist. "Grenzfrequenz": Die MTF der beugungsbegrenzten Abbildung eines Objekives erreicht bei der sogenannten Grenzfrequenz ihren durch die jeweilige Blendenzahl und die Wellenlänge des Lichtes bestimmten Null-Wert (strukturloses grau). Grenzfrequenz-Faustformel für die mittleren Wellenlängen des sichtbaren Lichtes: 1500/Blendenzahl Grüße Achim Link to post Share on other sites More sharing options...
ferdinand Posted March 6, 2010 Share #70 Posted March 6, 2010 Au weia. Da kommt jetzt wieder der fotoMAGAZIN-"Experte" durch, oder wie? Tut mir leid, aber solches Geschwafel regt mich auf! Seit einigen Jahren begegne ich immer wieder Leuten – im Internet oder im wirklichen Leben –, die bezüglich fotografischer oder fototechnischer Fragestellungen vollkommen hanebüchenes Zeug von sich geben. Und wenn man dann nachforscht, wie sie zu ihrem "Fachwissen" kommen, stellt man fest, sie haben die Color-Foto gelesen ... oder das fotoMAGAZIN ... oder sonst irgend eine einschlägige "Fach"-Publikation. Die Zeiten, in denen die Fachbeiträge in diesen Blättern von sachkundigen Leuten wie z. B. Alexander Borell, Harald Mante, Walter E. Schön oder Josef Scheibel stammten, sind wohl endgültig vorbei ... ...? Deine Anmaßungen, Deine Klugscheisserei und Dein unhöflicher und respektloser Schreibstil gehen mir allmählich auf den Keks. Ich setz Dich auf Ignore Link to post Share on other sites More sharing options...
altaussee Posted March 6, 2010 Share #71 Posted March 6, 2010 die frage ist doch immer, was heisßt überfordert, was für einen massstab lege ich an? für mich sind einige ww- optiken des r-systems bei weitem mit einer eos5 überfordert, bei der 2er jetzt sogar deutlich... aber z.b. auch das 90er (das alte nicht apo, canada) war restlos überfordert und war schlechter als das canon zoom 24-105, ganz zu schweigen vom (besseren) 70-210er weiss 4.0 , bei "m" wird´s ähnlich sein, also von den alten optiken sind einfach nur die besten zu verwenden, sonst besser gleich japanzooms... beim 50er 1,4 , beim 100er apo makro, beim 180 3,4er, da ist die grenze sicher noch nicht erreicht.... das 28er shift und das 19er waren zwar super, da sind aber die neuen canon shift optiken 17+24 besser, sodass ich sagen muß, diese optiken sind offensichtlich gerade bei 20-25 mio pix an der grenze... übrigens doch sehr enttäuschend: das 35er zeiss ze ist nicht wesentlich besser als das canon zoom 24-105 bei 35mm blende 4.0... und das ist beim canon doch immerhin offene blende!!! da hab ich mir deutlich mehr erwartet.... m.f.g. aus wien Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #72 Posted March 6, 2010 Ich bezweifele, daß sich ein Objektiv aus Glas, das ja gewissermaßen "analog" funktioniert, mit einem starren Sensor mit einer gewissen Pixel-Zahl überhaupt vergleichen lässt und bewzeifele, daß jemals die komplette Lichtinformation der Linsen auf eine derart beschränkte Zahl von Sensoren übertragen lässt- für mich als interessierten Laien undenkbar: Auch der Sensor ist ein analoges Bauelement! Und dass die optische Bildentstehung eine analoge Form der Signalverarbeitung ist, bedeutet nicht, dass es unendlich feine Unterscheidungen gäbe. Licht besteht aus zählbaren Photonen und wenn man extrem kleine Sensorpixel bauen würde, bliebe nur noch die Unterscheidung zwischen einem oder gar keinem Photon, und würde man sie noch kleiner bauen, würden sie überhaupt keine Photonen mehr registrieren. Auch wenn man von der Wellennatur des Lichts ausgeht, stößt man auf Grenzen, die durch die Beugung gesetzt werden. Ein Objektiv ohne jeden Abbildungsfehler wäre schon aufgrund der Beugung nicht in der Lage, das von einem Punkt ausgehende Licht zu einem perfekten Punkt zu bündeln, sondern erzeugt stattdessen ein Beugungsscheibchen. Sensorpixel, die kleiner als das Beugungsscheibchen sind, erzeugen keine effektiv höhere Auflösung mehr. Link to post Share on other sites More sharing options...
PwoS Posted March 6, 2010 Share #73 Posted March 6, 2010 Ein Objektiv ohne jeden Abbildungsfehler wäre schon aufgrund der Beugung nicht in der Lage, das von einem Punkt ausgehende Licht zu einem perfekten Punkt zu bündeln, sondern erzeugt stattdessen ein Beugungsscheibchen. Sensorpixel, die kleiner als das Beugungsscheibchen sind, erzeugen keine effektiv höhere Auflösung mehr. Das ist vermutlich die Kernfrage des Threateröffners. Wie groß ist dieses Beugungsscheibchen, und von welchen Parametern wird seine Größe bestimmt? Ich vermute von der Wellenlänge des Lichtes und der Blendenzahl, oder? Lassen sich konkrete Durchmesser für das sichtbare Spektrum des Lichtes angeben? Link to post Share on other sites More sharing options...
Dikdik Posted March 6, 2010 Share #74 Posted March 6, 2010 ........................................... Das Auflösungvermögen eines Sensors hängt allein von seinem Pixelabstand ab und sonst von gar nichts. Und das Auflösungsvermögen eines abbildenden Systems aus Objektiv und Sensor ist umso höher, je kleiner der Pixelabstand ist. Da gibt es im Prinzip keine Grenze! ................................................... Wie Frage ist halt nur, um wieviel höher ...? Hallo 01af! Das ist ja sehr interessant. Vielen Dank für diese Erklärung. Wir bewegen uns wissenschaftlich - glaube ich - auf einem hohen Niveau. Das macht richtig Spaß!! Würde das - bitte rein theoretisch - bedeuten, daß je feiner und kleiner der Pixelabstand im Sensor produziert werden kann, die Auflösung umso detailreicher und feiner wird? Was würde passieren, wenn der Pixelabstand die Wellenlänge des Lichtes erreicht oder gar unterschreiten würde? Ist dort eine Grenze der theoretisch möglichen Auflösung zu sehen - wahrscheinlich auch abhängig von der Qualität der verwendeten Optik? Ich meine das rein hypothetisch. Daß das momentan technisch nicht machbar ist, ist mir bewußt. Herzlichen Dank für dieses interessante Diskussionsthema. Schönes Wochenende und allzeit gut Licht Dikdik Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #75 Posted March 6, 2010 Das ist vermutlich die Kernfrage des Threateröffners. Wie groß ist dieses Beugungsscheibchen, und von welchen Parametern wird seine Größe bestimmt? Ich vermute von der Wellenlänge des Lichtes und der Blendenzahl, oder? Lassen sich konkrete Durchmesser für das sichtbare Spektrum des Lichtes angeben? Ja, das kann man berechnen. Das an einer kreisförmigen Blende gebeugte Licht erzeugt ein Interferenzmuster aus einem Beugungsscheibchen, das von immer schwächer werdenden konzentrischen Ringen umgeben ist. Den Durchmesser des Beugungsscheibchens kann man nach der Formel 2 x 1,22 x Wellenlänge x Brennweite / Blendenöffnung berechnen, wobei man als Wellenlänge zweckmäßigerweise die des grünen Lichts in der Mitte des sichtbaren Spektrums wählt (auch weil sowohl unsere Augen wie auch die Sensoren grünes Licht feiner auflösen als rotes oder blaues Licht). Die Form des Beugungsscheibchens hängt allerdings von der Blendenform ab; vieleckige Irisblenden erzeugen statt eines runden Scheibchens einen Blendenstern, der bei einer geraden Zahl von Blendenlamellen eine ebenso große Zahl von Zacken hat, bei einer ungeraden Zahl von Blendenlamellen dagegen die doppelte Zahl. Dieser Effekt ist völlig unabhängig von der Abbildungsqualität des Objektivs; irgendeine Scherbe mit 50 mm wird bei der gleichen Blendenöffnung dieselbe Beugung erzeugen wie ein Summilux oder Summicron gleicher Brennweite und Blendenöffnung. Auf der anderen Seite wird die Beugung bei der Scherbe das geringste der Probleme sein, die man damit hat. Eben daher rührt ja der Begriff „beugungsbegrenzt“, der besagt, dass die Auflösungsleistung eines Objektivs ab einer bestimmten Blende nur noch durch die Beugung begrenzt wird. Je schlechter das Objektiv, desto geringer wirkt sich im Verhältnis zu seinen Abbildungsfehlern die Beugung aus. Link to post Share on other sites More sharing options...
pop Posted March 6, 2010 Share #76 Posted March 6, 2010 2 x 1,22 x Wellenlänge x Brennweite / Blendenöffnung Verständnisfragen: Sehe ich das richtig, dass dieser Effekt durch die Beugung des Lichts an der Kante der Blende erzeugt wird? Was ist 1.22? Ist das eine Näherung oder ein genauer Wert, und wie entsteht er? Link to post Share on other sites More sharing options...
gerd_heuser Posted March 6, 2010 Share #77 Posted March 6, 2010 Deine Anmaßungen, Deine Klugscheisserei und Dein unhöflicher und respektloser Schreibstil gehen mir allmählich auf den Keks. Ich setz Dich auf Ignore Habe ich schon längst virtuell gemacht. Daß Michael so langmütig ist, wundert mich. Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #78 Posted March 6, 2010 Würde das - bitte rein theoretisch - bedeuten, daß je feiner und kleiner der Pixelabstand im Sensor produziert werden kann, die Auflösung umso detailreicher und feiner wird? Nein, das würde es nicht. Wie ich oben schon schrieb, steht dem sowohl die Teilchennatur des Lichts (wir zählen hier Photonen, und je kleiner ein Sensorpixel ist, desto weniger Photonen kann es während der Belichtung zählen und desto geringer werden die Tonwertdifferenzierung und der Rauschabstand) wie auch seine Wellennatur entgegen – die Größe des Beugungsscheibchens setzt der Auflösung eine Grenze, und noch kleinere Sensorpixel tasten kein höher aufgelöstes Bild mehr ab; aufgrund des schlechteren Rauschabstands und der schlechteren Tonwertdifferenzierung wird das Bild vielmehr schlechter, sofern man nicht wieder mehrere Pixel zu einem verrechnet. Was würde passieren, wenn der Pixelabstand die Wellenlänge des Lichtes erreicht oder gar unterschreiten würde? Ist dort eine Grenze der theoretisch möglichen Auflösung zu sehen - wahrscheinlich auch abhängig von der Qualität der verwendeten Optik? Ich meine das rein hypothetisch. Daß das momentan technisch nicht machbar ist, ist mir bewußt. Das ist gar nicht so theoretisch; solche Begrenzungen sind ja der Grund dafür, dass man in der Mikroskopie ab einer bestimmten Vergrößerung von Licht- zu Elektronenmikroskopen übergehen muss. Licht ist einfach zu grob, um feinste Strukturen abbilden zu können. Für die Belange der bildmäßigen Fotografie ist das aber kein gangbarer Weg; wir wollen ja die Welt im sichtbaren Licht abbilden und nicht, wie sie in Supermans Röntgenblick ausschaut (so interessant das bei anderen Gelegenheiten und für andere Zwecke sein mag). Link to post Share on other sites More sharing options...
Guest tadakuni Posted March 6, 2010 Share #79 Posted March 6, 2010 Das ist vermutlich die Kernfrage des Threateröffners. Wie groß ist dieses Beugungsscheibchen, und von welchen Parametern wird seine Größe bestimmt? Ich vermute von der Wellenlänge des Lichtes und der Blendenzahl, oder? Lassen sich konkrete Durchmesser für das sichtbare Spektrum des Lichtes angeben? Dr. Nasse gibt in seinem Artikel in Zeiss Camera Lens News 30 "Wie liest man MTF-Kurven?" auf dessen Seite 9 folgende "Faustformel" an: "Als eine Faustformel für die mittleren Wellenlängen des Lichtes gilt: die Breite des Punktbildes in Mikrometer entspricht der Blendenzahl, und die Grenzfrequenz ist etwa: 1500 geteilt durch die Blendenzahl." Grüße Achim Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #80 Posted March 6, 2010 Verständnisfragen: Sehe ich das richtig, dass dieser Effekt durch die Beugung des Lichts an der Kante der Blende erzeugt wird? Ja, wobei es erstens keine Blende im engeren Sinne sein muss; die Beugung entsteht, weil die Öffnung begrenzt ist. Und es gibt auch keine physische Interaktion zwischen dem Licht und der Kante der Blende; der Effekt entsteht, weil sich die von irgendeinem Punkt ausgehenden Wellen kugelförmig ausbreiten; erst die Summe über unendlich viele solcher Punkte bildet eine Wellenfront eines sich in gerader Richtung ausbreitenden Lichtstrahls. Am Rande einer solchen Wellenfront fehlen aber auf einer Seite die Wellen, die das Licht insgesamt auf Kurs halten, und daher breitet es sich dort nicht mehr nur in gerader Richtung aus. Was ist 1.22? Ist das eine Näherung oder ein genauer Wert, und wie entsteht er? Man kann die Intensität des gebeugten Lichts als Funktion des Abstands vom Mittelpunkt angeben und der Radius des Beugungsscheibchens ist dann die erste Nullstelle dieser Funktion, die wiederum von der Wellenlänge, der Brennweite und der Blendenöffnung abhängt. Der Faktor 1,22 ist für praktische Belange genau genug. Der Faktor 2 ergibt sich daraus, dass wir nicht am Radius, sondern am Durchmesser des Beugungsscheibchens interessiert sind. Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.