Jump to content

Wo liegt die theoretische Auflösungsgrenze?


stephan_w

Recommended Posts

Advertisement (gone after registration)

achim: besser lesen... ichhatte nicht von 100% gesprochen! aber wo das objektiv in der übertragung einbricht, holt der sensor nix raus.. daß der sensor mit seiner ihm eigenen übertragungsfunktion dann auch noch abstriche bringt, ist natürlich klar.

 

in der praxis gehts ja deshalb evtl. auch öfters dann darum sensor und objektiv aufeinander abzustimmen und wie es mehrfach shcon angedeutet wurde, ist die m9 z.b. bereits an enem ganz guten punkt der auflösung wo sensor und optik durch alle wellenlängen durch noch gut auflösen. das probelm des bayerpatterns habe ich ja hier ausgelassen-theoretisch käme das nämlich noch dazu, bzw. man würde augen machen, wenn man sähe, was aus einem sensor für bilder kämen, der tatsächlich jede farbe mit 18 mpix auflöst!

 

sicher: in der musik wird nicht ohne grund mit oversampling gearbeitet und auch mit auflösungen jenseits aller hörbarkeit um der digitaltechnik ein schippchen zu schlagen, aber wenn die wandler alle richtig gut gearbeitet sind, dann brauchts das eigentlich nicht.

 

aber hier wie dort sind hohe werte und hohe auflösungen ein gutes werbedingens...

Link to post
Share on other sites

  • Replies 218
  • Created
  • Last Reply
Na ja ...

..............................

Im Prinzip ja – unter Vernachlässigung solch lästiger Details wie z. B. Signal-Rausch-Abstände ... rein theoretisch eben. Aber – die Auflösung würde nicht über jedes beliebige Maß hinaus anwachsen, sondern asymptotisch einem bestimmten Grenzwert zustreben, ohne diesen jemals zu erreichen. Und dieser Grenzwert ist durch das Auflösungvermögen des Objektives vorgegeben.

..............................

In der Praxis ist es also ab einer hinreichend hohen Sensorauflösung nicht mehr sinnvoll, zu versuchen, durch noch höhere Sensorauflösung diesem Grenzwert noch ein klein wenig näher zu kommen, auch wenn dies theoretisch immer möglich wäre. Stattdessen wird man selbstverständlich lieber ein besseres Objektiv einsetzen, um so den Grenzwert selbst zu erhöhen.

..............................

Aber einerlei, wo genau der jeweilige Grenzwert liegt, also wie gut oder schlecht das Objektiv ist – grundsätzlich liefert der höher auflösende Sensor unter dem gleichen Objektiv immer das detailreichere Bild. Umgekehrt gilt dasselbe: auf ein und demselben Sensor liefert das höher auflösende Objektiv immer das detailreichere Bild.

................................................

Prinzipiell nein, auch dann gibt's keine Grenze ... natürlich wieder rein theoretisch. Es ist vollkommen egal, wodurch die Begrenzung der Auflösung des abbildenden Systems (also des Objektives) bedingt ist, seien es Seidel'sche Linsenfehler, Beugung oder die Wellenlänge des Lichtes. Die Auflösung des Bildes wird immer umso höher sein, je höher die Auflösung des auffangenden Systems (also des Sensors) ist.

 

 

Hallo 01af,

herzlichen Dank für Ihre Erklärungen.

 

Ich möchte mich bei allen hier einmal sehr herzlich bedanken. Das ist bei weitem der interessanteste Diskussionsverlauf, den ich hier seit längerer Zeit in diesem Forum verfolgt habe. Ich habe eine ganze Menge dazu gelernt.

 

Allen noch einen schönen Sonntag

 

und "Allzeit gut Licht"

:):):):)

Dikdik

Link to post
Share on other sites

Realitätskontrolle:

 

Ein Quotient ist eine Verhältniszahl. Somit ist die Anzahl von Pixelflächen pro Quadratzentimeter tatsächlich ein Quotient.

Stimmt. Hat ja auch niemand bestritten.

 

 

Auch die Anzahl von Pixelmittelpunkten pro Zentimeter ist ein Quotient. Die Anzahl der Pixelschaltkreise pro Eimer wäre noch immer ein Quotient.

So ist es.

 

 

mjh hatte darauf verwiesen, dass aus praktischen Gründen die Pixeldichte üblicherweise als lineare Frequenz ausgedrückt wird und nicht als Verhältniszahl zwischen zwei Flächen. Beides sind Quotienten.

Genau.

 

Aber dann kam "like_no_other" an und erklärte, "mjh" müsse doch einsehen, daß Pixeldichten als Quotient beschrieben werden müßten – was der nie bestritten hatte –, und schwadronierte über das Durchfallen bei Prüfungen und den Zorn des Physiklehrers. Sag nicht, das hättest du nicht mitgekriegt!?

 

 

Der thread insgesamt leidet unter dem verschärften Kommunikationsproblem, dass weniger miteinander diskutiert wird, als versucht wird – ob thematisch passend oder nicht – das eigene Modell möglichst so oft zu wiederholen, bis niemand mehr Widerworte gibt.

Ich finde es sehr ermüdend, über Seiten immer und immer wieder das gleiche zu lesen und zu bemerken, dass die Diskussion sich nicht weiterentwickelt.

Wie könnte sich eine Diskussion weiterentwickeln, solange sie von falschen Vorstellungen und Milchmädchenrechnungen ausgeht?

Link to post
Share on other sites

Ich habe eine ganze Menge dazu gelernt.

 

:)

Dikdik

 

fragt sich nur worin?

ich staune, wie man ohne anflug von peinlichkeit soviel mist auf einen haufen schreiben kann....;-) und nach diesem thread gehe ich jetzt auch mal auf dei ignore-suche. 01af hat eine derart hohe wissensauflösung, daß bei mir das abtasttheorem zuschlägt und ich so eine art wahrnehmungsstörungen glaube zu empfinden ;-)) forums-moiree....:D

Link to post
Share on other sites

Guest tadakuni
achim: besser lesen... ichhatte nicht von 100% gesprochen! aber wo das objektiv in der übertragung einbricht, holt der sensor nix raus..
.

 

In aller Regel nimmt die MTF eines Objektives mit ansteigender Ortsfrequenz ab. Die "theoretische" beugungsbedingte MTF in einer in etwa linearen Weise, die nicht beugungsbegrenzten MTF mit mehr oder weniger Durchhang. Diese jeweilige Leistung des Objektivs kann der Sensor nur dann exakt 1:1 übertragen, wenn seine eigene Übertragungsleistung bei allen Ortsfrequenzen, bei denen die MTF Werte des Objektivs größer 0 (strukturloses Grau) sind dem MTF-Wert 1 oder 100% entspricht. Alleine schon die davor plazierten Filter führen meines Wissens aber ausnahmslos zu MTF-Werten der "Sensorübertragung" kleiner 100%. Die Gesamtleistung der Kombination von Sensor und Objektiv errechnet sich also immer durch Multiplikation der beiden Übertragungsfunktionswerte für die jeweilige Ortsfrequenz. Der Sensor holt also auch da "nix raus", wo das Objektiv nicht "einbricht". Er "überträgt" einfach gemäß seiner "Übertragungseigenschaften", die sich, ganz wie die des Objektives, in einer Übertragungsfunktion beschreiben lassen.

 

Grüße

 

Achim

Link to post
Share on other sites

achin: schreib ich denn so verworren ;-))) ?

 

der sensor holt natürlich nix raus (freilich -daß hat hier aber unser geschätztes forumsmitgleid 01af munter behauptet), sondern kann maximal daß übertragen was da ist. so wie du schreibst. hatte nichts gegenteiliges behauptet. ich deutete ja schon an: wenn man das ganze jetzt noch durch die einzelenen farben spielt, sieht das sowieso noch ganz anders aus. die interpolation setzt hier auch noch grenzen und letztendlich kann man die auflösung eines systems nur konkret mit sensor und objektiv zusammen ermitteln und da sieht man dann was das system leistet.

 

leider sind aktuelle test immer sehr bayerfreundlich gemacht, so daß man diesbezüglich eigentlich nix wirklich genaues in die hände bekommt. bis auf seine eigenen bilder. da muß man halt dann mal genau hinschauen ;-)

 

lg

Link to post
Share on other sites

Advertisement (gone after registration)

fragt sich nur worin?

ich staune, wie man ohne anflug von peinlichkeit soviel mist auf einen haufen schreiben kann....;-) und nach diesem thread gehe ich jetzt auch mal auf dei ignore-suche. 01af hat eine derart hohe wissensauflösung, daß bei mir das abtasttheorem zuschlägt und ich so eine art wahrnehmungsstörungen glaube zu empfinden ;-)) forums-moiree....:D

 

Hallo feuervogel69,

 

sorry, aber das sehe ich ganz anders. Es scheint doch offensichtlich so zu sein, daß sowohl Michael als auch 01af über Sachkenntnisse verfügen, die zumindest meinem Wissen einfach haushoch überlegen sind. Von der Physik habe ich leider nicht mehr so viel in Erinnerung behalten.

 

Und in wissenschaftlichen Diskussionen geht es nun manchmal hoch her. Das darf man nicht persönlich nehmen. Es darf auch einen gewissen Grad der emotionalen Inkontinenz nicht überschreiten. Aber letztlich dienen die Diskussionsbeiträge doch der Wissensvermehrung - auch der Kontrahenten. Wo bitte kann man sonst in einem Internetforum eine Diskussion auf derart hohem Niveau verfolgen??!

 

Was wir hier lesen ist doch noch vergleichsweise harmlos. Da gibt es noch ganz andere Streitgespräche. Es hat zum Beispiel in den USA so vor rund 150 Jahren zwischen zwei Paläontologen (der eine hieß glaube ich Marsh) einen erbitterten Streit über ein paar ausgestorbene Tiere der Tertiärfauna gegeben, der über ein halbes Leben ausgetragen wurde. Aber letztlich hat dieser wissenschaftliche Zwist entscheidend zum Verständnis dieser Zeit beigetragen.

 

Also bitte nicht ärgern!!

 

Herzlichst Dikdik

Link to post
Share on other sites

Aber dann kam "like_no_other" an und erklärte, "mjh" müsse doch einsehen, daß Pixeldichten als Quotient beschrieben werden müßten – was der nie bestritten hatte –, und schwadronierte über das Durchfallen bei Prüfungen und den Zorn des Physiklehrers. Sag nicht, das hättest du nicht mitgekriegt!?

 

@1AF: Ich ging davon aus, dass aus meinem Posting erkennbar war, dass es sich auf Aussagen von like_no bezieht und dass ich diese beanstande.

Link to post
Share on other sites

Zur allgemeinen Sättigung des Themas fehlt noch meine Lieblingsbemerkung (als Hobbyist) mit dem "break even point", den ich versuche in allen Bereichen nicht zu überschreiten;

In diesem Falle wäre das die Überlegung:

Was will ich machen?

Wie groß sollen die Bilder werden?

Sieht man überhaupt (nennenswerte) Unterschiede zwischen den Systemen Digilux, X und M, wenn die allermeisten Bilder nur für's Web gemacht werden oder allenfalls 1024-2048 Pixel Kantenlänge haben?

Die Fragen nach den Monitorqualitäten habe ich da noch nicht mal angerissen,

die Qualität von Fotoausdrucken ebenso wenig !

Link to post
Share on other sites

dikdik: ich hatte das als ironie verstanden. sorry also zurück.

 

01af schreibt zwar viel, aber vieles davon stimmt eben so nicht, einiges widerspricht sich gar.. mjh stellt hier allerdings nichts mehr richtig, da er ihn wahrscheinlich auch schon lange auf ignore gesetzt hat.

 

 

lg

Link to post
Share on other sites

Ein Sensor mit einer besseren Übertragungsfunktion verbessert immer die Abbildungsqualität des Gesamtsystems, also auch in Kombination mit zum Beispiel einem 1,4/50 aus den sechziger Jahren, da die Übertragungsfunktion des Gesamtsystems immer näherungsweise dem Produkt der Übertragungsfuntionen der einzelnen Sytemkomponenten entspricht.

 

Kombiniere ich also ein Objektiv, desen Übertragungsfunktion bei einer bestimmten Ortsfrequenz und Bildhöhe einen Wert von beispielsweise 60% Kontrast aufweist mit einem Sensor, der bei dieser Ortsfrequenz einen Kontrast von beispielsweise 90% aufweist ist der entsprechende Wert der Übertragungsfunktion dieses Gesamtsystems höher (54%), als wenn ich dieses Objektiv mit einem Sensor kombiniere, der bei dieser Ortsfrequenz nur einen Kontrast von beispielsweise 85% aufweist (51%).

Das stimmt natürlich. Auf der anderen Seite ist das Produkt immer gleich Null, wenn einer der Faktoren Null ist; wenn wir also die Auflösungsgrenze des Objektivs erreicht haben, nützt ein höher auflösender Sensor nichts mehr, und auch bei 10 Prozent wäre vom Sensor nicht mehr wirklich viel zu retten.

 

Interessanter ist der Grenzbereich zwischen guter und nicht mehr relevanter Auflösung, also so wie in Deinem Rechenbeispiel skizziert. Hier könnte man einmal dafür argumentieren, den Sensor sicherheitshalber etwas höher als streng genommen nötig auflösen zu lassen, so wie die Sensoren der M8 und M9 höher auflösen, als zur Übertragung der 40 Lp/mm nötig wäre, bei denen sich Leica für die Kontrastübertragung verbürgt; dies verringert zudem die Moiré-Gefahr (wenn auch leider nicht so weit, dass man Moiré nicht mehr unterdrücken müsste; dafür sind die Objektive dann doch zu gut). Den Rest erledigt eine leichte Unscharfmaskierung, denn so lange ein realer Kontrast übertragen wird, kann man ihn auch noch leicht anheben.

 

Auf der anderen Seite bezahlt man die höhere Sensorauflösung dank kleinerer Pixel mit einem schlechteren Dynamikumfang und Rauschabstand. Es ist ja nicht so, dass man nur eine Größe, in diesem Fall also die Kontrastübertragung, zu maximieren bräuchte; vielmehr muss man verschiedenen Qualitätsanforderungen gerecht werden, wobei die Maximierung der einen Größe gelegentlich zur Minimierung der anderen führt. Man muss also die Balance wahren. Ein Fitzelchen mehr Kontrast am Ende des Auflösungsvermögens eines Objektivs herauszuholen brächte beispielsweise wenig Nutzen, wenn man dafür eine Blendenstufe an Dynamikumfang verlöre. Oder wenn der etwas höhere Kontrast am Ende im ebenfalls angestiegenen Rauschen unterginge.

Link to post
Share on other sites

Guest tadakuni
achin: schreib ich denn so verworren ;-))) ?

 

der sensor holt natürlich nix raus (freilich -daß hat hier aber unser geschätztes forumsmitgleid 01af munter behauptet), sondern kann maximal daß übertragen was da ist. so wie du schreibst.

 

Alles klar. Ich hatte das "Herausholen" fälschlicherweise als "verbessern" aufgefasst.

 

Mir ging es nur noch einmal um den Hinweis, dass ein Objektiv, das zum Beispiel bei 20Lp/mm einen MTF Wert von 80% aufweist, in Kombination mit einem Film/Sensor, der bei dieser Ortsfrequenz den MTF-Wert 80% aufweist, eine "schlechtere" Gesamtleistung zeigt, als in Kombination mit einem Film/Sensor, der bei dieser Ortsfrequenz den MTF-Wert 90% aufweist.

 

In praktischer Hinsicht ist das meines Erachtens durchaus von Belang, da auch das alte 2,8/50 also genauso hervorragend zu einer M9 oder einem höchstauflösenden modernen SW-Film "passt", wie umgekehrt auch das aktuelle 1,4/50 ASPH zum Beispiel zu einem höchstempfindlichen Umkehrfilm.

 

Dies schien mir einmal wert festzuhalten, da man ja immer einmal wieder liest, von einer Sensorqualität à la M9 könne nur der profitieren, der auch seinen Objektivpark hochrüstet. Dem ist, Begründung siehe oben, meines Erachtens nicht so. Die Gesamtleistung nimmt auch immer schon bei der Verbesserung nur eines Gliedes in der Gesamtkette der Abbildung zu. An welchem sich eher zu "schrauben" lohnt, kann man aus meiner Sicht mit Hilfe der jeweiligen Übertragungsfunktionen sogar näherungsweise berechnen (Was ist "besser": Film A mit dem abgelösten 2/90 oder Film B mit dem aktuellen 2/90?)

 

Grüße

 

Achim

Link to post
Share on other sites

Guest Polfilter

Ich halte diese Diskussion für ziemlich überdreht!

 

Man sollte sich lieber reale Bilder (am Monitor oder gedruckt) ansehen.

 

Ich bin sicher, für 90% der Fotografen reichen die derzeit erschwinglichen und "tragbaren" Optiken und Sensorauflösungen um 10 MPixel. Mir ist es lieber, wenn ich auch bei düsterem Licht noch einigermaßen rauschfreie Bilder mit guter Dynamik bekomme und Objektive habe, deren Gewicht in Gramm und nicht in Kilo gemessen wird.

 

Testet Ihr noch oder fotografiert Ihr schon...

 

Gruß

 

Udo

Link to post
Share on other sites

Ich halte diese Diskussion für ziemlich überdreht!

 

Man sollte sich lieber reale Bilder (am Monitor oder gedruckt) ansehen.

 

Ich bin sicher, für 90% der Fotografen reichen die derzeit erschwinglichen und "tragbaren" Optiken und Sensorauflösungen um 10 MPixel. Mir ist es lieber, wenn ich auch bei düsterem Licht noch einigermaßen rauschfreie Bilder mit guter Dynamik bekomme und Objektive habe, deren Gewicht in Gramm und nicht in Kilo gemessen wird.

 

Testet Ihr noch oder fotografiert Ihr schon...

 

Gruß

 

Udo

 

 

Du sprichst mir aus der Seele!

In all den Jahren, in denen ich mich mit Fotografie beschäftige, habe ich doch glatt noch kein einziges Mal ein Bild dadurch verloren, dass irgendeine Komponente in der Aufnahmekette die "theoretische Auflösungsgrenze" sonstwie tangiert oder nicht tangiert hat. Zumindest zeigt dieser Monster-Thread, was Amateure so umtreibt.

 

;-)

 

Frank

Link to post
Share on other sites

Frank: Das war doch klar, wer will nicht wissen was machbar ist und wieweit sich das aus dem Fenster lehnen lohnt?

Wer nach seinem Lieblingsgetränkt sucht und sich "festlegen" will, kommt in ähnliche Gedanken, die lange Zeit in Anspruch nehmen können- selbst wenn man fix mal im Web nachschauen kann.

Hobby ist Unterhaltung- es kommt nicht so auf die "verschwendete" Zeit an, sondern um einen mehr oder weniger sinnvollen Zeitvertreib - noch besser, wenn's "interaktiv" wird.

Link to post
Share on other sites

Guest tadakuni
Das stimmt natürlich. Auf der anderen Seite ist das Produkt immer gleich Null, wenn einer der Faktoren Null ist;

 

Das ist klar.

 

so wie die Sensoren der M8 und M9 höher auflösen, als zur Übertragung der 40 Lp/mm nötig wäre,

 

Michael, da liegt genau mein Verständnisproblem:

 

Zur verlustfreien Übertragung der 40Lp/mm wäre aus meiner Sicht ein Sensor "nötig", dessen Übertragungsfunktion bei dieser Ortsfrequenz 100% beträgt. Den gibt es - zumindest bei Leica - jedoch derzeit meines Wissens nicht. Auch der M9 Sensor hat meines Wissens bei 40Lp/mm einen Wert, der geringer ist als 100%, also auch geringer ist als eigentlich zur verlustfreien Übertragung der Abbildungsleistung des Objektives bei dieser Ortsfrequenz "nötig" - und doch nicht "höher", wie Du schreibst?

 

Grüße

 

Achim

Link to post
Share on other sites

Dies schien mir einmal wert festzuhalten, da man ja immer einmal wieder liest, von einer Sensorqualität à la M9 könne nur der profitieren, der auch seinen Objektivpark hochrüstet. Dem ist, Begründung siehe oben, meines Erachtens nicht so. Die Gesamtleistung nimmt auch immer schon bei der Verbesserung nur eines Gliedes in der Gesamtkette der Abbildung zu. An welchem sich eher zu "schrauben" lohnt, kann man aus meiner Sicht mit Hilfe der jeweiligen Übertragungsfunktionen sogar näherungsweise berechnen (Was ist "besser": Film A mit dem abgelösten 2/90 oder Film B mit dem aktuellen 2/90?)

In der Informatik gibt es ja den Begriff des „wandernden Flaschenhalses“. Man identifiziert in einer komplexen Software eine Komponente, die den Flaschenhals der Datenverarbeitung bildet, und versucht dort, mit einer Optimierung anzusetzen. Man schafft es tatsächlich, den Durchsatz dieser Komponente zu verzehnfachen, und stellt erfreut fest, dass der Gesamtdurchsatz des Systems daraufhin deutlich anzieht. Durch diesen Erfolg beflügelt verfällt man dann leicht auf die Idee, dass man diese Komponente noch weiter optimieren sollte, da ja der erste Ansatz schon so viel gebracht hatte. Man erreicht nun vielleicht noch einmal eine Verbesserung um den Faktor 10, wird dann aber enttäuscht, weil das Gesamtsystem deshalb kaum schneller wird. Durch die erste Optimierung ist der Flaschenhals nämlich gewandert; er befindet sich jetzt in einer anderen Komponente und dort hätte man ansetzen sollen.

 

In den Anfängen der Digitalfotografie war die Sensorauflösung ganz augenfällig der begrenzende Faktor. Man versprach sich also bessere Bilder von höher auflösenden Sensoren, und für einige Zeit ging diese Rechnung auch auf. Über diesen Punkt sind wir jedoch bereits hinaus, und immer wieder an der gleichen Schraube zu drehen bringt zunehmend weniger.

Link to post
Share on other sites

01af schreibt zwar viel, aber vieles davon stimmt eben so nicht, einiges widerspricht sich gar ...

Wenn du in dem, was ich schrieb, einen Fehler oder Widerspruch findest, dann sei doch bitte so gut und verfasse hier einen konkreten (und leserlichen!) Hinweis darauf, damit einer von uns beiden die Chance bekommt, dazuzulernen.

 

 

... wenn wir also die Auflösungsgrenze des Objektivs erreicht haben, nützt ein höher auflösender Sensor nichts mehr ...

Schade, daß du dich so hartnäckig weigerst, die Mathematik der Informationsübertragung zur Kenntnis zu nehmen. Ach, was sage ich – berücksichtigt man deine Mitgliedschaft im fotoMAGAZIN-"Experten"-Team, dann ist das nicht nur schade, sondern ausgesprochen ärgerlich. :(

Link to post
Share on other sites

Dies schien mir einmal wert festzuhalten, da man ja immer einmal wieder liest, von einer Sensorqualität à la M9 könne nur der profitieren, der auch seinen Objektivpark hochrüstet.

Diesen und ähnlichen Unsinn liest man in der Tat immer wieder, weil heutzutage ein Narr vom anderen abschreibt. Aber wie sollte man als Laie auch lernen, wie Sachlage wirklich aussieht, wenn sogar die selbsternannten "Experten" der einschlägigen "Fach"-Magazine keine Ahnung haben ...

 

 

Die Gesamtleistung nimmt auch immer schon bei der Verbesserung nur eines Gliedes in der Gesamtkette der Abbildung zu.

Was ich die ganze Zeit sage.

 

 

An welchem sich eher zu "schrauben" lohnt, kann man aus meiner Sicht mit Hilfe der jeweiligen Übertragungsfunktionen sogar näherungsweise berechnen.

Die Frage, woran zu schrauben sich am ehesten lohnt, ist im Prinzip leicht zu beantworten: stets am aktuell schwächsten Glied. Auch wenn selbst die Verbesserung eines ohnehin schon starken Gliedes (entgegen weitverbreiteter Laienmeinung) etwas bringt – die Verbesserung des schwächsten Gliedes bringt stets am meisten.

Link to post
Share on other sites

Guest Polfilter

...

In den Anfängen der Digitalfotografie war die Sensorauflösung ganz augenfällig der begrenzende Faktor. Man versprach sich also bessere Bilder von höher auflösenden Sensoren, und für einige Zeit ging diese Rechnung auch auf. Über diesen Punkt sind wir jedoch bereits hinaus, und immer wieder an der gleichen Schraube zu drehen bringt zunehmend weniger.

 

Damit ist alles gesagt!

 

Gruß

 

Udo

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...