Jump to content

Testergebnisse Colorfoto M9 11/2009


Recommended Posts

  • Replies 192
  • Created
  • Last Reply
Unabhängig von der Qualität des CF-Tests (den ich nicht gelesen habe): Einen Test abzuqualifizieren, weil einem das Ergebnis nicht passt,..

Es geht nicht um abqualifizieren. M.E. vergleicht man Äpfel und Birnen.

Ich habe mal unten dafür Zitate beigefügt. Der Test ist in meinen Augen einfach "überflüssig", da er mir nur sagt eine Messucherkamera ist keine Spiegelreflex.

Aber vielleicht ist das für die CoFoto Leserschaft eine Neuigkeit.

 

 

Ansonsten: Bedienung wie seit Jahr*zehnten gewohnt. Bei einer Messsucher „schaut“ kein Spiegelreflexsucher durchs Objektiv. Stattdessen sitzt links oben ein optischer Sucher, in dem ein Leuchtrahmen den Bildausschnitt definiert. Mit einem Hebel kann dieser auf die gerade verwendete Brennweite angepasst werden. Sonst wüsste der Fotograf nicht, wie weit sein Bildausschnitt reicht.

Deutet für eher mich auf die Tatsache hin das er ne Bessa in der Hand hatte. Bei den neueren Leicas (so ab 195X) spiegelt sich die Begrenzung im Sucher automatisch ein.

Ich hoffe das ist bei der M9 auch der Fall .

 

Zoomobjektive sind im M-Sys*tem kein Thema. Scharfstellen ist auch nur manuell möglich,

..Blendenautomatik ist ebenfalls Pustekuchen – eine einsame rote Anzeige (Punkt oder Pfeil) sagt den Vorschlag des eingebauten Belichtungsmessers an – drehen muss man an den extrem handlichen Objektiven schon selbst.

..Belichtungsprogramme, justierbare Kontrast- oder Rauschverbesserungsschaltungen gibt es keine.

...

Die Leica ist altmodisch, umständlich und von geringer Ausstattung.

 

Der CoFoto Artikel gleicht in meinen Augen einem Autotest bei dem man einen Smart im SUV Messraster testet.

Kein Wunder das der Smart bei Geländegängigkeit abfällt. Punkte wie Wendigkeit, Verbrauch und Einparkeigenschaften werden wegen SUV Rasters aber nicht abgefragt.

Und dabei sind 95% der SUVs im Stadtverkehr unterwegs :) .

Link to post
Share on other sites

Es geht nicht um abqualifizieren. M.E. vergleicht man Äpfel und Birnen.

 

 

In dem "Test" muß halt dem Durchschnittsleser erst einmal erklärt werden, was eine Meßsucherkamera ist.

Wenn man die Leica M kennt, wirft man einen Blick auf die Meßwerte für Ausflösung und Rauschen etc. bei den einzelnen ISO-Werten, vergleicht diese gegebenenfalls mit denen anderer Kameras und gut ist.

Da stellt man dan fest, daß die M9 bei niedrigeren ISO-Werten in der obersten Liga mitspielt, CCD-typisch aber bei höheren ISO abfällt und gut ist.

 

 

Am meisten nervt mich bei allen M8 und M9 Tests der Hinweis auf den Bodendeckel:

Man angeblich, wenn die Kamera auf einem Stativ aufgebaut ist, Akku und Speicherkarte nicht wechseln könne.

Dabei geht es bei wenigen Kameras so einfach, man läßt einfach den Bodendeckel auf dem Stativ und nimmt den Rest ab.

Bei anderen Kameras (ohne Batteriegriff) wird oft der Deckel des Akkufachs durch eine Stativwechselplatte versperrt oder man hat umständliches Gefummel unter der Cam.

Da sieht man gut, wie wertvoll der Praxiteil solcher Tests ist. Jedem, der sich wirklich etwas mit den Kameras beschäftigt hat, wäre sowas auffallen.

Die Tester stehen vermutlich unter redaktionellem Druck weil der Abgabetermin droht und 5 Minuten nachdem die Kamera aus der Meßabteilung gekommen ist, müssen reichen, der Artikel muß ja auch noch geschrieben werden....

 

VG, Arne

Link to post
Share on other sites

Guest s.m.e.p.
Mir persönlich sind während der Betatestphase und jetzt nach 2 Monaten M9 Nutzens selbstverständlich Dinge aufgefallen, die an der Kamera zu verbessern sind. Die diskutiere ich aber mit Sicherheit nicht hier im Forum, sondern direkt mit den Verantwortlichen.

Eins kann man aber direkt sagen, die Kamera kommt ohne Kinderkrankheiten daher. In den zwei Monaten ist mir die Kamera noch nie ausgestiegen, selbst bei Eiseskälte und im Schneetreiben nicht.

Als Nutzer des digitalen Nikon Systems parallel zu M8.2 und M9 kann ich nur sagen, dass Leica seine Hausaufgaben gut gemacht hat.

Letztendlich ist es mir persönlich aber auch vollkommen wurscht, was die Fachzeitschriften testen oder irgendwann einmal fth dazu schreibt.

Eine M9 zu testen ist sowieso sinnlos. Die M9 möchte man haben oder eben nicht.

 

Gern geschehen.

 

Deine Antwort ist genau einer der Gründe, weswegen ich die Bemerkungen hier nicht diskutiere.

Wie so oft wird nur zitiert, was gerade als Meinungsmache fürs Forum gebraucht wird.

 

 

Um es nochmals ganz klar zu sagen: Die M9 ist eine sehr gute Kamera!

 

Wäre es nicht konsequent, wenn Du Dich im Forum gar nicht mehr äussern würdest?

Link to post
Share on other sites

Guest Digiuser
Wäre es nicht konsequent, wenn Du Dich im Forum gar nicht mehr äussern würdest?

 

Mit Sicherheit, aber wer ist schon immer konsequent.

Link to post
Share on other sites

Advertisement (gone after registration)

Das entspricht durchaus der Erfahrung. Bei der M8 rechnete man so, dass man zur Sicherheit zwei Blendenstufen weiter abblenden sollte, als die Schärfentiefenskala des Objektivs nahelegte – eine Blendenstufe war dem Cropfaktor geschuldet und die zweite den Eigenheiten des Digitalbilds.

 

Es ist richtig, dass die Schärfentiefeskala für M8 nicht stimmt, weil das Aufnahmeformat kleiner ist. Der Unterschied ist - grob - eine Blendenstufe. Das Aufnahmeformat der M9 ist Kleinbild. Also stimmt die Schärfentiefekskala.

 

Die Schärfentiefe-Berechnung bezieht sich auf das Auflösungsvermögen der menschlichen Augen und nicht auf die des Films oder Sensors.

 

Da ein kleineres Format für die selbe Fotogröße stärker vergrößert werden muss, ist der tolerierte Zerstreuungskreis - was also vom Menschen als "noch scharf" gesehen wird - bei kleineren Aufnahmeformaten kleiner v.v. Wirklich scharf ist sowieso immer nur die Einstellebene.

 

Das Auflösungsvermögen des Aufnahmematerials resp. Sensors ist also irrelevant für die Berechnung des Schärfentiefebereichs. Bei einer so hohen Auflösung wie bei der M9 gibt es auch keine Effekte durch die Eigenheiten der Anordnung der Einzelsensoren oder was auch immer.

Link to post
Share on other sites

Da sieht man gut, wie wertvoll der Praxiteil solcher Tests ist. Jedem, der sich wirklich etwas mit den Kameras beschäftigt hat, wäre sowas auffallen.

Die Tester stehen vermutlich unter redaktionellem Druck weil der Abgabetermin droht und 5 Minuten nachdem die Kamera aus der Meßabteilung gekommen ist, müssen reichen, der Artikel muß ja auch noch geschrieben werden....

Der Druck muss hoch gewesen sein. Sonst wäre ihm aufgefallen das bei Leicas - im Gegegensatz zur Konkurrenz- sich die Bildfeldbegrenzungen automatisch im Sucher einspiegeln.

Hebel umlegen muss man bei Voigtländer Bessa und den Epson RDs

Link to post
Share on other sites

Der Druck muss hoch gewesen sein. Sonst wäre ihm aufgefallen das bei Leicas - im Gegegensatz zur Konkurrenz- sich die Bildfeldbegrenzungen automatisch im Sucher einspiegeln.

Hebel umlegen muss man bei Voigtländer Bessa und den Epson RDs

 

Vermutlich hatte Herr Henniges so eine vorher mal in der Hand und hat den Artikel schon geschrieben bevor die Kamera aus der Meßabteilung bei ihm gelandet ist oder hat die M9 nie persönlich in Augenschein nehmen können.

 

Es gibt in den Auto-Zeitschriften auch diverse "Fahrberichte", bei denen die Redakteure nur von der Pressetribüne aus Werksfahrern beim Fahren zuschauen durften.

 

VG, Arne

Link to post
Share on other sites

Vermutlich hatte Herr Henniges so eine vorher mal in der Hand und hat den Artikel schon geschrieben bevor die Kamera aus der Meßabteilung bei ihm gelandet ist oder hat die M9 nie persönlich in Augenschein nehmen können.

Du sprichst also jetzt von Heiner Henninges Praxistest im fotoMAGAZIN, nicht vom ColorFoto-Test von Martin Biebel? Heiner Henninges bemängelt zwar ebenfalls die Bodenklappe, aber die findet ja auch sonst nicht viele Fürsprecher, und die übrige Kritik am Artikel scheint sich mir auf den von Martin Biebel, nicht auf den von Heiner Henninges zu beziehen. Beispielsweise war die vom fotoMAGAZIN getestete M9 gar nicht im Labor, stand also die ganze Zeit dem Autor zur Verfügung.

Link to post
Share on other sites

Die Schärfentiefe-Berechnung bezieht sich auf das Auflösungsvermögen der menschlichen Augen und nicht auf die des Films oder Sensors.

Oft wird die Schärfentiefenberechnung darauf bezogen, aber das ist nicht die einzige Methode. Der traditionelle Ansatz, der von einem maximal akzeptablen Zerstreuungskreis von 1/1500 der Bilddiagonale ausgeht, war schon vor dem Siegeszug der Digitalfotografie überholt, weil die Filme längst höher auflösten. Harold Merklinger hatte dazu in den 90ern einiges geschrieben; die Artikel findet man im Internet.

 

Das Auflösungsvermögen des Aufnahmematerials resp. Sensors ist also irrelevant für die Berechnung des Schärfentiefebereichs. Bei einer so hohen Auflösung wie bei der M9 gibt es auch keine Effekte durch die Eigenheiten der Anordnung der Einzelsensoren oder was auch immer.

Schärfentiefe ist keine physikalische Größe, sondern ein pragmatisches Maß, dessen Berechnung man an den Bedürfnissen desjenigen ausrichten muss, der das Bild betrachtet. Das sind heutzutage oft die Bedürfnisse des Pixel Peepers, und für diesen spielt die Sensorauflösung tatsächlich eine Rolle.

 

Wichtiger noch ist aber die Eigenheit eines Sensors, sich wie eine extrem dünne Filmemulsion zu verhalten, wodurch der Übergang zwischen Schärfe und Unschärfer viel deutlicher wird als beim Farbfilm, bei dem es eine ausgedehntere Zone gibt, in der sich der Schärfeeindruck kaum ändert – weil nämlich in wenigstens einer der drei Schichten ein hinreichend scharfes Bild entsteht, und wenn das nicht die mittlere grünempfindliche sondern die rot- oder blauempfindliche Schicht ist, trübt das den Schärfeeindruck nur geringfügig. Ein Sensor ist durch seine Bauweise bedingt weniger tolerant. Ich hatte das vor längerer Zeit mal in der LFI ausführlicher beschrieben, als es um die Problematik der Blendendifferenz einiger Objektive an der M8 ging. Die Tatsache, dass die immer schon vorhandene Verschiebung der Fokussierung beim Abblenden einiger Objektive an der M8 plötzlich sichtbare Auswirkungen zeigte, machte ja offenkundig, dass die digitale Aufnahmetechnik die Maßstäbe für die Beurteilung von Schärfe verändert hatte.

Link to post
Share on other sites

MMC* : Die Verwechselung Henninges(foMag) Biebel (CoFoto) habe wohl ich zu verantworten (s.o.).

Um es klar zu stellen:

foMag - Artikel (ohne "Labor"werte) Autor = H . Henninges, der natürlich die Eigenheiten der "M" kennt.

 

CoFoto- "Test" (mit Laborwerten):Autor = Martin Biebel , der wie ich oben vermute noch nie länger eine M in der Hand hatte.

Meine Kritik bezieht sich auf den CoFoto Artikel (Autor M.Biebel) - in meinen Augen einfach überflüssig

 

 

*mea maxima culpa

Link to post
Share on other sites

Schärfentiefe ist keine physikalische Größe, sondern ein pragmatisches Maß, dessen Berechnung man an den Bedürfnissen desjenigen ausrichten muss, der das Bild betrachtet. Das sind heutzutage oft die Bedürfnisse des Pixel Peepers, und für diesen spielt die Sensorauflösung tatsächlich eine Rolle.

 

Schärfentiefe geht vom Auflösungsvermögen der _durchschnittlichen_ menschlichen Augen aus. Es ist - wie Du schreibst - ca. 1/1500 Zerstreuungskreis der Diagonale. Die Auflösung einer Aufnahme mit einer Minox mit dem selben Filmmaterial ist ist im Verglech bei Großbild auch erheblich höher. Dennoch ist es auch da in beiden Fällen 1/1500 der Diagonale.

 

Wenn jemand feiner auflösende Augen hat, dann ist er kleiner, wenn er schlechter auflösende Augen hat dann ist er größer. Aber unabhängig von Auflösung und Aufnahmeformat.

 

Für den Pixelpeeper gibt es keine Schärfentiefe, weil für den die Festlegung des Schärfentiefebereichs - entsprechender Betrachtungsabstand - nicht zutrifft. Das selbe gilt sowieso für das Betrachten eines Fotos mit einer Lupe. Bei entsprechend starker Vergrößerung gibt es keine Schärfentiefe. Weder bei Film noch digital.

 

Egal, wer welche Artikel darüber schon veröffentlicht hat, sorry.

 

Bei der M8 ist der Schärfentiefebereich etwa um eine Blende verschoben wegen des kleineren Aufnahmeformats. Aber nicht wegen der Auflösung oder des Aufnahmematerials.

 

Ergänzung: Die Auflösung des Sensors ist nur dann relevant, wenn sie unter 3000 Pixel diagonal fällt. Das wäre also eine Kamera mit einem Sensor von deutlich weniger als insgesamt 6 Megapixel, wovon aber schon lange keine Rede mehr ist. In diesem Fall wäre der Schärfentiefebereich größer.

Link to post
Share on other sites

Du sprichst also jetzt von Heiner Henninges Praxistest im fotoMAGAZIN, nicht vom ColorFoto-Test von Martin Biebel?

 

Habe die Namen verwechselt (kritiklos von veraikon übernommen ;) )

 

 

Sorry, Arne

 

p.s.: Wollte es korrigieren, geht leider nicht.

Link to post
Share on other sites

Das leuchtet mir beim Film nicht ganz ein. Die Tiefenschärfemarken auf den Objektiven sind doch keine 'Trial & Error'-Angelegenheiten, sondern berechnet und dann graviert.

Die Berechnungen sind schon exakt, aber es geht hier um die Werte, die man in die Formeln hinein steckt – was dann herauskommt, ist mathematisch exakt, trifft die Realität aber nur so gut, wie es die Eingangswerte erlauben.

 

Wie ich schon schrieb, ist Schärfentiefe eine pragmatisch bestimmte Größe. Absolut gesehen gibt es überhaupt keine Schärfentiefe, sondern nur eine maximale Schärfe in einer Ebene und einen mehr oder minder großen Schärfeabfall in allen Entfernungen davor und dahinter. In der Praxis sind die Anforderungen an die Schärfe aber geringer, und wenn man irgendein Maß akzeptabler Schärfe definiert, ergibt sich daraus eine Schärfenzone, in der die Unschärfe im Bereich dieser akzeptablen Schärfe bleibt. Die Ausdehnung dieser Zone ist dann die Schärfentiefe.

 

Die traditionelle Herangehensweise ist die, von einem Betrachter auszugehen, der ein Bild aus einem Abstand betrachtet, in dem er es noch vollständig erfassen kann, und man geht weiterhin davon aus, dass dies bei einem Betrachtungsabstand gegeben ist, der gleich der Bilddiagonalen ist. Die Bildgröße selbst spielt dann keine Rolle mehr, denn ein größeres Bild betrachtet man typischerweise aus einem größeren Abstand; in jedem Fall läge der diagonale Bildwinkel aber bei rund 53 Grad. Da das menschliche Auge 1 Bogenminute oder mehr auflösen kann, könnten wir noch Details in der Größenordnung von rund 1/3200 der Bilddiagonale auflösen, aber traditionell geht man dennoch von 1/1500 der Bilddiagonale aus, auch weil das früher verfügbare (Kleinbild-) Filmmaterial keine höheren Auflösungen zuließ.

 

Dieser Wert von 1/1500 der Bilddiagonalen ist durchweg eine der Eingangsgrößen der Schärfentiefenberechnung, deren Ergebnisse aber nur so exakt wie dieser Wert sind – und er ist alles andere als exakt, sondern lediglich eine leicht zu merkende Zahl, die damals zu praktikablen Resultaten führte. Dieser Aspekt der Schärfentiefenformeln wird heutzutage oft missachtet, und daher werden manchmal Schärfentiefen bis auf mehrere Nachkommastellen berechnet, als ob das noch irgendeinen Zusammenhang mit der Realität hätte.

 

Die Annahme eines typischen Betrachtungsabstands in Größenordnung der Bilddiagonalen ist durchaus vernünftig, aber man kann sie nicht verabsolutieren. Es genügt schon, dass ein Motiv vor einem größeren, völlig unscharfen Hintergrund abgebildet wird, und man wird dieses Motiv unwillkürlich aus kürzerer Entfernung betrachten – der Hintergrund spielt dann für die Ermittlung des typischen Betrachtungsabstands keine Rolle. Dieses Phänomen kennt jeder, der einen Aufmacher für die Doppelseite eines Magazins fotografieren soll, bei dem viel unscharfer Hintergrund benötigt wird, auf dem später die Textspalten platziert werden. Ein solches Bild wird aus einem viel geringeren Betrachtungsabstand als der Bilddiagonale betrachtet, denn als relevantes Bild gilt nur noch der Teil, der das eigentliche Motiv enthält.

 

Zudem lässt es sich kaum verhindern, dass man Bilder hochauflösender Digitalkameras in der 100-Prozent-Darstellung betrachtet, wenn Bildbearbeitungsprogramme sie nun mal in dieser Darstellung öffnen. Kleinbildfilme hat man früher nur selten so stark vergrößert, wie es heute alltäglich ist, und es ist schwer, seine Ansprüche zurückzuschrauben, wenn man einmal so stark in ein Digitalbild hinein gezoomt hat.

 

Die Strahlen konvergieren bekanntlich in der Schärfenebene, daher müssten dann beim Film und dessen Emulsionstiefe kleine Unschärfezonen um punktförmige Abbildungen zu sehen sein. M. E. kann es eigentlich nicht möglich sein, (etwas) Unschärfe durch eine bestimmte Schichttiefe in Schärfe umzuwandeln - es sei denn, es gibt eine intelligente Emulsion mit eingebautem Photoshop. ;)

Hinter dem Objektiv gibt es die Bildebene, in der ein Bild maximaler Schärfe entsteht, und auch hier kann man eine (nun bildseitige) Schärfentiefe berechnen, in der die Bildschärfe noch akzeptabel bleibt. Dieses Bild müssen wir nun noch festhalten, auf chemische Weise mit einem Silberhalogenidfilm oder auf elektrische Weise mit einem Sensor. Wenn man sich den Bildwandler, sei es eine Filmemulsion oder ein Sensor, idealerweise als Ebene vorstellt, dann müsste diese Ebene mit der Bildebene zusammenfallen, damit ein Bild maximaler Schärfe festgehalten wird. Schon die Silberhalogenidkristalle haben aber eine gewisse Dicke und die Emulsionsschicht, in der diese Kristalle eingebettet sind, ist noch einmal dicker. Farbfilme bestehen zudem aus mindestens drei lichtempfindlichen Schichten, zwischen denen sich wiederum noch Filterschichten befinden. Daher lässt sich die Idealvorstellung nicht verwirklichen – man kann die Bildebene irgendwo innerhalb der Gesamtdicke des Filmmaterials positionieren, aber nicht gleichzeitig in allen drei lichtempfindlichen Schichten. Man wird lediglich danach trachten, die Bildebene innerhalb der mittleren, grünempfindlichen Schicht zu positionieren; die Schärfe in den rot- und blauempfindlichen Schichten fällt dann nur wenig ab.

 

Diese Kompromisslösung, die die maximal erreichbare Schärfe begrenzt, hat aber auch einen Vorteil. Liegt die Bildebene um wenige Mikrometer vor oder hinter der mittleren Emulsionsschicht, entsteht immer noch ein scharfes Bild in einer der anderen beiden Schichten, und die Gesamtschärfe des aus allen drei Schichten bestehenden Farbbildes leidet nur geringfügig. Erst wenn die Bildebene außerhalb des Films liegt, fällt die Schärfe sichtbar ab.

 

Sensoren sind völlig anders aufgebaut. Es gibt eine einzige Ebene, in der sich entscheidet, von welchem Pixel ein Lichtstrahl registriert werden wird, und die durchaus nennenswerte Tiefenausdehnung des Sensors, der ebenfalls aus Schichten von diversen Filtern, Mikrolinsen und dem eigentlichen Chip besteht, hat hierauf keinen Einfluss. Der Schärfeneindruck des Sensorbildes entspricht daher dem einer extrem dünnen Emulsion und kann in der Praxis nur durch künstliche Unschärfe verringert werden, wie sie ein Antialiasingfilter erzeugt. Bei einem Sensor ohne ein solches Filter hängt die Auflösung, abgesehen vom Auflösungsvermögen des Objektivs, nur noch von der Zahl der Pixel ab, während sie beim Filmmaterial nicht nur von der Korngröße, sondern auch von der Dicke der Emulsion abhängt.

 

Dass sich das erstens so verhält und dass es, was ja entscheidend ist, auch praxisrelevant ist, hatte sich zunächst herausgestellt, als man auf das schon erwähnte Problem des Focus Shift oder der Blendendifferenz stieß, also der Verschiebung der Ebene optimaler Schärfe beim Abblenden. Das Phänomen als solches war schon lange Zeit bekannt, aber erst die M8 machte es zu einem echten Problem. Erst die gestiegenen Ansprüche an die Bildschärfe, wie sie der Sensor der M8 stellte, machte die von denselben Objektiven schon immer produzierte leichte Unschärfe überhaupt sichtbar. Daran ändert auch die M9 nichts, deren Sensor ja denselben Pixelabstand und ebenfalls kein Antialiasingfilter hat. Nur die Sensorgröße hat sich verändert, womit sich der eine Teil der Gründe, die bei der M8 zu weiterem Abblenden zwingen, zwar erledigt hat, der andere Teil aber nicht. Galt für die M8 die Regel, dass man sicherheitshalber um zwei Stufen weiter abblenden sollte, ist es bei der M9 nur noch eine Blendenstufe.

Link to post
Share on other sites

Die traditionelle Herangehensweise ist die, von einem Betrachter auszugehen, der ein Bild aus einem Abstand betrachtet, in dem er es noch vollständig erfassen kann, und man geht weiterhin davon aus, dass dies bei einem Betrachtungsabstand gegeben ist, der gleich der Bilddiagonalen ist.

 

Genau. Deswegen ist die Schärfentiefenskala genauso gültig für M9 wie für Film-M-Leicas. Und nur für die beschriebene Situation gibt es eine Schärfentiefeskala und nur dafür ist sie brauchbar.

 

Es sind freilich noch unzählige weitere Varianten von Ausschnittsbetrachtungen denkbar die noch nicht besprochen wurden, in denen die Schärfentiefeskala sowieso nicht gilt. Vor allem bei der M8 wegen des kleineren Formats, um die es im Testbericht aber auch nicht gegangen ist.

Link to post
Share on other sites

Der langen Rede kurzer Sinn ist nach wie vor die Gültigkeit der Berek'schen Formel für den Normalfall eines Prints, vorausgesetzt der Bildaufzeichnungssensor, egal ob Film oder Chip löst höher auf als der Zerstreuungskreis.

Alles andere sind Verschärfungen der Bedingung, ob nun einer in 100% Darstellung seine Nase auf der Monitorscheibe plattdrückt oder ein durch sonstige Randbedingungen geänderter Betrachtungsabstand ins Spiel kommt.

Umgekehrt gilt das gleiche: Es kommt nicht von ungefähr, daß die Riesenposter auf der Photokina ganz hoch oben in den Hallen aufgehängt sind.

Wer diese Abweichungen berücksichtigen will, verfährt halt so wie Michael beschrieben. An der Allgemeingültigkeit der Skalen an den Leicaobjektiven ändert das nichts. Es ist halt wie stets mit Durchschnittswerten. Sie sind eben Durchschnitt. :-)

 

Noch was: Es ist nicht die Regel, daß ein Fotograf die volle Leistungsfähigkeit der Abbildung seiner Kamera ausnutzt.

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...