Jump to content

Welche Kamera rauscht mehr (OT aus M10)


01af

Recommended Posts

Advertisement (gone after registration)

... wurde in Aussicht gestellt, dass die Kamera mit der Bezeichnung Fujifilm X-T2 unter gleichen Bedingungen mehr rauschen wird als die Leica M10.

Ja, logisch. Kamera 1 hat ja auch einen Sensor, der um den linearen Faktor 1,53 kleiner ist als der der Kamera 2, also weniger als halb so viel Fläche hat.

 

 

Kamera 1 hat somit ungefähr gleich viele, aber kleinere Pixel, und somit ist das Rauschen für jedes Pixel höher.

 

Ja, klar.

 

 

Wenn Du also mit beiden Kameras genau dasselbe Bild aufnimmst, ist das Bild, das mit Kamera 1 aufgenommen ist, stärker verrauscht als das Bild, das mit Kamera 2 aufgenommen ist.

Ja, selbstverständlich.

 

Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird.

 

 

Ganz toll (danke) ist das Argument: Wenn die Helligkeit gleich bleibt! NICHT die Belichtung.

Was ist das denn jetzt wieder für ein Unfug!? Wenn die Helligkeit gleich bleibt, dann bleibt auch die Belichtung gleich. Aber die Lichtmenge ist verschieden. Mehr Licht gibt weniger Rauschen, so einfach ist das. Deswegen geben (bei jeweils gleicher Technologie) größere Aufnahmeformate höhere Bildqualität – völlig einerlei, ob analog oder digital oder welche Pixelzahl.

Link to post
Share on other sites

Beschränken wir die Diskussion für den Augenblick auf digitale Kameras mit Schwarzweisssensoren (also ohne Farbfilterarrays), wo jedes Pixel nur einen Helligkeitswert aufweist.

 

Der Helligkeitswert eines Pixels, der vom Sensor geliefert wird, sollte möglichst genau proportional zur Lichtmenge sein, die den Sensor an der Stelle getroffen hat, welche das Pixel repräsentiert. Je genauer, desto besser. Aus verschiedenen Gründen sind die Helligkeitswerte zwar ziemlich genau, aber nicht vollkommen genau. Wir müssen also mit einer Ungenauigkeit leben. "Ungenau" heisst, dass der Helligkeitswert eines Pixels wahrscheinlich um einen Betrag, den wir nicht ermitteln können, nicht stimmt.

 

Die Ursachen für diese Abweichungen der Werte beeinflussen benachbarte Pixel unterschiedlich stark. Demzufolge haben benachbarte Pixel, welche Teile einer gleichmässig hellen Fläche abbilden, Werte, die sich um verschiedene Beträge unterscheiden. 

 

In einer nicht verrauschten Abbildung einer gleichmässig beleuchteten Fläche haben also alle Pixel denselben Helligkeitswert; in einer schwach verrauschten Abbildung derselben Fläche haben die Helligkeitswerte im Durchschnitt kleine Differenzen zum korrekten Helligkeitswert und in einer stark verrauschten Abbildung sind die Differenzen gross.

 

Bisher sollte eigentlich alles schon bekannt sein.

 

(Fortsetzung folgt)

Link to post
Share on other sites

Ich erwarte das der Leica M10 Sensor alle anderen Sensoren schlägt und zwar in allen Diziplinen!

Ich erwarte allerdings jede Woche auch den Jack Pott!

Commanderle

Notiz in der Zeitung:

Ein Bayer gewinnt die Millionen. Du wohnst zu weit unten? :-))

Aber vielleicht nächste Woche? vielleicht doch vorbestellen. ?

Edited by Talker
Link to post
Share on other sites

 

 

 

.....

 

Ja, selbstverständlich.

 

Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird.

 

 

.....

 

Zu diesem Punkt würde ich widersprechen wollen. Jedes Pixel trägt seinen Anteil zum Rauschen bei. Ist das einzelne Pixel größer produziert es aber nicht einen maßstäblich entsprechend größeren Rauschpegel als das kleinere Pixel. Aber die Lichtaufnahmekapazität  ist größer.

Das heißt, der Anteil des Nutzsignals für das Bild ist im Verhältnis größer im Vergleich zum kleineren Pixel.

Damit wird bei größeren Pixeln der Rauschanteil relativ kleiner.

 

Ich versuche es mit einem Beispiel zusätzlich zu erklären (wenn ich auch weiß das jedes Beispiel ein wenig hinkt).

 

Der große Sensor sei ein Saal mit 100 Menschen darin, die sich im Raum gleichmäßig verteilen. Alle unterhalten sich in normaler Konversationslautstärke.

Diese Geräuschkulisse ist gewissermaßen das Rauschen.

Wenn wir beide dort zusammenstünden könnten wir uns auch in normaler Lautstärke unterhalten und würden jedes Wort verstehen. Kein Informationsverlust.

 

Nun wechselt die ganze Truppe mit 100 Menschen in einen halb so großen Raum (kleiner Sensor). Die Konversationslautstärke bleibt unverändert. Aber nun stehen wir mit unseren Nachbarn Seite an Seite, Rücken an Rücken. Die Hintergrund-Geräuschkulisse (Rauschen) wäre erheblich stärker. Würden wir unsere Unterhaltung in gleicher Lautstärke fortsetzen wie im großen Saal gäbe es Verständigungsschwierigkeiten (Informationsverluste). Die Differenz des Nutzsignal-Pegels (unser Gespräch) zum Störsignal (Hintergrundgeräuschkulisse, Rauschen) wäre wesentlich geringer als im großen Saal.

 

Wenn nun die Hälfte der Leute den kleinen Raum verläßt (größere Pixel auf dem kleinen Sensor) hätten wir beim Pegel-Abstand Nutzsignal zum Störsignal wieder die Verhältnisse wie zuvor im großen Saal. Aber es tragen nun auch nur noch die Hälfte der Leute zur Konversation bei.

 

Noch ein Wort zu Alex.U

 

Die Blendenzahl ist eine relative geometrische Größe (Brennweite : Objektivöffnung). Das gilt immer unabhängig vom Aufnahmeformat. daher ist Blende 1,4 bei APS-C genauso Blende 1,4 wie bei "Vollformat".

Ich denke das Du gemeint hast, daß bei Blende 1,4 auf dem APS-C Sensor eine geringere Lichtmenge einfällt als bei Blende 1,4 für den Vollformatsensor (identische Belichtungszeit vorausgesetzt) was natürlich richtig ist.

  • Like 2
Link to post
Share on other sites

...

 

(Fortsetzung folgt)

Und wo kommt jetzt ungenauen Werte her?

 

Dies ist der Lauf der Dinge vom einfallenden Licht bis zum Wert des Pixels, der vom Sensor geliefert wird, soweit ich ihn verstanden habe (also nur sehr ungefähr):

  1. Photonen gelangen durch das Objektiv und durch die Deckgläser und Microlinsen vor dem Sensor in den lichtempfindlichen Teil des Sensors.
  2. Im lichtempfindlichen Teil verschiebt jedes Photon ein oder mehrere Elektronen in ihren Bahnen und erzeugt oder vernichtet ein kleines Quantum elektrischer Ladung. Dieses ist die erste Umwandlung des optischen Signals in eine analoge elektrische Grösse.
  3. Nach Ablauf der Belichtungszeit werden die Ladungen aus den einzelnen Vertiefungen, die den Pixeln entsprechen, zur Bearbeitung an eine zentrale Stelle verschoben.
  4. Das noch immer analoge elektrische Signal wird mit einem Verstärker verstärkt.
  5. Das verstärkte analoge Signal wird mittels eines Analog/Digital-Wandlers in ein digitales Signal umgewandelt; die zweite Umwandlung.
  6. Das so erstellte digitale Signal wird den Prozessoren der Kamera zur Nachbearbeitung und Speicherung zugeführt.

Schritt 2 ist der erste Vorgang in der Kette, der Ungenauigkeiten einführt und folglich zum Rauschen beiträgt. Je weniger individuelle Photonen in einer einzelnen Pixel-Zelle ankommen, desto grösser ist die zu erwartende Streuung. Es kommen mehr Photonen an, wenn die Stelle im Bild heller ist oder wenn die Fläche der Pixel-Zelle grösser ist.

 

Wenn dann noch viel mehr Photonen ankommen, ist die Zelle übersättigt und kann keine weiteren Unterschiede wahrnehmen. Das ist aber nicht Thema dieser Diskussion.

 

Schritt 3 - die Übertragung der Ladungen zur Verarbeitung - und Schritt 4 - die Verstärkung des analogen Signals - können ebenfalls Fehler einführen, da jede analoge Schaltung ein gewisses Rauschen aufweist. Betroffen dürften wohl eher kleine Signale sein, und ich vermute, dass kleine Signale dunklen Stellen entsprechen.

 

Schritt 5 - die Umwandlung in ein digitales Signal - ist wiederum eine analoge Schaltung und kann noch mehr Rauschen einführen. Die Umwandlung eines analogen in ein digitales Signal wird wohl in irgend einer Form das analoge Signal mit einer Referenzgrösse vergleichen. Kleinste Schwankungen in dieser Referenzgrösse führen ebenfalls Fehler im Signal ein, und wiederum werden wohl schwache Signale stärker betroffen als starke. 

 

Die Auflösung des Analog/Digitalwandler führt zusätzlich eine neue Form von Rauschen zu: das Quantisierungsrauschen, das dadurch entsteht, dass ein analoger Wert um einen kleinen Betrag vom digitalisierten Wert abweicht. Beim digitalen Bild spricht man in diesem Fall von Verpixelung. Diese Form von Rauschen können wir aber von der gegenwärtigen Diskussion ausklammern, weil sie nur von der Genauigkeit des Wandlers abhängt.

 

Soweit ich das beurteilen kann, ist die erste Umwandlung vom optischen in ein analoges elektrisches Signal die Hauptquelle für das hier diskutierte Bildrauschen. Es ist offenkundig, dass bei sonst gleicher Bauweise nur die Grösse der Pixelzelle und die Lichtmenge, die bei dieser Pixelzelle ankommt, die Stärke des Rauschens bestimmt. Die nachgelagerten Stufen verstärken das in dieser Stufe erzeugte Rauschen und fügen neue Störungen hinzu, die aber von der Grösse der Pixelzelle und des Sensors unabhängig sind.

 

Der von 01af genannte Effekt, dass in einem grösseren Sensor mehr Licht vorhanden sei, scheint sich in dieses Modell nicht auszuwirken. Das ist entweder so, weil der Effekt so nicht stattfindet, oder weil das Modell des Sensors so nicht stimmt. Ich kann's nicht beurteilen. 

Link to post
Share on other sites

Advertisement (gone after registration)

 

Soweit ich das beurteilen kann, ist die erste Umwandlung vom optischen in ein analoges elektrisches Signal die Hauptquelle für das hier diskutierte Bildrauschen. Es ist offenkundig, dass bei sonst gleicher Bauweise nur die Grösse der Pixelzelle und die Lichtmenge, die bei dieser Pixelzelle ankommt, die Stärke des Rauschens bestimmt. Die nachgelagerten Stufen verstärken das in dieser Stufe erzeugte Rauschen und fügen neue Störungen hinzu, die aber von der Grösse der Pixelzelle und des Sensors unabhängig sind.

 

Der von 01af genannte Effekt, dass in einem grösseren Sensor mehr Licht vorhanden sei, scheint sich in dieses Modell nicht auszuwirken. Das ist entweder so, weil der Effekt so nicht stattfindet, oder weil das Modell des Sensors so nicht stimmt. Ich kann's nicht beurteilen. 

 

Ich meine Du beurteilst das richtig. Je größer das einzelne Pixel ist umso größer ist seine "Lichtspeichermenge" ( in Gestalt von Ladungsträgern) und umso größer ist der sogennante Signal-Rauschabstand.

Damit kann das eigentliche Nutzsignal besser erkannt und von den Störsignalen "gesäubert" werden.

 

Sicherlich ist die auf dem großen Sensor einfallende Lichtmenge größer aber sie verteilt sich auch auf eine größere Fläche. Aber am Ende entscheidend ist wieder das Verhältnis der Größen von Nutzsignal zu Störsignal. Und das verbessert sich eben mit zunehmender Pixelgröße.

 

Aus diesem Grund hat die SONY A7s auch lediglich nur 12 Mpx, um eben die vergleichsweise hohe ISO-Leistung zu ermöglichen.

Link to post
Share on other sites

Guest digiuser_re-reloaded

Ich finde das müßig, denn was zählt ist das Ergebnis. Zu welchen Anteilen das vom Sensor, den Algorithmen in der Kamera oder der Nachbearbeitung kommt, ist doch völlig egal. ;)

 

Es ist viel simpler. Wenn man mit einer M10 fotografieren möchte, muss man mit dem von Leica eingebauten Sensor leben, ob man will oder nicht.

Allerdings ist das im Falle der M10 gar nicht so tragisch, denn Leica hat da schon einen richtig guten Sensor eingebaut, so jedenfalls meine Erfahrung.

Edited by digiuser_re-reloaded
  • Like 6
Link to post
Share on other sites

Ich meine Du beurteilst das richtig. Je größer das einzelne Pixel ist umso größer ist seine "Lichtspeichermenge" ( in Gestalt von Ladungsträgern) und umso größer ist der sogennante Signal-Rauschabstand.

Damit kann das eigentliche Nutzsignal besser erkannt und von den Störsignalen "gesäubert" werden.

 

Sicherlich ist die auf dem großen Sensor einfallende Lichtmenge größer aber sie verteilt sich auch auf eine größere Fläche. Aber am Ende entscheidend ist wieder das Verhältnis der Größen von Nutzsignal zu Störsignal. Und das verbessert sich eben mit zunehmender Pixelgröße.

 

Aus diesem Grund hat die SONY A7s auch lediglich nur 12 Mpx, um eben die vergleichsweise hohe ISO-Leistung zu ermöglichen.

 

 

Was man allerdings berücksichtigen muss ist, das in weiten Bereichen es für das Rauschen egal ist, ob man ein großes Pixel oder die gleiche Fläche in 2 oder 4 kleine Pixel unterteilt, und dann später diese Pixel wieder zusammenrechnet. Die Rauschreduzierung durch die Mittelung der Pixel entspricht rechnerisch genau der Rauchreduzierung des größeren Ausgangspixels. 

Dies gilt nur so lange, wie nicht besonderem, von der Pixelgröße abhängige Effekte auftreten. So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben, und dann bricht der Vergleich zusammen, weil insgesamt weniger Licht eingefangen wird, und das Rauschen wieder zunimmt. 

 

Viele Grüße,

Peter

Link to post
Share on other sites

Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird.

 

 

 

Und jetzt kommt es ganz ketzeisch: Offenblende 1,4 ist nicht dasselbe bei Vollformat oder APS-C.

 

 

...jetzt geht mir ein Licht auf. Deshalb waren die Bilder bei meiner ollen Robot (24x24mm) immer dunkler als die mit meinen Leicas bei 24x36mm. Die Gesamtlichtmenge, die durch das Objektiv kommt, ist ausschlaggebend und und und und (die Aufregung 'tschuldigung) weil die Schneider-Scherben auf quadratisch gerechnet waren, ging da insgesamt weniger Licht durch. Nicht wie es sich über die Fläche verteilt ist ausschlaggebend, sondern die Gesamtmenge. Das muß einem auch mal jemand sagen. Das lässt auch das Thema Vignettierung in ganz neuem Licht erstrahlen. Wir müssen einfach die Gesamtlichtmenge erhöhen, die wir durchs Objektiv schicken dann ist auch die Vignettierung weg.

Edited by Unbekannter Photograph
Link to post
Share on other sites

.... So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben, und dann bricht der Vergleich zusammen, ....

und  so ist es. Die "backlit"-Sensoren sollen diesen Teil des Problems reduzieren, indem sich die Leitungen nicht mehr auf der Seite des Chips befinden, wo das Licht herkommt.

  • Like 1
Link to post
Share on other sites

#2560

 

und da ich auch beide Systeme habe und nutze, halte ich das für esoterisch.

 

Natürlich sind beide Systeme unterschiedlich abgestimmt, aber letztlich lässt sich Beides an einander anpassen.

 

Hinzu kommt, nehme ich eine Leicaoptik an der Nikon, sieht es ganz bestimmt nach ein wenig Anpassung wie eben leicatypisch aus. Ach ja, Leica hat tolle Optiken, aber die Mitwettbewerber, insbesonders Nikon, hat auch tolle Optiken. DER Unterschied ist einfach - Leica hat keine wirkliche optische Krücken, Nikon aber sehr wohl. Wenn aber verglichen werden soll, sollte man auch vergleichbare Optiken nehmen.

 

Und die M8 mit einer modernen Digi zu vergleichen ist unsinnig. Die M8 ist sicher eine gute Kamera, aber alles Andere als neutral und farbrichtig. D.h. nicht, das man diese Farbanmutung nicht mögen darf.

Edited by hverheyen
  • Like 1
Link to post
Share on other sites

... es für das Rauschen egal ist, ob man ein großes Pixel oder die gleiche Fläche in zwei oder vier kleine Pixel unterteilt, und dann später diese Pixel wieder zusammenrechnet. Die Rauschreduzierung durch die Mittelung der Pixel entspricht rechnerisch genau der Rauchreduzierung des größeren Ausgangspixels.

Was ich die ganze Zeit sage. Puh – ich befürchtete schon, ich sei der einzige hier, der klar denken kann.

 

 

Dies gilt nur so lange, wie nicht besonderem, von der Pixelgröße abhängige Effekte auftreten. So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben ...

Das kann nicht nur sein, das ist so. Der Anteil der tatsächlich lichtempfindlichen Fläche an der Gesamtfläche eines Halbleiter-Bildwandlers (es gibt einen Fachausdruck dafür, aber der will mir gerade nicht einfallen) lag in den Anfangstagen der Digitalfotografie erschreckend niedrig – bei kaum 20 oder 30 % oder so. Im Laufe der Jahre wurde dieser Anteil stetig gesteigert, durch optimierte Sensorarchitekturen, leistungsfähigere Elektronik, verfeinerte Fertigungsmethoden und nicht zuletzt durch Mikrolinsen. Heutzutage liegt dieser Anteil wohl bei 80 oder 90 %.

 

Doch solange dieser Anteil keine 100 % beträgt, gilt die Regel, daß sich die Rauscheffekte von kleineren Pixeln und mehr Pixeln auf gleicher Sensorfläche gegenseitig aufheben, nur im Prinzip, aber in der Praxis dann eben doch nicht so ganz. Einfach weil der "Verschnitt" vieler kleiner Pixel bei gleicher Architektur größer ist.

 

 

... und dann bricht der Vergleich zusammen, weil insgesamt weniger Licht eingefangen wird, und das Rauschen wieder zunimmt.

Von "zusammenbrechen" kann keine Rede sein. Bei modernen Sensoren wie z. B. denen in den aktuellen Sony-Alpha-7-Modellen hat die A7S II mit ihren 12 MP einen Vorteil erst dann, wenn's eng wird – also bei absurd hohen ISO-Werten. Bei niedrigen und mittleren ISO-Werten hat sie gegenüber der A7 II und A7R II überhaupt keinen Vorteil beim Rauschen und einen klaren Nachteil bei der Detailwiedergabe.

  • Like 1
Link to post
Share on other sites

.....also schreibt Henner (und nicht nur er) Mist: http://www.henner.info/rauschen.htm#Zellengr=Rauschen

 

 

Gleichgültig, wie viele Fortschritte in Zukunft auch erreicht werden; eine 12MP-Kameras mit einem kleinen 1/2,7" Sensor wird immer sehr viel stärker rauschen als eine 12MP-Kamera mit einem 1/1,7" Sensor; denn letzterer hat eine etwa doppelt so große Fläche und deshalb können die Sensorzellen darauf doppelt so groß sein! 

Zukünftig wird das Rauschen aber (hoffentlich) erst bei immer höheren ISO-Werten einsetzen.

 
Link to post
Share on other sites

Was ich die ganze Zeit sage. ....

Was Du die ganze Zeit hier sagst: der grössere Sensor rauscht weniger, weil er mehr Licht bekommt. Du kannst das selbst weiter oben nachsehen. Das ist nicht dasselbe wie: "der Mittelwert aus benachbarten Pixeln weist nicht viel mehr Rauschen auf als der Wert eines grösseren Pixels, dessen Fläche die kleineren Pixel umschreibt."

  • Like 1
Link to post
Share on other sites

http://www.gradias.de/fachartikel-pc-praxis/articles/grundlagen-iso-und-bildrauschen.html

 

 

 

Bedeutend für die Stärke des Bildrauschens ist auch die Größe der Fotodioden und deren Abstand zueinander. Sind die Fotodioden extrem klein, können sie weniger Licht aufnehmen als größere Fotodioden. Den Abstand der einzelnen Fotodioden zueinander nennt der Fachmann Pixelpitch. Die Größe und der Abstand der Fotodioden sind der Grund dafür, dass bei Kompaktkameras das Bildrauschen viel schneller auffällt als bei Spiegelreflexkameras. Deren Sensor ist schließlich um ein Vielfaches größer – und damit auch die einzelnen Fotodioden.

 

 

...die Fachpresse muß sich echt warm anziehen.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...