01af Posted February 14, 2017 Author Share #21 Posted February 14, 2017 Advertisement (gone after registration) ... wurde in Aussicht gestellt, dass die Kamera mit der Bezeichnung Fujifilm X-T2 unter gleichen Bedingungen mehr rauschen wird als die Leica M10. Ja, logisch. Kamera 1 hat ja auch einen Sensor, der um den linearen Faktor 1,53 kleiner ist als der der Kamera 2, also weniger als halb so viel Fläche hat. Kamera 1 hat somit ungefähr gleich viele, aber kleinere Pixel, und somit ist das Rauschen für jedes Pixel höher. Ja, klar. Wenn Du also mit beiden Kameras genau dasselbe Bild aufnimmst, ist das Bild, das mit Kamera 1 aufgenommen ist, stärker verrauscht als das Bild, das mit Kamera 2 aufgenommen ist. Ja, selbstverständlich. Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird. Ganz toll (danke) ist das Argument: Wenn die Helligkeit gleich bleibt! NICHT die Belichtung. Was ist das denn jetzt wieder für ein Unfug!? Wenn die Helligkeit gleich bleibt, dann bleibt auch die Belichtung gleich. Aber die Lichtmenge ist verschieden. Mehr Licht gibt weniger Rauschen, so einfach ist das. Deswegen geben (bei jeweils gleicher Technologie) größere Aufnahmeformate höhere Bildqualität – völlig einerlei, ob analog oder digital oder welche Pixelzahl. Quote Link to post Share on other sites More sharing options...
Advertisement Posted February 14, 2017 Posted February 14, 2017 Hi 01af, Take a look here Welche Kamera rauscht mehr (OT aus M10). I'm sure you'll find what you were looking for!
pop Posted February 14, 2017 Share #22 Posted February 14, 2017 Beschränken wir die Diskussion für den Augenblick auf digitale Kameras mit Schwarzweisssensoren (also ohne Farbfilterarrays), wo jedes Pixel nur einen Helligkeitswert aufweist. Der Helligkeitswert eines Pixels, der vom Sensor geliefert wird, sollte möglichst genau proportional zur Lichtmenge sein, die den Sensor an der Stelle getroffen hat, welche das Pixel repräsentiert. Je genauer, desto besser. Aus verschiedenen Gründen sind die Helligkeitswerte zwar ziemlich genau, aber nicht vollkommen genau. Wir müssen also mit einer Ungenauigkeit leben. "Ungenau" heisst, dass der Helligkeitswert eines Pixels wahrscheinlich um einen Betrag, den wir nicht ermitteln können, nicht stimmt. Die Ursachen für diese Abweichungen der Werte beeinflussen benachbarte Pixel unterschiedlich stark. Demzufolge haben benachbarte Pixel, welche Teile einer gleichmässig hellen Fläche abbilden, Werte, die sich um verschiedene Beträge unterscheiden. In einer nicht verrauschten Abbildung einer gleichmässig beleuchteten Fläche haben also alle Pixel denselben Helligkeitswert; in einer schwach verrauschten Abbildung derselben Fläche haben die Helligkeitswerte im Durchschnitt kleine Differenzen zum korrekten Helligkeitswert und in einer stark verrauschten Abbildung sind die Differenzen gross. Bisher sollte eigentlich alles schon bekannt sein. (Fortsetzung folgt) Quote Link to post Share on other sites More sharing options...
SuperA Posted February 14, 2017 Share #23 Posted February 14, 2017 Ich finde das müßig, denn was zählt ist das Ergebnis. Zu welchen Anteilen das vom Sensor, den Algorithmen in der Kamera oder der Nachbearbeitung kommt, ist doch völlig egal. Quote Link to post Share on other sites More sharing options...
Talker Posted February 14, 2017 Share #24 Posted February 14, 2017 (edited) Ich erwarte das der Leica M10 Sensor alle anderen Sensoren schlägt und zwar in allen Diziplinen! Ich erwarte allerdings jede Woche auch den Jack Pott! Commanderle Notiz in der Zeitung:Ein Bayer gewinnt die Millionen. Du wohnst zu weit unten? :-)) Aber vielleicht nächste Woche? vielleicht doch vorbestellen. ? Edited February 14, 2017 by Talker Quote Link to post Share on other sites More sharing options...
ri.LVI Posted February 14, 2017 Share #25 Posted February 14, 2017 ..... Ja, selbstverständlich. Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird. ..... Zu diesem Punkt würde ich widersprechen wollen. Jedes Pixel trägt seinen Anteil zum Rauschen bei. Ist das einzelne Pixel größer produziert es aber nicht einen maßstäblich entsprechend größeren Rauschpegel als das kleinere Pixel. Aber die Lichtaufnahmekapazität ist größer. Das heißt, der Anteil des Nutzsignals für das Bild ist im Verhältnis größer im Vergleich zum kleineren Pixel. Damit wird bei größeren Pixeln der Rauschanteil relativ kleiner. Ich versuche es mit einem Beispiel zusätzlich zu erklären (wenn ich auch weiß das jedes Beispiel ein wenig hinkt). Der große Sensor sei ein Saal mit 100 Menschen darin, die sich im Raum gleichmäßig verteilen. Alle unterhalten sich in normaler Konversationslautstärke. Diese Geräuschkulisse ist gewissermaßen das Rauschen. Wenn wir beide dort zusammenstünden könnten wir uns auch in normaler Lautstärke unterhalten und würden jedes Wort verstehen. Kein Informationsverlust. Nun wechselt die ganze Truppe mit 100 Menschen in einen halb so großen Raum (kleiner Sensor). Die Konversationslautstärke bleibt unverändert. Aber nun stehen wir mit unseren Nachbarn Seite an Seite, Rücken an Rücken. Die Hintergrund-Geräuschkulisse (Rauschen) wäre erheblich stärker. Würden wir unsere Unterhaltung in gleicher Lautstärke fortsetzen wie im großen Saal gäbe es Verständigungsschwierigkeiten (Informationsverluste). Die Differenz des Nutzsignal-Pegels (unser Gespräch) zum Störsignal (Hintergrundgeräuschkulisse, Rauschen) wäre wesentlich geringer als im großen Saal. Wenn nun die Hälfte der Leute den kleinen Raum verläßt (größere Pixel auf dem kleinen Sensor) hätten wir beim Pegel-Abstand Nutzsignal zum Störsignal wieder die Verhältnisse wie zuvor im großen Saal. Aber es tragen nun auch nur noch die Hälfte der Leute zur Konversation bei. Noch ein Wort zu Alex.U Die Blendenzahl ist eine relative geometrische Größe (Brennweite : Objektivöffnung). Das gilt immer unabhängig vom Aufnahmeformat. daher ist Blende 1,4 bei APS-C genauso Blende 1,4 wie bei "Vollformat". Ich denke das Du gemeint hast, daß bei Blende 1,4 auf dem APS-C Sensor eine geringere Lichtmenge einfällt als bei Blende 1,4 für den Vollformatsensor (identische Belichtungszeit vorausgesetzt) was natürlich richtig ist. 2 Quote Link to post Share on other sites More sharing options...
pop Posted February 14, 2017 Share #26 Posted February 14, 2017 ... (Fortsetzung folgt) Und wo kommt jetzt ungenauen Werte her? Dies ist der Lauf der Dinge vom einfallenden Licht bis zum Wert des Pixels, der vom Sensor geliefert wird, soweit ich ihn verstanden habe (also nur sehr ungefähr): Photonen gelangen durch das Objektiv und durch die Deckgläser und Microlinsen vor dem Sensor in den lichtempfindlichen Teil des Sensors. Im lichtempfindlichen Teil verschiebt jedes Photon ein oder mehrere Elektronen in ihren Bahnen und erzeugt oder vernichtet ein kleines Quantum elektrischer Ladung. Dieses ist die erste Umwandlung des optischen Signals in eine analoge elektrische Grösse. Nach Ablauf der Belichtungszeit werden die Ladungen aus den einzelnen Vertiefungen, die den Pixeln entsprechen, zur Bearbeitung an eine zentrale Stelle verschoben. Das noch immer analoge elektrische Signal wird mit einem Verstärker verstärkt. Das verstärkte analoge Signal wird mittels eines Analog/Digital-Wandlers in ein digitales Signal umgewandelt; die zweite Umwandlung. Das so erstellte digitale Signal wird den Prozessoren der Kamera zur Nachbearbeitung und Speicherung zugeführt. Schritt 2 ist der erste Vorgang in der Kette, der Ungenauigkeiten einführt und folglich zum Rauschen beiträgt. Je weniger individuelle Photonen in einer einzelnen Pixel-Zelle ankommen, desto grösser ist die zu erwartende Streuung. Es kommen mehr Photonen an, wenn die Stelle im Bild heller ist oder wenn die Fläche der Pixel-Zelle grösser ist. Wenn dann noch viel mehr Photonen ankommen, ist die Zelle übersättigt und kann keine weiteren Unterschiede wahrnehmen. Das ist aber nicht Thema dieser Diskussion. Schritt 3 - die Übertragung der Ladungen zur Verarbeitung - und Schritt 4 - die Verstärkung des analogen Signals - können ebenfalls Fehler einführen, da jede analoge Schaltung ein gewisses Rauschen aufweist. Betroffen dürften wohl eher kleine Signale sein, und ich vermute, dass kleine Signale dunklen Stellen entsprechen. Schritt 5 - die Umwandlung in ein digitales Signal - ist wiederum eine analoge Schaltung und kann noch mehr Rauschen einführen. Die Umwandlung eines analogen in ein digitales Signal wird wohl in irgend einer Form das analoge Signal mit einer Referenzgrösse vergleichen. Kleinste Schwankungen in dieser Referenzgrösse führen ebenfalls Fehler im Signal ein, und wiederum werden wohl schwache Signale stärker betroffen als starke. Die Auflösung des Analog/Digitalwandler führt zusätzlich eine neue Form von Rauschen zu: das Quantisierungsrauschen, das dadurch entsteht, dass ein analoger Wert um einen kleinen Betrag vom digitalisierten Wert abweicht. Beim digitalen Bild spricht man in diesem Fall von Verpixelung. Diese Form von Rauschen können wir aber von der gegenwärtigen Diskussion ausklammern, weil sie nur von der Genauigkeit des Wandlers abhängt. Soweit ich das beurteilen kann, ist die erste Umwandlung vom optischen in ein analoges elektrisches Signal die Hauptquelle für das hier diskutierte Bildrauschen. Es ist offenkundig, dass bei sonst gleicher Bauweise nur die Grösse der Pixelzelle und die Lichtmenge, die bei dieser Pixelzelle ankommt, die Stärke des Rauschens bestimmt. Die nachgelagerten Stufen verstärken das in dieser Stufe erzeugte Rauschen und fügen neue Störungen hinzu, die aber von der Grösse der Pixelzelle und des Sensors unabhängig sind. Der von 01af genannte Effekt, dass in einem grösseren Sensor mehr Licht vorhanden sei, scheint sich in dieses Modell nicht auszuwirken. Das ist entweder so, weil der Effekt so nicht stattfindet, oder weil das Modell des Sensors so nicht stimmt. Ich kann's nicht beurteilen. Quote Link to post Share on other sites More sharing options...
ri.LVI Posted February 14, 2017 Share #27 Posted February 14, 2017 Advertisement (gone after registration) Soweit ich das beurteilen kann, ist die erste Umwandlung vom optischen in ein analoges elektrisches Signal die Hauptquelle für das hier diskutierte Bildrauschen. Es ist offenkundig, dass bei sonst gleicher Bauweise nur die Grösse der Pixelzelle und die Lichtmenge, die bei dieser Pixelzelle ankommt, die Stärke des Rauschens bestimmt. Die nachgelagerten Stufen verstärken das in dieser Stufe erzeugte Rauschen und fügen neue Störungen hinzu, die aber von der Grösse der Pixelzelle und des Sensors unabhängig sind. Der von 01af genannte Effekt, dass in einem grösseren Sensor mehr Licht vorhanden sei, scheint sich in dieses Modell nicht auszuwirken. Das ist entweder so, weil der Effekt so nicht stattfindet, oder weil das Modell des Sensors so nicht stimmt. Ich kann's nicht beurteilen. Ich meine Du beurteilst das richtig. Je größer das einzelne Pixel ist umso größer ist seine "Lichtspeichermenge" ( in Gestalt von Ladungsträgern) und umso größer ist der sogennante Signal-Rauschabstand. Damit kann das eigentliche Nutzsignal besser erkannt und von den Störsignalen "gesäubert" werden. Sicherlich ist die auf dem großen Sensor einfallende Lichtmenge größer aber sie verteilt sich auch auf eine größere Fläche. Aber am Ende entscheidend ist wieder das Verhältnis der Größen von Nutzsignal zu Störsignal. Und das verbessert sich eben mit zunehmender Pixelgröße. Aus diesem Grund hat die SONY A7s auch lediglich nur 12 Mpx, um eben die vergleichsweise hohe ISO-Leistung zu ermöglichen. Quote Link to post Share on other sites More sharing options...
Guest digiuser_re-reloaded Posted February 15, 2017 Share #28 Posted February 15, 2017 (edited) Ich finde das müßig, denn was zählt ist das Ergebnis. Zu welchen Anteilen das vom Sensor, den Algorithmen in der Kamera oder der Nachbearbeitung kommt, ist doch völlig egal. Es ist viel simpler. Wenn man mit einer M10 fotografieren möchte, muss man mit dem von Leica eingebauten Sensor leben, ob man will oder nicht. Allerdings ist das im Falle der M10 gar nicht so tragisch, denn Leica hat da schon einen richtig guten Sensor eingebaut, so jedenfalls meine Erfahrung. Edited February 15, 2017 by digiuser_re-reloaded 6 Quote Link to post Share on other sites More sharing options...
becker Posted February 15, 2017 Share #29 Posted February 15, 2017 (edited) So mag ich Mathematik. Edited February 15, 2017 by becker Quote Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted February 15, 2017 Share #30 Posted February 15, 2017 Welche These ist nun anerkannte und verpflichtende Sichtweise fürs LUF? Quote Link to post Share on other sites More sharing options...
-ph- Posted February 15, 2017 Share #31 Posted February 15, 2017 Ich meine Du beurteilst das richtig. Je größer das einzelne Pixel ist umso größer ist seine "Lichtspeichermenge" ( in Gestalt von Ladungsträgern) und umso größer ist der sogennante Signal-Rauschabstand. Damit kann das eigentliche Nutzsignal besser erkannt und von den Störsignalen "gesäubert" werden. Sicherlich ist die auf dem großen Sensor einfallende Lichtmenge größer aber sie verteilt sich auch auf eine größere Fläche. Aber am Ende entscheidend ist wieder das Verhältnis der Größen von Nutzsignal zu Störsignal. Und das verbessert sich eben mit zunehmender Pixelgröße. Aus diesem Grund hat die SONY A7s auch lediglich nur 12 Mpx, um eben die vergleichsweise hohe ISO-Leistung zu ermöglichen. Was man allerdings berücksichtigen muss ist, das in weiten Bereichen es für das Rauschen egal ist, ob man ein großes Pixel oder die gleiche Fläche in 2 oder 4 kleine Pixel unterteilt, und dann später diese Pixel wieder zusammenrechnet. Die Rauschreduzierung durch die Mittelung der Pixel entspricht rechnerisch genau der Rauchreduzierung des größeren Ausgangspixels. Dies gilt nur so lange, wie nicht besonderem, von der Pixelgröße abhängige Effekte auftreten. So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben, und dann bricht der Vergleich zusammen, weil insgesamt weniger Licht eingefangen wird, und das Rauschen wieder zunimmt. Viele Grüße, Peter Quote Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted February 15, 2017 Share #32 Posted February 15, 2017 (edited) Der entscheidende Punkt ist aber: Das Bild aus Kamera 1 wäre auch dann verrauschter, wenn ihr Sensor (bei unveränderter Größe) rund 3.900 × 2.600 Pixel und damit dieselbe Pixelgröße hätte wie Kamera 2. Eben weil die Fläche kleiner ist und somit kaum halb so viel Licht zur Formung desselben Bildes eingefangen wird. Und jetzt kommt es ganz ketzeisch: Offenblende 1,4 ist nicht dasselbe bei Vollformat oder APS-C. ...jetzt geht mir ein Licht auf. Deshalb waren die Bilder bei meiner ollen Robot (24x24mm) immer dunkler als die mit meinen Leicas bei 24x36mm. Die Gesamtlichtmenge, die durch das Objektiv kommt, ist ausschlaggebend und und und und (die Aufregung 'tschuldigung) weil die Schneider-Scherben auf quadratisch gerechnet waren, ging da insgesamt weniger Licht durch. Nicht wie es sich über die Fläche verteilt ist ausschlaggebend, sondern die Gesamtmenge. Das muß einem auch mal jemand sagen. Das lässt auch das Thema Vignettierung in ganz neuem Licht erstrahlen. Wir müssen einfach die Gesamtlichtmenge erhöhen, die wir durchs Objektiv schicken dann ist auch die Vignettierung weg. Edited February 15, 2017 by Unbekannter Photograph Quote Link to post Share on other sites More sharing options...
pop Posted February 15, 2017 Share #33 Posted February 15, 2017 .... So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben, und dann bricht der Vergleich zusammen, .... und so ist es. Die "backlit"-Sensoren sollen diesen Teil des Problems reduzieren, indem sich die Leitungen nicht mehr auf der Seite des Chips befinden, wo das Licht herkommt. 1 Quote Link to post Share on other sites More sharing options...
B. Lichter Posted February 15, 2017 Share #34 Posted February 15, 2017 hinkommt. 1 Quote Link to post Share on other sites More sharing options...
hverheyen Posted February 15, 2017 Share #35 Posted February 15, 2017 (edited) #2560 und da ich auch beide Systeme habe und nutze, halte ich das für esoterisch. Natürlich sind beide Systeme unterschiedlich abgestimmt, aber letztlich lässt sich Beides an einander anpassen. Hinzu kommt, nehme ich eine Leicaoptik an der Nikon, sieht es ganz bestimmt nach ein wenig Anpassung wie eben leicatypisch aus. Ach ja, Leica hat tolle Optiken, aber die Mitwettbewerber, insbesonders Nikon, hat auch tolle Optiken. DER Unterschied ist einfach - Leica hat keine wirkliche optische Krücken, Nikon aber sehr wohl. Wenn aber verglichen werden soll, sollte man auch vergleichbare Optiken nehmen. Und die M8 mit einer modernen Digi zu vergleichen ist unsinnig. Die M8 ist sicher eine gute Kamera, aber alles Andere als neutral und farbrichtig. D.h. nicht, das man diese Farbanmutung nicht mögen darf. Edited February 15, 2017 by hverheyen 1 Quote Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted February 15, 2017 Share #36 Posted February 15, 2017 Aus diesem Grund hat die SONY A7s auch lediglich nur 12 Mpx, um eben die vergleichsweise hohe ISO-Leistung zu ermöglichen. Hätten die mal O1af und Alex U. gefragt. Die hätten denen schon erklärt, daß Sensoren mit so riesigen Pixeln keinen Einfluss auf ISO und Rauschen haben. 2 Quote Link to post Share on other sites More sharing options...
01af Posted February 15, 2017 Author Share #37 Posted February 15, 2017 ... es für das Rauschen egal ist, ob man ein großes Pixel oder die gleiche Fläche in zwei oder vier kleine Pixel unterteilt, und dann später diese Pixel wieder zusammenrechnet. Die Rauschreduzierung durch die Mittelung der Pixel entspricht rechnerisch genau der Rauchreduzierung des größeren Ausgangspixels. Was ich die ganze Zeit sage. Puh – ich befürchtete schon, ich sei der einzige hier, der klar denken kann. Dies gilt nur so lange, wie nicht besonderem, von der Pixelgröße abhängige Effekte auftreten. So kann bei kleineren Pixeln der "blinde" Bereich des Sensors (z.B. die Signalleitungen) einen höheren Anteil an der Pixelfläche haben ... Das kann nicht nur sein, das ist so. Der Anteil der tatsächlich lichtempfindlichen Fläche an der Gesamtfläche eines Halbleiter-Bildwandlers (es gibt einen Fachausdruck dafür, aber der will mir gerade nicht einfallen) lag in den Anfangstagen der Digitalfotografie erschreckend niedrig – bei kaum 20 oder 30 % oder so. Im Laufe der Jahre wurde dieser Anteil stetig gesteigert, durch optimierte Sensorarchitekturen, leistungsfähigere Elektronik, verfeinerte Fertigungsmethoden und nicht zuletzt durch Mikrolinsen. Heutzutage liegt dieser Anteil wohl bei 80 oder 90 %. Doch solange dieser Anteil keine 100 % beträgt, gilt die Regel, daß sich die Rauscheffekte von kleineren Pixeln und mehr Pixeln auf gleicher Sensorfläche gegenseitig aufheben, nur im Prinzip, aber in der Praxis dann eben doch nicht so ganz. Einfach weil der "Verschnitt" vieler kleiner Pixel bei gleicher Architektur größer ist. ... und dann bricht der Vergleich zusammen, weil insgesamt weniger Licht eingefangen wird, und das Rauschen wieder zunimmt. Von "zusammenbrechen" kann keine Rede sein. Bei modernen Sensoren wie z. B. denen in den aktuellen Sony-Alpha-7-Modellen hat die A7S II mit ihren 12 MP einen Vorteil erst dann, wenn's eng wird – also bei absurd hohen ISO-Werten. Bei niedrigen und mittleren ISO-Werten hat sie gegenüber der A7 II und A7R II überhaupt keinen Vorteil beim Rauschen und einen klaren Nachteil bei der Detailwiedergabe. 1 Quote Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted February 15, 2017 Share #38 Posted February 15, 2017 .....also schreibt Henner (und nicht nur er) Mist: http://www.henner.info/rauschen.htm#Zellengr=Rauschen Gleichgültig, wie viele Fortschritte in Zukunft auch erreicht werden; eine 12MP-Kameras mit einem kleinen 1/2,7" Sensor wird immer sehr viel stärker rauschen als eine 12MP-Kamera mit einem 1/1,7" Sensor; denn letzterer hat eine etwa doppelt so große Fläche und deshalb können die Sensorzellen darauf doppelt so groß sein! Zukünftig wird das Rauschen aber (hoffentlich) erst bei immer höheren ISO-Werten einsetzen. Quote Link to post Share on other sites More sharing options...
pop Posted February 15, 2017 Share #39 Posted February 15, 2017 Was ich die ganze Zeit sage. .... Was Du die ganze Zeit hier sagst: der grössere Sensor rauscht weniger, weil er mehr Licht bekommt. Du kannst das selbst weiter oben nachsehen. Das ist nicht dasselbe wie: "der Mittelwert aus benachbarten Pixeln weist nicht viel mehr Rauschen auf als der Wert eines grösseren Pixels, dessen Fläche die kleineren Pixel umschreibt." 1 Quote Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted February 15, 2017 Share #40 Posted February 15, 2017 http://www.gradias.de/fachartikel-pc-praxis/articles/grundlagen-iso-und-bildrauschen.html Bedeutend für die Stärke des Bildrauschens ist auch die Größe der Fotodioden und deren Abstand zueinander. Sind die Fotodioden extrem klein, können sie weniger Licht aufnehmen als größere Fotodioden. Den Abstand der einzelnen Fotodioden zueinander nennt der Fachmann Pixelpitch. Die Größe und der Abstand der Fotodioden sind der Grund dafür, dass bei Kompaktkameras das Bildrauschen viel schneller auffällt als bei Spiegelreflexkameras. Deren Sensor ist schließlich um ein Vielfaches größer – und damit auch die einzelnen Fotodioden. ...die Fachpresse muß sich echt warm anziehen. Quote Link to post Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.