Jump to content
DirkS

Brauche ich wirklich mehr als 12 bzw. 16 Megapixel?

Recommended Posts

Advertisement (gone after registration)

Die Zeitschrift Colofoto in der aktuellen Ausgabe (11/19) dankenswerterweise einmal zusammengestellt, was welche Medien maximal darstellen können. So sieht es hiernach aus:

Nachfolgend also immer das Wiedergabemedium, dahinter die maximal darstellbare Megapixelgröße:

6“-Handy (mit 555 dpi):                   4,4 MP

10“-Tablet (mit225 dpi):         2,3 MP

12,9“-Tablet (mit 264 dpi):     5,6 MP

FULL-HD (TV, Comp.-Monitor, Handy, Tablet): 2,1 MP

ULTRA-HD (TV, Comp-Monitor, Tablet): 8,3 MP

4 K:                                        8,9 MP  

8 K / Super Hi-Vision (Kinofilmkamera): 33,2 MP

Foto Papier 15 x 10 cm (bei 180 bzw. 300 dpi-Ausdruck): 0,72 / 2,1 MP

Foto Papier 30 x 20 cm (ebenso):     3 / 8,4 MP

Foto/Poster 70 x 50 cm (ebenso):   17,6 / 48,8 MP

Mein Fazit: Für fast alle Einsatzzwecke reichen daher die Kameras der X-Reihe mehr als aus, soweit es auf die Schärfe ankommt.

 

Edited by DirkS

Share this post


Link to post
Share on other sites

Ich bin kein Leica-Benutzer, daher die Frage, was ist die X-Reihe. Kann diese auf der Webseite nicht finden.

Die für eine Kamera angegebene Anzahl Pixel teilen sich im Normalfall einer Bayermatrix R, G und B. Eine Kamera mit 24 Megabyte Pixeln hat also 12 MByte G-, 6MByte R- und 6 MByte-Pixel. Andere Werte lassen sich entsprechend umrechnen. Das sollte man berücksichtigen, wenn man obige Überlegung anstellt.

Andererseits muss wiederum, wenn man die Zahlen vergleichbar haben will, die Pixelzahl z.B. für Full-HD (1920 Pixel x 1080 Pixel = 2 Megabyte Pixel) mit drei multipliziert werden, da jedes Pixel die drei Kanäle R,G und B darstellen muss.

Hinzu kommt noch der Effekt, dass ein höher aufgelöstes Bild herunterskaliert auf die gewünschte Endauflösung eine bessere Schärfe zeigt, als wenn man gleich mit der Zielauflösung aufnimmt. Darauf hatte Yogi im Scannerforum hingewiesen und ich hatte das mit meinem Scanner verifiziert. Analoges gilt natürlich auch für Digitalkameras.

Hermann-Josef

Edited by Jossie

Share this post


Link to post
Share on other sites

Hallo,

um ein hochwertiges Fotobuch drucken zu lassen oder eine Ausstellung bis A2 / A1 zu bestücken: ja, es reichen 12 oder 16 Megapixel. Mehr zu haben, ist manchmal nice to have. Oft aber auch tatsächlich unnötiger Ballast. 24 MP empfinde ich als guten Kompromiss zwischen Dateigröße und Qualität. Aber wer weiß, wie wir in ein paar Jahren darüber denken werden....

VG, Christian

Share this post


Link to post
Share on other sites

Die Kameras, deren Modellbezeichnungen mit "X" beginnen, sind bei Leica unter den Kompaktkameras zu finden, weil sie fest eingebaute Objektive haben.

Bei der Beurteilung der für einen Zweck notwendigen Anzahl der Pixel ist es nützlich, Reserven für Ausschnittvergrösserungen vorzusehen. Weiter ist eine höhere Auflösung günstiger, wenn das Bild rotiert oder verzerrt werden soll, beispielsweise um einen Horizont gerade zu richten oder um stürzende Linien auszugleichen.

Share this post


Link to post
Share on other sites

Man sollte rückwärts denken, d.h. man muss zunächst spezifizieren, was man mit den Bildern machen möchte und kann dann sagen, welche Pixelanzahl man braucht. Ich habe z.B. mit meiner etwas betagten Kamera mit 8 MByte-Pixeln Ausdrucke in A0 gemacht, die sich sehen lassen konnten. Man betrachtet solche Plakate ja nicht aus 30cm Leseentfernung.

Aber wenn man hochwertige A4-Drucke machen möchte, die dann mindestens 300 dpi haben (siehe Gulbins, Steinmüller 2014), dann kann man leicht ausrechnen, was man da an Pixeln braucht: A4 lange Seite sind etwa 30cm, d.h. 12 Zoll. Das ergibt also 3500 Pixel. Im A4-Format ist dann die kürzere Seite 2500 Pixel, d.h. das Bild hat 8.3 Megabyte Pixel. Für RGB braucht man also 25 Megabyte an Daten.

Hermann-Josef

Share this post


Link to post
Share on other sites
8 minutes ago, Jossie said:

Megabyte Pixel.

Die Masseinheiten in Deinen Beiträgen sind nicht korrekt. Du wolltest sagen, dass man für einen Ausdruck im Format DIN A4 mit 300 ppi ein Bild mit 8.3 Millionen Pixeln braucht. Das wären dann 8.3 Megapixel. Ein Megabyte ist die Grösse eines Speichers oder auch die Grösse einer Datenmenge in einem Speicher, der eine Million Bytes (in der Regel mit je 8 bits) belegt. Ein Pixel belegt in aller Regel wahrnehmbar mehr als ein Byte. "Megabyte Pixel" gibt's nicht, genau so wenig wie's "Kilogramm Liter" gibt.

Auch die Einheit dpi ist in diesem Fall nicht die richtige.  "dpi" steht für dots per inch; ein dot ist ein Tintenklecks. Ein Pixel besteht aus einer grösseren Anzahl solcher Kleckse. Mit 300 dpi kannst Du also nicht 300 ppi (Pixel pro Inch) drucken.

Share this post


Link to post
Share on other sites

Advertisement (gone after registration)

12 hours ago, dau said:

Die Masseinheiten in Deinen Beiträgen sind nicht korrekt.

Herzlichen Dank für diesen Hinweis. Du hast völlig recht, es sollte überall statt Megabyte einfach Mega heißen. Das war Unsinn. Leider lassen sich ältere Beiträge nicht mehr korrigieren.

Was die Verwendung der Bezeichnung dpi anbelangt, so wird hier z.B. bei Scannern dpi und ppi synonym verwendet. Streng genommen hast Du natürlich auch hier recht.

Der wesentliche Punkt ist allerdings unbenommen, dass man bei der Ausgangsfrage berücksichtigen muss, dass die Angabe der Pixelzahl einer Digitalkamera (fälschlicherweise oft Auflösung genannt) berücksichtigen muss, wie sich die Pixel auf die Farbkanäle verteilen.

Hermann-Josef

Edited by Jossie

Share this post


Link to post
Share on other sites

Es ist ein nicht ausrottbarer Irrtum zu glauben, das eine x MPixel- Kamera nicht x- MPixel farbige Bildpunkte generiert.

 

ich empfehle mal, sich das Verfahren mit Bayerfilter genauer anzusehen. Eine 24MPixel-Kamera generiert 24MPixel große Bilddateien.

Share this post


Link to post
Share on other sites

Ja, das macht sie. Etwas anderes wurde auch nicht behauptet. Aber 50% der G-Pixelwerte im Bild sind interpoliert, ebenso 75% (!) der B- und G-Pixel. Und das hat direkte Auswirkungen auf die Auflösung. Das fertige Bild kann nicht die Auflösung haben, die eine Profikamera mit drei separaten Detektoren von jeweils gleicher Pixelanzahl liefert, bei denen nicht interpoliert werden muss. Mit Auflösung ist hier tatsächlich nun die gemessene Auflösung in Linienpaaren pro mm gemeint und nicht die Pixelzahl pro mm. Diese Auflösung kann man nicht "abzählen" sondern muss sie über die Modulationsübertragungsfunktion messen.

Hermann-Josef

Share this post


Link to post
Share on other sites
9 minutes ago, Jossie said:

eine Profikamera mit drei separaten Detektoren

... oder eine Sigma-Kamera mit einem Foveon-Sensor. 

Share this post


Link to post
Share on other sites
16 minutes ago, Jossie said:

75% (!) der B- und G-Pixel

es muss natürlich heißen "der B- und der R-Pixel.  :-(

Hermann-Josef

Share this post


Link to post
Share on other sites

wie denn nun die Helligkeitswerte und die Farben entstanden sind, sind in der Überlegung wieviel MPixel (Aufnahmesensor) und wieviel Druckpunkte zu einer wie auch immer gewünschten Ausgabe führen erst mal völlig egal.

 

Und man staune, wie gut der Bayerfilter und die nachfolgende Verarbeitung funktionieren. Und das theoretische "besser" eines Foveon-Sensors kann leider nicht in der Praxis bestehen.

 

Und mal so nebenbei - welche Profikamera mit drei Sensoren kennst Du (Foto). Ob es diese Entwicklung heute noch als Videokamera gibt, weiss ich aber nicht. Vielleicht kannst Du mich erleuchten?

Share this post


Link to post
Share on other sites
31 minutes ago, hverheyen said:

wie denn nun die Helligkeitswerte und die Farben entstanden sind, sind in der Überlegung wieviel MPixel (Aufnahmesensor) und wieviel Druckpunkte zu einer wie auch immer gewünschten Ausgabe führen erst mal völlig egal.

Da muss ich aber entschieden widersprechen! Es ging ausgangs um die Frage, wie viele Megapixel für bestimmte Anwendungen gebraucht werden. Da spielt natürlich die de facto realisierbare Auflösung eine entscheidende Rolle. Bei der Bayermatrix wird nur 1/3 aller Helligkeitswerte, die im fertigen Bild landen, tatsächlich vom Detektor gemessen. 2/3 sind interpoliert! Damit kann das Bild nicht die Auflösung haben, wie wenn man tatsächlich für alle Pixel des fertigen Bildes auch tatsächlich die drei Helligkeiten R,G,B gemessen hätte. So ist die Welt nun mal.

31 minutes ago, hverheyen said:

Und man staune, wie gut der Bayerfilter und die nachfolgende Verarbeitung funktionieren.

Ja natürlich, aber darum geht es nicht. Die Verfahren im RAW-Konverter sind auch sehr aufwändig und müssen für einzelne Anwendung optimiert werden, um optimale Ergebnisse zu erzielen. Eine reine Interpolation würde z.B. bei Kanten im Bild hässliche Farbfehler produzieren.

31 minutes ago, hverheyen said:

welche Profikamera mit drei Sensoren kennst Du

Mir ging es dabei nur darum, das Prinzip zu verdeutlichen.  Konkret kann ich keine Kamera nennen, aber es gibt sie! Meine Filmkamera verwendet z.B. einen 3MOS-Sensor.

Hermann-Josef

Edited by Jossie

Share this post


Link to post
Share on other sites

Aber das ist doch genau der Irrtum. Defacto hat eine 24MPixel-Kamera 24MPixel, egal wie diese errechnet/erfasst wurden.

Eine Kamera mit 3 Sensoren, die zusammen gerechnet wurden um 24 MPixel zu erreichen hat keine höhere Auflösung, hat maximal die bessere Farbdarstellung und genauere Helligkeitsverläufe. Das kann man ggf. sehen, an der Auflösung ändert das nix.

 

Deine 3Mos-Kamera ist schon etwas älter? Wir hatten eine von Panasonic. Der Vorteil lag eher beim Hersteller, der sich den Bayerfilter und die aufwändige Verarbeitung sparte. Leider sparte er auch an der Güte des Strahlenteilers und der Justage der Sensoren. Das Ergebnis war nicht schlecht. Sehr gut war es aber auch nicht und konnte letztlich nicht konkurieren. Und heute schon mal gar nicht.

Share this post


Link to post
Share on other sites
1 hour ago, hverheyen said:

Defacto hat eine 24MPixel-Kamera 24MPixel, egal wie diese errechnet/erfasst wurden.

Ein Pixel ist die kleinste Teilfläche, die ein bildgebendes oder -verarbeitendes System unterscheiden kann, und die alle bildrelevanten Informationen über diese Fläche enthält, bei der der Farbfotografie in drei Farbkanälen also die Helligkeit jedes Kanals.

Eine 24MPixel-Kamera mit Bayer-Filter "hat" nicht 24Mpixel. 

Sie hat einen Schwarzweiss-Sensor mit 24 Millionen Pixeln, die nur Grauwerte unterscheiden können. Vor dem Sensor ist ein Farbfilter, der Bayer-Filter, welcher das bunte Licht unter den  schwarzweissen Pixeln aufteilt, die das in diesem Thread ja schon wiederholt erwähnt wurde. Ein Computer rechnet nach der Aufnahme nach, wie das vollständige Bild wohl ausgesehen haben könnte, indem es die Werte benachbarter gefilterter Schwarzweisspixel interpoliert. 

Das spielt kaum eine Rolle, solange das Bild nicht stark vergrössert wird; aus den Werten vieler benachbarbarte Pixel werden ja ohnehin Durchschnittswerte ermittelt. Allerdings können auch schon bei mässigen Vergrösserungen Artefakte auftreten, die das Bild sichtlich beeinträchtigen können. Moirées sind ein gutes Beispiel für solche Störungen. Viele Kameras reduzieren das Risiko, dass Moirées auftreten, mit einer Art Mattscheibe vor dem Sensor. Die Unschärfe, die durch die Interpolation und durch die Tiefpassfilter vor dem Sensor erzeugt wird, ist - wie gesagt - bei mässigen Vergrösserungsfaktoren unerheblich. 

Ein Foveon-Sensor hat nicht genau diese Probleme. Unter gewissen Bedingungen unterscheidet sich seine Farbwiedergabe sichtbar und vorteilhaft von der einer Kamera mit Bayer-Filter. Ob dieser Vorteil seine anderen Nachteile aufwiegt, liegt im Ermessen des Benutzers.

In einer Diskussion über die für einen bestimmten Zweck notwendige Auflösung muss die Qualität des Bildgebers schon mit berücksichtigt werden. Ceteris paribus ist die Qualität eines interpolierten Bilds geringer als die eines auf optischem Weg entstandenen. Glücklich, wer diese Grenzbereiche meiden kann.

Share this post


Link to post
Share on other sites
31 minutes ago, dau said:

Eine 24MPixel-Kamera mit Bayer-Filter "hat" nicht 24Mpixel. 

Sie hat schon physikalisch 24 Megapixel, aber das Ausgabebild hat 3 x 24 Megapixel an Helligkeitsangaben.

30 minutes ago, dau said:

Sie hat einen Schwarzweiss-Sensor mit 24 Millionen Pixeln, die nur Grauwerte unterscheiden können.

Die allermeisten Detektoren, die es gibt, sind über einen großen Bereich an Wellenlänge empfindlich, können also keine Farben diskriminieren. Dazu gibt es Filter.

30 minutes ago, dau said:

In einer Diskussion über die für einen bestimmten Zweck notwendige Auflösung muss die Qualität des Bildgebers schon mit berücksichtigt werden.

Danke für die Unterstützung! Hier geht es ja um eine prinzipielle Frage und nicht um "schönes Aussehen".

30 minutes ago, dau said:

Ceteris paribus ist die Qualität eines interpolierten Bilds geringer als die eines auf optischem Weg entstandenen.

Das ist die physikalische/mathematische Wirklichkeit. Wenn dem nicht so wäre, bräuchten wir keine Detektoren mit immer mehr Pixeln!

Hermann-Josef

Edited by Jossie

Share this post


Link to post
Share on other sites
2 hours ago, hverheyen said:

Aber das ist doch genau der Irrtum. Defacto hat eine 24MPixel-Kamera 24MPixel, egal wie diese errechnet/erfasst wurden.

Nochmals, das ist nicht egal!

2 hours ago, hverheyen said:

Eine Kamera mit 3 Sensoren, die zusammen gerechnet wurden um 24 MPixel zu erreichen hat keine höhere Auflösung,

Doch, hat sie. Bitte schau Dir mal die zu Grunde liegende Mathematik an. Deine Aussage ist einfach falsch. Tut mir leid.

Hier ein Beispiel:

Oben in blau ein Ausschnitt aus einer Pixelzeile, wie ihn die grünen Pixel einer Bayer-Matrix sehen. Darunter in rot die Pixel, wie sie der G-Kanal eines Detektors sehen würde, der einer Kamera entspricht, die für jeden Farbkanal einen eigenen Detektor hat. Die Grafik unten zeigt den Verlauf der gemessenen Helligkeiten für die beiden Fälle. Das deutliche Maximum in der Mitte wird von der Bayer-Matrix nur unscharf gesehen! Die Auflösung ist schlechter.

Die Wirklichkeit ist sicher komplexer, aber es geht hier zunächst um das Prinzip.

Hermann-Josef

Edited by Jossie

Share this post


Link to post
Share on other sites

Ja, bezweifelt auch niemand, ich auch nicht.

 

Nur, Du redest von Auflösung und meinst Qualität in Farbe und Helligkeit der einzelnen Pixel. Die Auflösung ist die Selbe. Hinzu kommt, das die Verarbeitung/Interpretation der Bayerfilterergebnisse, einen Großteil ausgleichen.

 

Share this post


Link to post
Share on other sites
13 minutes ago, hverheyen said:

Nur, Du redest von Auflösung und meinst Qualität in Farbe und Helligkeit der einzelnen Pixel.

Nein, ich meine Auflösung. Vielleicht solltest Du Dich darüber informieren, was damit gemeint ist...

Hermann-Josef

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use. We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue., Read more about our Privacy Policy