Jump to content

Pixel und Bayer-Filter


M11 for me

Recommended Posts

Advertisement (gone after registration)

Anlässlich einer kürzlichen Diskussion kam die Behauptung auf, dass ein 60 Megapixel Sensor eigentlich (a) 240 Megapixel hätte, da jeweils 4 "Sub-Pixel" mit den Farben des Bayer-Filters RGGB zu einem "Pixel" zusammengefasst würden.

Oder hat dieser Sensor gar nur (b) 15 "Sub-Megapixel", da die Zahl 60 so zu erklären sei, dass das eben Subpixel seien, von denen jeweils 4 einen Pixel ausmachen.

Wenn man googelt, dann ist das leider alles völlig unklar und man kommt leicht zu genau der oben beschriebenen Auffassung (a oder b).

Kaum ein Artikel sagt, dass der Bayerfilter bei einem 60Megapixel Sensor eben auch 60 MPix Felder hat, also 15 Mio mal Blau, 15 Mio mal Rot und 30 Mio mal grüne Felder. 

Wie kann man den Sachverhalt korrekt erklären? Und gibt es einen Link zu einer guten Webpage?

  • Like 1
Link to post
Share on other sites

Ein 60-MP-Sensor mit Bayer-Filter verfügt über 30 MP grüne Pixel, 15 MP blaue Pixel und 15 MP rote Pixel

Der Rohkonverter interpoliert die Farbe, nutzt aber auch die Gesamtlichtstärke jedes einzelnen Pixels und und sieht weiter aus als nur die nächsten Pixel. Wenn man sagt, dass das resultierende Bild nur ein 15-MP-Bild ist, ist das eine zu starke Vereinfachung.

 

  • Like 1
Link to post
Share on other sites

At the end of the day, the size of the printed image hanging on the wall has a direct correlation to the total number of pixels of the camera sensor. Now let's simplify things a bit. A Leica M11 with a 61 MP sensor will allow you to get a print (at 300DPI), at a higher resolution than, say, a Leica M10-R. But if we take for example the Leica M11 M, which is not equipped with a Bayer filter, it will have a slightly higher ability to distinguish details (with the same print size), than its regular M11 sister.

Unlike Bayer interpolation sensors, the multilayer Foveon sensor (did we mention Firm) allows, through its proprietary 'SIGMA Photo Pro' software, to get more than double the maximum amount of its pixels, without damaging the overall quality of the print.

Link to post
Share on other sites

6 hours ago, M11 for me said:

Wie kann man den Sachverhalt korrekt erklären?

Das beginnt mit der Definition des Begriffs 'pixel': ein Bildpunkt einer Rastergrafik, welcher  die Helligkeit, Farbe und allfällige weitere Attribute dieses Bildpunkts festhält.

Allein aus dieser Beschreibung geht hervor, dass das Rohformat der Daten, welche die Kamera aus dem Sensor mit Bayer-Filter ausliest, keine Pixel enthält. Die Rastergrafik mit den individuellen Bildpunkten wird durch mathematische Verfahren aus den Rohdaten ermittelt. Das Verfahren umfasst sicher Interpolationen, kann auch Extrapolationen einschliessen.

Der Foveon-Sensor wiederum erfasst wiederum Pixel im eigentlichen Sinn: für jeden Punkt des Bildrasters werden die Helligkeitswerte aller drei Farbkomponenten ermittelt und gespeichert. Somit ist aber die Rhetorik von Sigma, wonach ein Foveon-Sensor die dreifache Anzahl von Pixeln liefern soll, blanker Unsinn.

 

Link to post
Share on other sites

Advertisement (gone after registration)

8 hours ago, pop said:

 

Der Foveon-Sensor wiederum erfasst wiederum Pixel im eigentlichen Sinn: für jeden Punkt des Bildrasters werden die Helligkeitswerte aller drei Farbkomponenten ermittelt und gespeichert. Somit ist aber die Rhetorik von Sigma, wonach ein Foveon-Sensor die dreifache Anzahl von Pixeln liefern soll, blanker Unsinn.

 

The result or print test in our case is the determining factor. And so as I answered at the beginning, the higher the amount of pixels, the bigger the print we can get. But given this, the DP2 Merrill sensor for all its 15 megapixels, still surpasses Bayer interpolation sensors that are double its megapixels in their amount of megapixels. From my experience also in huge prints, where you are required to start reducing a lot of the DPI (color dots per inch) ) the last to break the test of displaying contour lines and jagged transitions, will be the Foveon sensor.

Link to post
Share on other sites

vor 13 Stunden schrieb pegelli:

Ein 60-MP-Sensor mit Bayer-Filter verfügt über 30 Mio. grüne Pixel, 15 Mio. blaue Pixel und 15 Mio. rote Pixel.

So ist es.

Wobei streng genommen der Sensor nicht "über Pixel verfügt", sondern über Sensorelemente (kurz: Sensel), welche Pixel erzeugen. Es ist jedoch umgangssprachlich üblich, da nicht so genau zu unterscheiden und Sensel mit Pixeln gleichzusetzen.

Und durch das Verfahren der Bayer-Farbinterpolation entsteht dann aus den 15 + 30 + 15 Millionen Rohpixeln ein Bild mit 60 Millionen RGB-Pixeln. Das kann entweder sofort im Bildprozessor der Kamera geschehen oder später im Rohdatenkonverter auf einem Rechner außerhalb der Kamera.

.

vor 9 Stunden schrieb pop:

Das beginnt mit der Definition des Begriffs "Pixel": ein Bildpunkt einer Rastergraphik, welcher die Helligkeit, Farbe und allfällige weitere Attribute dieses Bildpunkts festhält.

Allein aus dieser Beschreibung geht hervor, daß das Rohformat der Daten, welche die Kamera aus dem Sensor mit Bayer-Filter ausliest, keine Pixel enthält.

Darüber kann man streiten. Schließlich enthält jedes Rohpixel Information über Helligkeit und Farbe ... ist also ein "Pixel" im Sinne der obigen Definition. Daß die Farb- und Helligkeitsinformation für jedes Pixel vollständig sein müsse, davon steht in dieser Definition nichts.

Natürlich besteht ein Unterschied zwischen Rohpixeln (die der Sensor liefert) und RGB-Pixeln (die aus den Rohpixeln durch Bayer-Interpolation hervorgehen). Ich würde aber nicht so weit gehen, den Rohdaten die Pixel-Natur komplett abzusprechen.

  • Like 1
Link to post
Share on other sites

Danke für diesen Input.

Mir scheint, dass diese Diskussion viel Interessants hervorbringen kann. Ich stelle fest - und das auch hier -, dass unterschiedliche Personen den Sachverhant anders beschreiben.

@01af schreibt:

vor einer Stunde schrieb 01af:

Und durch das Verfahren der Bayer-Farbinterpolation entsteht dann aus den 15 + 30 + 15 Millionen Rohpixeln ein Bild mit 60 Millionen RGB-Pixeln.

Das finde ich sehr geradlinig und ich kann dem auch folgen. Allerdings lesen wir oft, dass Pixel (eher Sensel nach @01af) Bildpunkte generieren. Sogar im Wikipedia werden solche Begriffe nicht sauber getrennt oder definiert. Die Information aus einem Sensel ist zuerst einmal eine Information (Helligkeit plus die Information zur Farbe: Welche Farbe des Bayer-Filters lag über dem Sensel) und diese Information ist noch kein Bildpunkt. Der Begriff Bildpunkt bezieht sich auf einen Punkt im Bild, während der weg von der Sensel Information zum Bildpunkt sehr lang ist.

Link to post
Share on other sites

vor 1 Stunde schrieb 01af:

Wobei streng genommen der Sensor nicht "über Pixel verfügt", sondern über Sensorelemente (kurz: Sensel), welche Pixel erzeugen

Das ist eine interessante Aussage, die ich so noch nicht gelesen habe.

Der Sensel liefert doch ausschliesslich Daten (die Information zur gemessenen Helligkeit plus Farbinformation). Nach deiner Beschreibung wäre dann diese Information ein Pixel. Ein Pixel wären also Daten.

Wie siehst du das?

Link to post
Share on other sites

Und noch:

Wenn ein Sensel Informationen zur Farbe liefert:

Müsste man nicht genau genommen sagen, dass vom Sensel nur Daten geliefert werden zur Position des Sensels unter dem Bayer-Filter: Ist das Sensel an einer Position über der sich ein roter, ein grüner oder ein blauer Filter befindet?

Link to post
Share on other sites

1 hour ago, 01af said:

Schließlich enthält jedes Rohpixel Information über Helligkeit und Farbe ... ist also ein "Pixel" im Sinne der obigen Definition.

Um die Frage am Anfang dieses Threads beantworten zu können, ist eine derartige Trennschärfe der Begriffe vielleicht noch nicht wirklich nötig.

Es trifft natürlich zu, dass die Menge der 'grünen' Bildpunkte als monochrome Pixel des Grün-Auszugs des gesamten Bilds betrachtet werden können, und sinngemäss für die anderen Farben des Bayer-Filters.

Soweit ich mich an die entsprechende Literatur erinnern kann, hat sich ein Pixel als ein Bildelement aus einer homogenen Bildfläche verstanden, so dass die Farbe und alle anderen Attribute des Pixels erkannt werden konnten, ohne die Position innerhalb des Bilds zu kennen. Ich weiss nicht, ob damals auch ausdrücklich verlangt wurde, dass die Pixel lückenlos an einander anstossen müssen. Das wäre beim Rot- und Blau-Auszug eines mit Bayer-Filter dargestellten Bilds nicht der Fall und beim Grün-Auszug nur eingeschränkt.

Daher scheint mir für diese Diskussion die Unterscheidung zwischen Pixeln und Senseln zweckmässig.

Link to post
Share on other sites

vor 59 Minuten schrieb M11 for me:

Der Sensel liefert doch ausschließlich Daten (die Information zur gemessenen Helligkeit plus Farbinformation). Nach deiner Beschreibung wäre dann diese Information ein Pixel. Ein Pixel wären also Daten.

Ja, genau.

Aber ich sehe schon, worauf du hinauswillst: ähnlich wie Philipp pop würdest du als Pixel gern den kleinsten Farbklecks verstanden wissen, der zusammen mit vielen anderen Farbklecksen auf einem Blatt Papier (oder sonst einem Trägermedium) das Bild ergibt, das wir in die Hand nehmen und mit unseren Augen ansehen können. Und die von einem Sensel gelieferten und von der Bayer-Interpolation transformierten Daten seien kein Pixel, sondern "nur" die Information, was für einen Farbklecks der Drucker wohin zu plazieren hätte.

Es ist aber nicht sinnvoll, zwischen der Information eines Pixels in einer Bilddatei und seiner physischen Manifestation auf einem materiellen Träger zu unterscheiden. Du unterscheidest doch auch nicht zwischen den Buchstaben in einer PDF-Datei und den schwarzen Glyphen auf weißem Papier, wenn die Datei ausgedruckt wird. Buchstaben sind Buchstaben und ergeben einen Text – einerlei, ob digital gespeichert oder schwarz auf weiß gedruckt. Und mit Pixeln ist es ebenso ... zumal der Fotodrucker sowieso keine Pixel zu Papier bringt – sondern ganz viele winzig kleine CMYK-Punkte, aus denen er nach eigenem Gutdünken gemäß der Konstruktion seines Druckkopfes, der Programmierung seines Treibers und der zusätzlichen Information aus Tintenprofil, Papierprofil und Farbmodell-Profil die in der Bilddatei beschriebenen RGB-Pixel zusammensetzt.

 

  • Like 1
Link to post
Share on other sites

2 hours ago, 01af said:

wie Philipp pop würdest du als Pixel gern den kleinsten Farbklecks verstanden wissen, der zusammen mit vielen anderen Farbklecksen auf einem Blatt Papier (oder sonst einem Trägermedium) das Bild ergibt,

Nein, das möchte ich nicht. Meines Wissens wurde der Begriff 'Pixel' in der Informatik geprägt und versteht sich dort als kleinstes Element eines digital gespeicherten Bilds, etwa vergleichbar mit den Atomen der Alten Griechen. Mit dieser grundlegenden Festlegung des Begriffs konnten die Informatiker Operationen definieren, die einzelne Pixel oder ein- und zweidimensionale Matrizen von Pixeln manipulieren.

Im Rahmen dieser (zum Teil elementaren) Operationen wäre es doch sehr störend gewesen, hätten die Algorithmen zwischen geraden und ungeraden Pixeln unterscheiden müssen. Alle Pixel sind gleichberechtigt. Sogar diese einfache Regel hat natürlich ihre Ausnahmen: verschiedene Algorithmen konnten die Pixel am Bildrand nicht gleich behandeln wie diejenigen im Innern des Bilds, aber das ist eine Eigenschaft des Algorithmus, nicht der Pixel.

2 hours ago, 01af said:

Es ist aber nicht sinnvoll, zwischen der Information eines Pixels in einer Bilddatei und seiner physischen Manifestation auf einem materiellen Träger zu unterscheiden.

Doch, es ist sinnvoll, abhängig davon, worüber einer spricht. Ein Pixel in einer Bilddatei hat keine physischen Eigenschaften. Die Darstellung eines Pixels oder eines Bilds auf einem optischen Träger hat Eigenschaften, die sich nicht aus den Pixeln ermitteln lassen, wie zum Beispiel der Reflexionsgrad der Farbpigmente.

 

2 hours ago, 01af said:

Du unterscheidest doch auch nicht zwischen den Buchstaben in einer PDF-Datei und den schwarzen Glyphen auf weißem Papier, wenn die Datei ausgedruckt wird.

Genau das tue ich. Es gibt PDF-Dateien, welche nur die Glyphen enthalten, und solche, welche Ordinalzahlen enthalten, welche die Buchstaben im Text identifizieren. Die letzteren kannst Du mit dem PDF-Betrachter nach Stichworten durchsuchen, die anderen nicht.

Dazu kommen Glyphen, die gleich aussehen und für verschiedene Zeichen stehen können, oder Zeichen, die als verschiedene Glyphen dargestellt werden, wie zum Beispiel das 'lange' und das 'runde' s in der Fraktur.

 

2 hours ago, 01af said:

zumal der Fotodrucker sowieso keine Pixel zu Papier bringt

Einer meiner Drucker tut genau das. Er trägt verschiedene Mengen der passenden Grundfarben auf dieselbe Stelle des Trägers auf. Von mechanischen Ungenauigkeiten abgesehen ist das eine sehr getreue Darstellung von Pixeln auf Papier. Ich schreibe hier von Farbsublimationsdruckern, die sehr gut mit analogen Werten umgehen können.

  • Like 1
Link to post
Share on other sites

Posted (edited)

Hallo zusammen,

meines Verständnisses nach hat ein 60 MPix-Bayer-Sensor tatsächlich 60 Mio. Pixel.

Durch Farbfilter sind die Hälfe davon für grün empfindlich und je ein Viertel für rot und blau (aufgrund der Seheigenschaften des menschlichen Auges erforderlich für ein Bild, das unserem EIndruck entspricht).

Durch den Logarythmus des RAW-Konverters (oder in der Kamera bei JPEG) wird daraus ein Farbilbild entwickelt - dadurch entsteht eine gewisse Unschärfe, die bei Monochrom-Sensoren oder FOVEON-Merrill-Sensoren nicht vorhanden ist.

VG,

Jens

Edited by jensthoes
  • Like 1
Link to post
Share on other sites

Kommen wir nochmals zurück zum Begriff Bildpunkt: Oft liest man in Texten, dass ein Pixel ein Bildpunkt sei. Ich kann dieser Verbindung der 2 Begriffe eigentlich nicht folgen. Von der Information, die ein Sensel liefert bis wir tatsächlich einen Punkt in einem Bild haben (ein Bildpunkt also) ist ein langer Weg. Es geht um Interpolation und auch Extrapolation sowie Algorythmen, schlussendlich Computerprogramme. Erst dann wird am Computerbildschirm (oder Tablett oder Handy) ein Bild angezeigt, das seinerseits wieder über viel weniger Bildpunkte verfügt als die Datenmenge im Ausgangsmaterial. Während wir am Anfang des Prozesses Daten von 60Mio Sensels hatten, haben wir an einem 5K Bildschirm eben "nur" so viele Bildpunkte, wie ein Bildschirm abzubilden vermag.

Ich suche noch immer einen guten Text, der sauber mit den Begriffen umgeht und der gerade deshalb den Aufbau eines Sensors präzise zu erklären vermag. 

Link to post
Share on other sites

Ich kann den obigen Post allenfalls insofern noch korrigieren oder ergänzen, als dass wir im Zusammenhang mit den Bildpunkten von 2 verschiedenen Bildern ausgehen können:

1) Der Bildpunkt auf dem "fertigen" Bild, welches wir auf dem Bildschirm oder auf Papier ausgedruckt sehen. Von diesem Bildpunkt habe ich oben geschrieben.

2) Der Bildpunkt eines Bildes VOR dem Objektiv. Dem Motiv sozusagen.

Im letzteren Fall macht der Begriff Bildpunkt möglicherweise Sinn.

Link to post
Share on other sites

14 minutes ago, M11 for me said:

möglicherweise Sinn.

Das Bild ist das, was das Objektiv produziert (projiziert). Somit ist das vor dem Objektiv 'das Objekt' und das hinter dem Objektiv 'das Bild'.

Allenfalls könnte man argumentieren, dass sich vor dem Objektiv das Bild des Sensors befindet, oder dass man natürlich im Kunstmuseum ein Bild vor dem Objektiv haben kann. Aber das ist eine andere Geschichte.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...