01af Posted October 10, 2024 Share #21 Posted October 10, 2024 Advertisement (gone after registration) vor 12 Stunden schrieb M11 for me: Oft liest man in Texten, daß ein Pixel ein Bildpunkt sei. Ich kann dieser Verbindung der zwei Begriffe eigentlich nicht folgen. Warum nicht? Sie bedeuten doch das gleiche – und sind damit auch in gleicher Weise mehrdeutig. Das Kunstwort "Pixel" ist eine Zusammenziehung und Verballhornung von picture element – was auf deutsch nicht anderes als Bildpunkt bedeutet ... oder "Bipu", wenn du so willst ... . vor 12 Stunden schrieb M11 for me: Von der Information, die ein Sensel liefert, bis wir tatsächlich einen Punkt in einem Bild haben (ein Bildpunkt also), ist ein langer Weg. Das stimmt. Aber – na und? Es werden doch oft im Leben verschiedene Dinge mit ein und demselben Wort bezeichnet ... zum Beispiel "Blende". Allein im direkten Zusammenhang der Fototechnik bezeichnet man damit 1. eine filigrane Konstruktion aus mehreren dünnen, im Kreise angeordneten, beweglichen Lamellen, 2. die von diesen Lamellen gebildete Öffnung, 3. den Einstellring am Objektiv (oder das Rädchen an der Kamera), mit dem die Lamellen beeinflußt werden, um die Größe der Öffnung einzustellen, 4. den Zahlenwert, der die Größe dieser Öffnung beschreibt. Von all den vielen Bedeutungen dieses Wortes in anderen Zusammenhängen wollen wir gar nicht erst anfangen. Aber – macht diese sprachliche Unschärfe im Alltag irgendwelche Probleme? Nein. Und mit "Pixel" ist es genauso. Selbst wenn man die Sensel eine Halbleiter-Bildwandlers fälschlich als Pixel bezeichnet, ist das doch gar kein Problem. "Der Sensor hat 24 Megapixel" – nein, hat er nicht! Er hat 24 Mio. Sensel, der am Ende Bilder mit 24 Megapixel liefert. Die Bilder haben 24 MP, nicht der Sensor. Doch im wahren Leben interessiert dieser feine Unterschied keine alte Sau. Der einzige Unterschied, der in diesem Zusammenhang wirklich interessant sein mag, ist der zwischen Rohpixel, welche bei üblichen Bayer-Sensoren entweder rot oder grün oder blau sind, und RGB-Pixel, welche rot und grün und blau sind und aus den Rohpixeln durch die Bayer-Farbinterpolation hervorgehen. Dabei entsteht für jedes Rohpixel ein RGB-Pixel; deren Gesamtzahl in der Bilddatei bleibt also gleich – auch wenn zur Berechnung eines RGB-Pixels die Daten vieler (einiger Dutzend) Rohpixel herangezogen werden. Selbst mit Foveon-Sensoren ist es nicht anders. Auch deren Sensel liefern rote, grüne und blaue Rohpixel, die zur Erzeugung von RGB-Pixeln erst einmal miteinander verrechnet werden müssen. Das funktioniert zwar anders als bei der Bayer-Farbinterpolation, ist aber kaum weniger komplex (denn die Farbtrennung durch unterschiedliche Eindringtiefen ins Silizium-Substrat funktioniert in der Realität bei weitem nicht so präzise, wie es in der Werbung stark vereinfachend dargestellt wird). 1 Link to post Share on other sites More sharing options...
Advertisement Posted October 10, 2024 Posted October 10, 2024 Hi 01af, Take a look here Pixel und Bayer-Filter. I'm sure you'll find what you were looking for!
M11 for me Posted October 10, 2024 Author Share #22 Posted October 10, 2024 vor 6 Stunden schrieb 01af: Warum nicht? Sie bedeuten doch das gleiche – und sind damit auch in gleicher Weise mehrdeutig. Das Kunstwort "Pixel" ist eine Zusammenziehung und Verballhornung von picture element – was auf deutsch nicht anderes als Bildpunkt bedeutet ... oder "Bipu", wenn du so willst ... Zum Begriff BILDPUNKT: Sehr gute Argumentation. Danke. Link to post Share on other sites More sharing options...
M11 for me Posted October 10, 2024 Author Share #23 Posted October 10, 2024 (edited) vor 6 Stunden schrieb 01af: Der einzige Unterschied, der in diesem Zusammenhang wirklich interessant sein mag, ist der zwischen Rohpixel, welche bei üblichen Bayer-Sensoren entweder rot oder grün oder blau sind, und RGB-Pixel, welche rot und grün und blau sind und aus den Rohpixeln durch die Bayer-Farbinterpolation hervorgehen. Dabei entsteht für jedes Rohpixel ein RGB-Pixel; deren Gesamtzahl in der Bilddatei bleibt also gleich – auch wenn zur Berechnung eines RGB-Pixels die Daten vieler (einiger Dutzend) Rohpixel herangezogen werden. Das ist ein sehr interessanter Punkt: Die Unterscheidung von Rohpixel und RGB-Pixel. Das muss man erst mal verkraften 🫠 Danke jedenfalls Edited October 10, 2024 by M11 for me Link to post Share on other sites More sharing options...
Henri-M11 Posted October 10, 2024 Share #24 Posted October 10, 2024 (edited) Am 4.10.2024 um 17:35 schrieb M11 for me: Anlässlich einer kürzlichen Diskussion kam die Behauptung auf, dass ein 60 Megapixel Sensor eigentlich (a) 240 Megapixel hätte, da jeweils 4 "Sub-Pixel" mit den Farben des Bayer-Filters RGGB zu einem "Pixel" zusammengefasst würden. Oder hat dieser Sensor gar nur (b) 15 "Sub-Megapixel", da die Zahl 60 so zu erklären sei, dass das eben Subpixel seien, von denen jeweils 4 einen Pixel ausmachen. Wenn man googelt, dann ist das leider alles völlig unklar und man kommt leicht zu genau der oben beschriebenen Auffassung (a oder b). Kaum ein Artikel sagt, dass der Bayerfilter bei einem 60Megapixel Sensor eben auch 60 MPix Felder hat, also 15 Mio mal Blau, 15 Mio mal Rot und 30 Mio mal grüne Felder. Wie kann man den Sachverhalt korrekt erklären? Und gibt es einen Link zu einer guten Webpage? Gemäss KI Grok ist es so wie du zum Schluss bemerkst. Ja, das ist korrekt. Ein Bayer-Filter, der über einem Bildsensor liegt, wie bei einer 60-Megapixel-Kamera, besteht aus einem Mosaik von Farbfiltern, die so angeordnet sind, dass jeder Pixel des Sensors nur Licht einer bestimmten Farbe (Rot, Grün oder Blau) aufzeichnet. Die Verteilung der Farben im Bayer-Muster ist typischerweise wie folgt: - **Rot:** 25% der Filter (also 15 Millionen bei einem 60-Megapixel-Sensor) - **Grün:** 50% der Filter (30 Millionen), da das menschliche Auge empfindlicher für Grün ist, was zur Verbesserung der wahrgenommenen Bildschärfe und Luminanz beiträgt. - **Blau:** 25% der Filter (15 Millionen) Diese Anordnung bedeutet, dass es tatsächlich 15 Millionen rote, 30 Millionen grüne und 15 Millionen blaue Filter gibt. Die endgültigen Farbinformationen für jedes Pixel werden dann durch ein Demosaiking- oder Entmosaiking-Verfahren berechnet, bei dem die fehlenden Farbwerte an jeder Stelle durch Interpolation der benachbarten Pixel ermittelt werden. Dieses System erlaubt es, aus den Rohdaten des Sensors ein farbiges Bild zu rekonstruieren, das dann als vollfarbiges Bild mit 60 Megapixeln betrachtet wird, obwohl die ursprüngliche Farbinformation pro Pixel aus nur einem dieser Farbkanäle stammt. Edited October 10, 2024 by Henri-M11 1 Link to post Share on other sites More sharing options...
jgeenen Posted October 10, 2024 Share #25 Posted October 10, 2024 Ich denke, es macht Sinn, den technischen vom fotografischen Layer zu trennen. Wenn man einfach verinnerlicht, dass ein 62,39 MP Sensor, wie er in der Leica verbaut ist, insgesamt 62,39 Millionen lichtempfindliche Photodioden besitzt, die einzeln ausgelesen werden, dann ist das ganze Subpixel-Gerede erst einmal erledigt, die gibt es nämlich einfach nicht. Von diesen bleiben halt 60,3 Mio übrig, die mit dem Bayer-Pattern maskiert sind und die in die Rechenlogik einfließen (was ist eigentlich mit den verbliebenen 2 Mio - werden die auch irgendwofür genutzt oder oder dümpeln die einfach nur abgeklemmt auf dem Silikonchip rum?). Da passieren dann magische (=Software) Dinge (neben den Farben muß ja auch noch Antialiasing gerechnet werden - ihr erinnert euch, diese ekeligen Treppchen, die früher durch einen "Blur" Filter vor dem Sensor verschmiert wurden) und heraus kommen 60,3 Mio Pixel, die das Bild darstellen - gut, die Leica-Elektronik kann auch noch 36,5 oder 18,6 rauswerfen, das darf man dann gerne "Triple Resolution Technology" nennen, auch wenn deren echter Mehrwert ja durchaus kontrovers diskutiert wird. 1 Link to post Share on other sites More sharing options...
pop Posted October 10, 2024 Share #26 Posted October 10, 2024 42 minutes ago, M11 for me said: Die Unterscheidung von Rohpixel und RGB-Pixel. Das muss man erst mal verkraften Die hattest Du schon verkraftet. Die 'Rohpixel' sind die monochromen Pixel, die vom Sensor geliefert werden. Die RGB-Pixel entstehen durch Rechenoperationen aus den rohen Monochrom-Pixeln. Beachte die wundersame Vermehrung: aus 60 Millionen Monochrompixel mit je einem (1) Wert entstehen 60 Millionen Farbpixel mit je drei verschiedenen Werten, halt eben für R, G und B, das ist die Macht der Interpolation. 1 Link to post Share on other sites More sharing options...
01af Posted October 10, 2024 Share #27 Posted October 10, 2024 Advertisement (gone after registration) vor 31 Minuten schrieb jgeenen: ... was ist eigentlich mit den verbliebenen zwei Mio – werden die auch irgendwofür genutzt ...? Ja, werden sie. 1 1 Link to post Share on other sites More sharing options...
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now