Jump to content

Recommended Posts

Advertisement (gone after registration)

Falls noch nicht bekannt: Beim Googeln habe ich eine Veröffentlichung von Kodak zu einer neuen Sensor-Generation (CMOS) gefunden. Zunächst nur für kleine Formate, größere Chips sind möglicherweise bereits in Planung/Entwicklung. Klingt auf jeden Fall auch für die M9+ interessant. Hier geht's zum Artikel (leider nur in englisch) ...

Link to post
Share on other sites

  • Replies 47
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Posted Images

Das ist jetzt mehr als ein Jahr her und hat die Welt der Digitalfotografie nicht verändert … Kodaks Idee, bei einem Teil der Pixel das Farbfilter wegzulassen, um so die Empfindlichkeit zu erhöhen, hat sich nicht wirklich bewährt. Was mich nicht überrascht; ich hatte das vor längerer Zeit schon in einem LFI-Artikel vorausgesagt.

Link to post
Share on other sites

@ Michael

Vielleicht forscht Kodak noch an einem großformatigen Sensor? Übrigens ist mittlerweile die Vierkanal-Aufnahme (ein Luminanz- und drei Farbkanäle) in der CCD-Astrofotografie gängige Praxis (Bilddetails und Helligkeit mit Luminanzaufnahme, Farbinfos über farbgefilterte und gebinnte Pixel). Aber das ist natürlich eine andere Geschichte.

 

@ feuervogel69

die immer "mehr" megapixel erkauft man sich zu teuer mit abstrichen bei der tatsächlichen dynamik.

Das hat weniger mit der Anzahl der Pixel, als vielmehr mit deren Größe zu tun: Die 6,8 µm großen Pixel der M8/M9 nehmen laut Kodak-Datenblatt bis zur Sättigung jeweils etwa 60.000 Elektronen auf. Der FourThirds-CCD KAF-8300 mit 5,4 µm nur noch 26.000 Elektronen, also deutlich weniger als die Hälfte.

Das Problem ist natürlich die geforderte Sensorgröße: Will man bei einer vorgegebenen Fläche wie KB die Auflösung erhöhen, geht das nur über die Verkleinerung der Pixel und somit Reduzierung des Dynamikbereiches. Insofern stimme ich dir zu.

Link to post
Share on other sites

@ Michael

...

Die 6,8 µm großen Pixel der M8/M9 nehmen laut Kodak-Datenblatt bis zur Sättigung jeweils etwa 60.000 Elektronen auf. Der FourThirds-CCD KAF-8300 mit 5,4 µm nur noch 26.000 Elektronen, also deutlich weniger als die Hälfte.

...

 

Das ist offensichtlich ein zentraler Punkt für die Bildqualität. Gibt es Vergleichszahlen für Filme?

Da ein blaues Photon doppelt so viel Energie enthält als ein rotes: Wie ist das Verhältnis "aufgenommene Photonen / bewegte Elektronen"?

Müssten diese Werte nicht von der Farbe abhängen?

Edited by esser
Link to post
Share on other sites

Das ist offensichtlich ein zentraler Punkt für die Bildqualität. Gibt es Vergleichszahlen für Filme?

Da ein blaues Photon doppelt so viel Energie enthält als ein rotes: Wie ist das Verhältnis "aufgenommene Photonen / bewegte Elektronen"?

Müssten diese Werte nicht von der Farbe abhängen?

 

Du hättest wohl recht, wenn es wie bei einem Bildverstärker Sekundärelektronen gäbe, weil nicht die Zahl, sondern die kinetische Energie der freigesetzten Elektronen von der Energie der Photonen abhängt.

Die Zahl hängt, wie wir das ja auch wollen, von der Bestrahlungsstärke ab.

Im Sensor dürfte nämlich die Gleichung lauten. Elektronen= Photonen mal Quantenausbeute. Wenn nun die Quantenausbeute in erster Näherung nicht von der Frequenz der Photonen abhängt, hat die Farbe keinen Einfluß.

Edited by gerd_heuser
Link to post
Share on other sites

...Im Sensor dürfte nämlich die Gleichung lauten. Elektronen= Photonen mal Quantenausbeute. Wenn nun die Quantenausbeute in erster Näherung nicht von der Frequenz der Photonen abhängt, hat die Farbe keinen Einfluß.

@ Gerd und esser

Ich habe nochmals die Kodak-Datenblätter bemüht. Dort werden für die Quantenausbeute (Quantum Efficiency) die folgenden Werte angegeben:

KAF-10500 Color-Sensor der M8/M8.2 : Rot 31%, Grün 40% und Blau 33%. Das bedeutet, dass bei den jeweiligen Farben nur die angegebenen Prozente der eintreffenden Photonen ein Elektron 'erzeugen', also grob ausgedrückt, nur etwa jedes dritte Photon trägt zur Ladung eines Pixels bei.

Link to post
Share on other sites

Ich habe nochmals die Kodak-Datenblätter bemüht. Dort werden für die Quantenausbeute (Quantum Efficiency) die folgenden Werte angegeben:

KAF-10500 Color-Sensor der M8/M8.2 : Rot 31%, Grün 40% und Blau 33%. Das bedeutet, dass bei den jeweiligen Farben nur die angegebenen Prozente der eintreffenden Photonen ein Elektron 'erzeugen', also grob ausgedrückt, nur etwa jedes dritte Photon trägt zur Ladung eines Pixels bei.

Das sind durchaus typische Werte, wie man sie auch bei anderen Sensoren findet. Die Unterschiede liegen in der unterschiedlichen Durchlässigkeit der Farbfilter begründet; Grünfilter lassen durchweg am meisten Licht durch, wie es auch der Empfindlichkeit der Rezeptoren im menschlichen Auge entspricht. Mit der je nach Wellenlänge unterschiedlichen Energie der Photonen hat das nichts zu tun.

Link to post
Share on other sites

Bestätigt ja auch meine ohne Detailwissen der Verhältnisse im Sensor-Silizium nur aus dem physikalischen Bauch formulierte Meinung, denn die quantum efficiency ist tatsächlich nicht proportional von der Energie abhängig. Sicher spielt die Dotierung hier die Hauptrolle.

Link to post
Share on other sites

Mit der je nach Wellenlänge unterschiedlichen Energie der Photonen hat das nichts zu tun.

Offensichtlich doch: Kodak gibt z. B. für den (ungefilterten) Monochrom-Sensor KAF-6303E die folgenden QE-Werte an: 450 nm (blau) = 40%, 550 nm (grün) = 52%, 650 nm (rot) = 65%. Diese Werte sind bei anderen Sensoren übrigens ganz ähnlich. Deswegen müssen bei gefilterten Reihenaufnahmen in der Astronomie auch entsprechend angepasste Belichtungszeiten benutzt werden, damit die Farbhelligkeiten korrekt wiedergegeben werden können.

Möglicherweise verwendet Kodak bei Foto-Sensoren Farbfilter mit entsprechend angepassten Dichten, um diese Unterschiede soweit wie möglich auszugleichen.

Link to post
Share on other sites

Das hat jetzt keinen Wert mehr, in die Details zu gehen. Für die Interpretation der Werte müßte man die Parameter kennen und mehr über die Dotierung der Sensoren wissen. Es kann gut sein, daß die höhere Rotempfindlichkeit, besser: höhere Quantenausbeute (eigentlich energieschwächere Photonen) am Wirkungsquerschnitt der Fremdatome im Gitter für diese Frequenz liegt und durch die Dotierung in der Bandstruktur ein diskretes Niveau erzeugt wird.

 

Aber die grundsätzlichen Mechanismen sind beim Photoeffekt schon so wie von Michael und mir beschrieben.

Link to post
Share on other sites

Offensichtlich doch: Kodak gibt z. B. für den (ungefilterten) Monochrom-Sensor KAF-6303E die folgenden QE-Werte an: 450 nm (blau) = 40%, 550 nm (grün) = 52%, 650 nm (rot) = 65%. Diese Werte sind bei anderen Sensoren übrigens ganz ähnlich.

Ja, der Sensor an sich ist für lange Wellenlängen des sichtbaren Lichts empfindlicher als für kurze; das ist in der Tat charakteristisch und auch der Grund für die hohe Empfindlichkeit der Sensoren im nahen Infrarot. Bei noch längeren Wellenlängen nimmt die Quantenausbeute allerdings wieder ab, da die Photonen das Silizium wirkungslos durchqueren. Das sogenannte „schwarze Silizium“ soll diese Unterschiede ausgleichen; es ist für UV-, IR- und sichtbares Licht annähernd gleich empfindlich.

 

Die typischen Werte für die Quanteneffizienz bei RGB-Sensoren, die bei Grün stets am höchsten und bei Rot und Blau geringer ist, wird durch die Farbfilter verursacht.

Link to post
Share on other sites

und in der summe ist es dann für mich schlichtweg unverständlich wie man diese eigenart des sensors, spektral unterschiedlich zu reagieren, nicht nutzen kann und quasi "wegschmeißt", um stattdessen die farbe mit filtern zu ermittlen....

 

man muß ja nicht gleich einen reinen foveon-sensor bauen, aber warum gibt es bis jetzt noch keinen sensor der wenigstens partiell diese natürliche spektraldifferenzierung des siliziums nutzt? warum nicht oben ein bayer-ähnliches pattern (filterschicht) und drunter aber trotzdem eine in die tiefe gehende sensorarchitektur die hier auch eine farbauswahl zuläßt?

 

quasi die erhöhung der pixelzahl in der 3. dimension ;-))

 

es besteht noch sehr viel entwicklungsbedarf. selbst wenn man anhand der "eindringtiefe" "nur" noch eine zusätzliche rotinformation auslesen würde, wäre das doch ein gewinn! man muß ja nicht gleich mühsam alle farben (wie im foveon) herausrechnen. doch komplett auf diese natürlich zusatzfunktion der unterschiedlichen quantenenergie des lichts zu verzichten ist doch komishc. oder?

 

 

 

lg matthias

Link to post
Share on other sites

@ Matthias

Leider ist das mit der Farbdifferenzierung ohne weitere Hilfsmittel - zumindest derzeit - nicht möglich. Selbst die Filterung ist nicht ganz unkritisch, da man sich entweder Lücken oder Überlappungen im Spektrum einhandelt: Wenn sich z. B. ein Blaufilter im oberen und ein Grünfilter im unteren Bereich, sagen wir mal um 500 nm deutlich überlappen, wird die Farbe türkis zu intensiv dargestellt, da sie Anteile beider Filter enthält. Ähnlich verhält es sich mit orange zwischen grün und rot. Filter mit klar definiertem, breitem Durchlassbereich und senkrechten Kanten gibt es leider nicht.

Trotzdem muss man IMHO den Sensor-Herstellern ein Lob zollen: Sie haben das mit der Farbe eigentlich hervorragend hinbekommen.

Link to post
Share on other sites

@ Matthias

Leider ist das mit der Farbdifferenzierung ohne weitere Hilfsmittel - zumindest derzeit - nicht möglich. Selbst die Filterung ist nicht ganz unkritisch, da man sich entweder Lücken oder Überlappungen im Spektrum einhandelt: Wenn sich z. B. ein Blaufilter im oberen und ein Grünfilter im unteren Bereich, sagen wir mal um 500 nm deutlich überlappen, wird die Farbe türkis zu intensiv dargestellt, da sie Anteile beider Filter enthält. Ähnlich verhält es sich mit orange zwischen grün und rot. Filter mit klar definiertem, breitem Durchlassbereich und senkrechten Kanten gibt es leider nicht.

Trotzdem muss man IMHO den Sensor-Herstellern ein Lob zollen: Sie haben das mit der Farbe eigentlich hervorragend hinbekommen.

 

Diese Probleme gibt es prinzipiell auch beim Film. Dort fehlt allerdings die Korrekturmöglichkeit via Firmware, die beim Chip extensiv genutzt wird.

Link to post
Share on other sites

@ Matthias

 

Trotzdem muss man IMHO den Sensor-Herstellern ein Lob zollen: Sie haben das mit der Farbe eigentlich hervorragend hinbekommen.

 

na, moment..... den interpolations-algorhytmusingenieuren, ja!

aber die sensorik nutzt aus meiner sicht (s.o.) eben genau nicht das ganze potential was in der wechselbeziehung licht/silizium verborgen ist.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...