Jump to content

Megapixelwahn nimmt kein Ende...


kb2005

Recommended Posts

Advertisement (gone after registration)

Vor 25 Jahren passten 10 MB auf eine Festplatte, heute wird die Terrabyte Größe angekratzt. Alles mit den gleichen Gesetzen der Physik. Die mußten dazu nicht geändert werden.

Ja, das sind eben die Unterschiede zwischen den Grenzen der Technik und den Grenzen, die von den Naturgesetzen gesetzt sind. Und in der Technik kommt man weiter, wenn man diese Grenzen kennt.

Link to post
Share on other sites

  • Replies 92
  • Created
  • Last Reply
Ja, das sind eben die Unterschiede zwischen den Grenzen der Technik und den Grenzen, die von den Naturgesetzen gesetzt sind. Und in der Technik kommt man weiter, wenn man diese Grenzen kennt.

 

Danke,

wie immer, einfach auf den Punkt gebracht.

 

Gruß

Georg

Link to post
Share on other sites

Vor 25 Jahren passten 10 MB auf eine Festplatte, heute wird die Terrabyte Größe angekratzt. Alles mit den gleichen Gesetzen der Physik. Die mußten dazu nicht geändert werden. Es wird Techniken geben, die wir uns heute halt noch nicht vorstellen können.

 

Gruß

Georg

 

Bei Festplatten ist das ja auch sinnvoll, diese Speicherdichtenzunahme. Man hat durch die Erhöhung der Speicherkapazitäten ja auch einen Mehrwert. Hat der Konsument dies denn bei einer Klein-Kamera mit 12 Megabyte? Das gros der Leute die Kompaktkameras kaufen, fotografieren und machen dann Abzüge bis maximal DIN A4.

 

Sensoren, die physikalisch nun mal eine bestimmte Größe haben (können), ist dieser ständige Zuwachs an Pixel pro Quadratmillimeter letztlich einfach nur eins: Schwachsinn.

 

Du reduzierst die Entwicklung einer Digitalkamera rein auf Megapixel. Damit sitzt man aber meiner Meinung nach nur den Werbestrategen der Firmen auf. Die wollen ja nur verkaufen, alle 6 Monate muss eben ein "neues" Modell her, innovativ sind aufeinander folgende Kameragenerationen ja kaum noch.

 

 

In der Zeitschrift DPIX gab es vor einigen Monaten mal diesbezüglich das etwas provokantes Editorial mit dem Titel "Wann gibt es die erste Digitalkamera?" Recht hat der Redakteur! Hier kann man sicher einiges (ggf. heute wenig vorstellbares) in Zukunft erwarten.

 

Langfristig (sehr langfristig, d.h. in 10, 20, ggf. 30 Jahren) werden sich auch völlig andere Konstruktionen an Objektiven realisieren lassen: Linsen aus neuen Werkstoffen, die sich in sich selbst verformen können, und die sich nicht mehr irgendwie als gegeneinander verschiebbare Baugruppe in einer innen schwarz lackierten Röhre befinden. Letztlich sind alle aktuellen Digitalkameras doch immer noch sehr konventionell ("analog"), was die Optik betrifft: lediglich steht an Stelle des Films der Sensor. Nachgeschaltet erfolgt dann die Signalverarbeitung.

 

In vielen Dingen kann man also noch viel erwarten, bis es "richtige" Digitalkameras geben wird. Bei Megapixeln erwarte ich da nichts mehr. Da ist man (was den Kompaktkamerabereich betrifft) längst im "Overkill"-Bereich.

Link to post
Share on other sites

@Digitom:

 

Alles richtig.

Das mit der Festplattenkapazität war nur ein Beispiel für den techn. Fortschritt. Es wird Konstruktionen zu kaufen geben die keiner wirklich braucht - Zwischenschritte zu Besserem für alle.

Eines sollte man auch nicht vergessen: Dem Verkauf der immer neuen Modelle, angeheizt durch die Werbestrategen, können wir es verdanken, daß eine NDx/C1x/LMx etc. für uns bezahlbar sind bzw., daß es diese überhaupt gibt.

 

Gruß

Georg

Link to post
Share on other sites

In der Zeitschrift DPIX gab es vor einigen Monaten mal diesbezüglich das etwas provokantes Editorial mit dem Titel "Wann gibt es die erste Digitalkamera?" Recht hat der Redakteur! Hier kann man sicher einiges (ggf. heute wenig vorstellbares) in Zukunft erwarten.

Das mag schon sein; ich schreibe ja auch immer gerne über „emerging technologies“ (in der VICTOR zum Beispiel), weil ich solche Themen spannend finde. Aber man darf dabei auch eines nicht vergessen: Alle uns bekannten fotografischen Meisterwerke sind mit höchst unzulänglichen Kameras entstanden. Erst recht könnte man mit einer Kamera des aktuellen technischen Standards, sei es nun eine Leica, Canon, Nikon, Pentax oder was auch immer, Meisterwerke schaffen – wenn man es kann. Und wenn einem das nicht gelingt, so sollte man die Ursache nicht in der verwendeten Kamera suchen, oder darin, daß irgendeine entscheidende Technologie erst in 100 Jahren erfunden sein wird.

Link to post
Share on other sites

Advertisement (gone after registration)

Ich warte da auf garnichts !

Film rein - fertig :-)

 

Die Armen die nun so stolz auf ihre superscharfen 5MP-Bilder sind und in 10Jahren auf den dann aktuellen Bildschirmen grauenhafte Bilder zu sehen bekommen ! :-(

 

Schlimmstenfalls werde ich dann meine Dias/Negative herausziehen und diese mit der ultimativen 64MP-Kamera digitalisieren. :-))))

 

Gruß

Reiner

Link to post
Share on other sites

Guest Motivfindender
Ich warte da auf garnichts !

Film rein - fertig :-)

 

Die Armen die nun so stolz auf ihre superscharfen 5MP-Bilder sind und in 10Jahren auf den dann aktuellen Bildschirmen grauenhafte Bilder zu sehen bekommen ! :-(

 

Schlimmstenfalls werde ich dann meine Dias/Negative herausziehen und diese mit der ultimativen 64MP-Kamera digitalisieren. :-))))

 

Gruß

Reiner

 

 

Gute Bilder bleiben gute Bilder...

 

daß ausgerechnet ein "Hardcore-Analoger" damit argumentiert, daß die heutzutage theoretisch mögliche hohe digitale Auflösung (die zumeist weit jenseits der Wahrnehmungsschwelle liegt) durch weitere Verschiebung in Richtung nur noch messbar-theoretischer Perfektion "schlechter" wird und die Fotos dadurch unansehlich oder künstlerisch wertlos - das entbehrt nicht einer ganz erheblichen Komponente als ungewollter Komik... :D

 

Erinnert mich an den Unsinn, den manche leute in HiFi-Foren erzählen, wenn sie mp3 in Grund und Boden schwätzen, obwohl die wissenschaftlichen Grundlagen aufzeigen, daß diese - saubere Konvertierung vorausgesetzt - von 99,9% der menschen trotz äusserster Konzentration im Blindtest nicht vom "Original" unterschieden werden können.

Oder noch schlimmer: Daß gute (!) digitale Kopien vom Analogen Original zu unterscheiden sein sollen.

 

Alles nur Mythen, urban legends, substanzlose Mystik von Leuten, die Nostalgie und persönliche Emotionen (die jedem zustehen) nicht von sachlicher und nüchterner, inhaltsbezogener Betrachtungsweise unterscheiden können (oder wollen) und sich ihre Irrationalität Rationalisieren wollen...

 

gerade die Digitaltechnik hat die Dokumentenverarbeitung und das Dokumentenmanagement sowie die Archivierung vorangetrieben. Denn die Digitalisierung ist der einzige, bezahlbare Weg, um bei sinkenden kulturellen Ausgaben noch ein Minimum an Rettung beim Lauf gegen die zerstörung durch die nagende zeit zu erreichen.

 

Gruß

Dirk

(fotografiert undogmatisch analog und digital, Tendenz ist aber eindeutig.... :D )

Link to post
Share on other sites

Guest klaudie

... nachdem aber zwei Drittel der Sensorpunkte durch die Bayer-Filterung für jede der Grundfarben rt/bl/gn verloren geht, ergibt da nicht ein z.B. 8MPix-Bild ein doch schon zu interpoliertes Bild? ... und wären nicht z.B. 8 echte MPix für jede Grundfarbe (ohne Bayer-Filter) doch besser? ... und weitergesponnen: noch höhere Sensorauflösung (Physik mal außen vor gelassen) und z.B. je Farbe mehrere Sensorpunkte "zusammengeschaltet", bringen die nicht eine höhere Energieausbeute und deutlich besseres Rauschverhalten an einem "Ausgangs"-Sensorpunkt? - womit ja kein unmittelbarer Auflösungsgewinn erreicht wäre aber ein qualitativ viel besseres und lineareres Signalverhalten?, also z.B. quasi ein 8 MPix-Sensor, der in der Qualität einem 3 x so großen "einfachen" Sensor entspräche?

 

Gruß an alle "Physiker";)

Link to post
Share on other sites

und weitergesponnen: noch höhere Sensorauflösung (Physik mal außen vor gelassen) und z.B. je Farbe mehrere Sensorpunkte "zusammengeschaltet", bringen die nicht eine höhere Energieausbeute und deutlich besseres Rauschverhalten an einem "Ausgangs"-Sensorpunkt?

Wenn man auf derselben Sensorfläche mehr, dafür aber kleinere Pixel unterbringt, sinkt zunächst einmal der Signalrauschabstand und der Dynamikumfang. Durch eine Verrechnung mehrerer Pixel erreicht man im besten Fall wieder denselben Signalrauschabstand und Dynamikumfang wie beim niedriger auflösenden Sensor – in der Praxis wird das Ergebnis aber vermutlich schlechter sein. Es bleibt beim Trade-off zwischen Auflösung einerseits und Rauschabstand und Dynamikumfang andererseits; beides gleichzeitig zu optimieren ist unmöglich. Und wenn man die Pixel zu stark verkleinert, macht einem die Beugung einen Strich durch die Rechnung und man gewinnt nicht einmal mehr an Auflösung.

Link to post
Share on other sites

Ich bin weder Optiker noch Physiker, weiß auch nicht, wie der Schreiber des Folgenden auf seine Ergebnisse kommt, aber wenn man sich etwa die G-Reihe von Canon ansieht, sieht man, dass die neueste mit 10 Megapixel ein ganz neues deutlich lichtschwächeres Objektiv brauchte als die alten Exemplare. Es sieht so aus, als wäre es tatsächlich so, dass die schiere Anzahl der Pixel auf gegebener Fläche begrenzt ist, bei KB etwa bei 22 Megap., wenn man noch mehrere nutzbare Blenden zur Verfügung haben will. Bei den ganz kleinen Digiknipsen mit den kleinen Sensoren scheint das Ende erreicht.

 

DFORUM - Einzelnen Beitrag anzeigen - Warum FF - oder warum eine kleine Consumer nur 1 Blende braucht

Link to post
Share on other sites

Hi,

 

wenn´s noch ein wenig mehr sein soll,

gerade neusten Newsletter von Hasi bekommen,

 

Gruß

Horst

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!

Link to post
Share on other sites

Guest klaudie
Wenn man auf derselben Sensorfläche mehr, dafür aber kleinere Pixel unterbringt, sinkt zunächst einmal der Signalrauschabstand und der Dynamikumfang. Durch eine Verrechnung mehrerer Pixel erreicht man im besten Fall wieder denselben Signalrauschabstand und Dynamikumfang wie beim niedriger auflösenden Sensor – in der Praxis wird das Ergebnis aber vermutlich schlechter sein. Es bleibt beim Trade-off zwischen Auflösung einerseits und Rauschabstand und Dynamikumfang andererseits; beides gleichzeitig zu optimieren ist unmöglich. Und wenn man die Pixel zu stark verkleinert, macht einem die Beugung einen Strich durch die Rechnung und man gewinnt nicht einmal mehr an Auflösung.

 

Das ist im Grunde zwar nicht falsch, aber langjährige Erfahrung im Einsatz von hochintegrierten Schaltungen der Analogmeßtechnik haben mich gelehrt, dass durch immer wieder erheblich verbesserte Herstellungsprozesse des Ausgangsmaterials der Signal-/Rauschabstand fast stetig größer wurde solange die Reinheit bzw. die gezielte Verunreinigung verbessert werden konnte - ganz davon abgesehen, dass viele neu Materialien entwickelt wurden. Zu meiner Zeit war z.B. eine blaue LED eine absolute Unmöglichkeit, eine Weiße mit der Lichtausbeute, dass sie heute schon fast Taschenlampen ersetzen kann, ebenso. Ich halte die Entwicklungsmöglichkeiten von strahlungsempfindlichen Materialien für noch nicht am Ende.

Gruß

Link to post
Share on other sites

langjährige Erfahrung im Einsatz von hochintegrierten Schaltungen der Analogmeßtechnik haben mich gelehrt, dass durch immer wieder erheblich verbesserte Herstellungsprozesse des Ausgangsmaterials der Signal-/Rauschabstand fast stetig größer wurde solange die Reinheit bzw. die gezielte Verunreinigung verbessert werden konnte

Das mag so sein, und vielleicht haben die Sensoren in ein paar Jahren einen besseren Rauschabstand als heute, aber es ändert nichts daran, daß es keinen Vorteil bringt, die Pixel zu verkleinern um dann mehrere Pixelwerte miteinander zu verrechnen. Da eine vergrößerte Zahl von Pixeln tendentiell den Fill-Factor reduziert, ist es voraussichtlich sogar nachteilig.

Link to post
Share on other sites

Das mag so sein, und vielleicht haben die Sensoren in ein paar Jahren einen besseren Rauschabstand als heute, aber es ändert nichts daran, daß es keinen Vorteil bringt, die Pixel zu verkleinern um dann mehrere Pixelwerte miteinander zu verrechnen. Da eine vergrößerte Zahl von Pixeln tendentiell den Fill-Factor reduziert, ist es voraussichtlich sogar nachteilig.

 

 

Das klingt sehr logisch. Irgendwie erinnert mich diese "Mehr Megapixel"-Diskussion übrigens an jene Entwicklung bei CD-Spielern in den 80ern, wo man mit immer mehr "Oversampling"-Raten einem analogen Signal (in Prospekten immer schön als Sinus-Kurve im Vergleich zu den "Treppenstufen" der digitalen Welt an die Seite gestellt) sich anzunähern versuchte. Da gab es dann 8fach Oversampling, irgendwann 64fach Oversampling, und plötzlich - voila: Bitstreamwandlung, also wohl 1bit, 256fach oversampelt. All die vielen Werbeprospekte umsonst...und noch mehr schaler Beigeschmack ob der teuren Lösungen bei den Geräten, es ging ja ab dann auch preiswerter! Mit als Anwender war´s egal: ich wollte einfach guten Klang....

 

 

In diesem Zusammenhang würden mich mehr Infos zu dieser Mikrospiegel-Technik interessieren, die Mitglied Coquillat erwähnte. Eine Internet-Verknüpfung wäre nett.

 

Abschließend eine Frage: was ist ein "Fill-Faktor"? Ich vermute es hat mit "Blooming" zu tun, d.h jener Wert ab dem die Pixel "Überlaufen"?

Link to post
Share on other sites

IEs sieht so aus, als wäre es tatsächlich so, dass die schiere Anzahl der Pixel auf gegebener Fläche begrenzt ist, bei KB etwa bei 22 Megap., wenn man noch mehrere nutzbare Blenden zur Verfügung haben will.

Ich weiß nicht, wie du auf diesen Wert kommst, aber da geht sicher noch erheblich mehr.

Denn auch die aktuellen Kompaktknipsen erhöhen noch ihre Auflösung durch die Vergrößerung der Pixelzahl, trotz Beugung. Sie nähern damit ihre Gesamtauflösung (vom Objektiv projiziertes Bild + Abbildung auf dem Sensor) der Beugungsgrenze an. Exakt erreicht (unveränderte Abbildung des Objektivbildes) wird sie theoretisch bei unendlicher Auflösung des Sensors, wenn man weitere Effekte im Objektiv außer Acht läßt.

Nicht vergessen: hier wird ein Bild "optisch kopiert", und ein Bild mit seiner eigenen Auflösung kopieren ergibt rechnerisch die halbe, nicht die volle Auflösung.

 

Natürlich werden die Auflösungsgewinne zunehmend geringer und haben irgendwann keine praktische Bedeutung mehr. Ein gewisser "Overscan" ist gerade bei einem Bayersensor aber nicht falsch.

 

Nichtsdestotrotz ist es längst ein offenes Geheimnis ist, daß die Kompaktkameras mit weniger Pixeln bessere Bilder machen würden und die Hersteller sich nur dem Wunsch der Großeinkäufer unterordnen. Das hat sogar mal ein hoher Canon-Funktionär in einem Interview gesagt. Er meinte sinngemäß, er hoffe, daß der Markt irgendwann wieder eine ausgeglichenere Entwicklung zulasse =).

Link to post
Share on other sites

Ich bin weder Optiker noch Physiker, weiß auch nicht, wie der Schreiber des Folgenden auf seine Ergebnisse kommt, aber wenn man sich etwa die G-Reihe von Canon ansieht, sieht man, dass die neueste mit 10 Megapixel ein ganz neues deutlich lichtschwächeres Objektiv brauchte als die alten Exemplare. Es sieht so aus, als wäre es tatsächlich so, dass die schiere Anzahl der Pixel auf gegebener Fläche begrenzt ist, bei KB etwa bei 22 Megap., wenn man noch mehrere nutzbare Blenden zur Verfügung haben will. Bei den ganz kleinen Digiknipsen mit den kleinen Sensoren scheint das Ende erreicht.

 

DFORUM - Einzelnen Beitrag anzeigen - Warum FF - oder warum eine kleine Consumer nur 1 Blende braucht

 

Hallo Peter,

 

danke für den Beitrag.

Schöne Gegenüberstellung von Schärfentiefe einerseits und Freistellungseffekt andererseits. Und das über die verschiedenen Chipformate.

2 Blendenwerte machen dann- unter Anderem- die Wirkung der Oly- Macros aus.

 

Gruss Dieter

Link to post
Share on other sites

Ich weiß nicht, wie du auf diesen Wert kommst, aber da geht sicher noch erheblich mehr.

Denn auch die aktuellen Kompaktknipsen erhöhen noch ihre Auflösung durch die Vergrößerung der Pixelzahl, trotz Beugung. Sie nähern damit ihre Gesamtauflösung (vom Objektiv projiziertes Bild + Abbildung auf dem Sensor) der Beugungsgrenze an. Exakt erreicht (unveränderte Abbildung des Objektivbildes) wird sie theoretisch bei unendlicher Auflösung des Sensors, wenn man weitere Effekte im Objektiv außer Acht läßt.

Nicht vergessen: hier wird ein Bild "optisch kopiert", und ein Bild mit seiner eigenen Auflösung kopieren ergibt rechnerisch die halbe, nicht die volle Auflösung.

 

Natürlich werden die Auflösungsgewinne zunehmend geringer und haben irgendwann keine praktische Bedeutung mehr. Ein gewisser "Overscan" ist gerade bei einem Bayersensor aber nicht falsch.

 

Nichtsdestotrotz ist es längst ein offenes Geheimnis ist, daß die Kompaktkameras mit weniger Pixeln bessere Bilder machen würden und die Hersteller sich nur dem Wunsch der Großeinkäufer unterordnen. Das hat sogar mal ein hoher Canon-Funktionär in einem Interview gesagt. Er meinte sinngemäß, er hoffe, daß der Markt irgendwann wieder eine ausgeglichenere Entwicklung zulasse =).

 

... ja wenn das schon einer von Canon sagt, dann muss es ja so sein ! ;-))

 

Gruß

Reiner

 

Schöne Diskussion hier !

Link to post
Share on other sites

Abschließend eine Frage: was ist ein "Fill-Faktor"? Ich vermute es hat mit "Blooming" zu tun, d.h jener Wert ab dem die Pixel "Überlaufen"?

Nein, der „fill factor“ beschreibt, wie groß der Anteil der lichtempfindlichen Fläche an der Fläche des Pixels insgesamt ist; der Rest wird für die sonstige Elektronik, Leiterbahnen und die nötige Isolierung zwischen den Pixeln benötigt. Bei einem Faktor von 50 Prozent wird die Hälfte des Pixels zur Umwandlung von Photonen in Elektronen genutzt. Will man die Effizienz des Pixels verbessern, so muß man eine Mikrolinse davor setzen, die das auf das Pixel fallende Licht auf die kleinere lichtempfindliche Fläche darunter bündelt. Damit steigt allerdings auch die Richtungsabhängigkeit, das heißt, die Empfindlichkeit des Pixels fällt mit wachsendem Einfallswinkel stark ab.

 

Blooming ist ein Effekt, der bei starker Überbelichtung auftreten kann: Nachdem die Füllgrenze eines Pixels überschritten ist, fließen elektrische Ladungen zu benachbarten Pixeln über. Heutzutage sorgen die Sensorhersteller aber dafür, daß solche überschüssigen Ladungen abgeleitet werden und es nicht zu Blooming kommt. Man muß schon um etliche Blendenstufen überbelichten, damit Blooming zu einem Problem wird.

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...