Dikdik Posted March 6, 2010 Share #81 Posted March 6, 2010 Advertisement (gone after registration) Nein, das würde es nicht. Wie ich oben schon schrieb, steht dem sowohl die Teilchennatur des Lichts (wir zählen hier Photonen, und je kleiner ein Sensorpixel ist, desto weniger Photonen kann es während der Belichtung zählen und desto geringer werden die Tonwertdifferenzierung und der Rauschabstand) wie auch seine Wellennatur entgegen – die Größe des Beugungsscheibchens setzt der Auflösung eine Grenze, und noch kleinere Sensorpixel tasten kein höher aufgelöstes Bild mehr ab; aufgrund des schlechteren Rauschabstands und der schlechteren Tonwertdifferenzierung wird das Bild vielmehr schlechter, sofern man nicht wieder mehrere Pixel zu einem verrechnet. Das ist gar nicht so theoretisch; solche Begrenzungen sind ja der Grund dafür, dass man in der Mikroskopie ab einer bestimmten Vergrößerung von Licht- zu Elektronenmikroskopen übergehen muss. Licht ist einfach zu grob, um feinste Strukturen abbilden zu können. Für die Belange der bildmäßigen Fotografie ist das aber kein gangbarer Weg; wir wollen ja die Welt im sichtbaren Licht abbilden und nicht, wie sie in Supermans Röntgenblick ausschaut (so interessant das bei anderen Gelegenheiten und für andere Zwecke sein mag). Danke Michael! Gruß nach Hamburg Dikdik Link to post Share on other sites More sharing options...
Advertisement Posted March 6, 2010 Posted March 6, 2010 Hi Dikdik, Take a look here Wo liegt die theoretische Auflösungsgrenze?. I'm sure you'll find what you were looking for!
Guest Land Posted March 6, 2010 Share #82 Posted March 6, 2010 Michael: Folgere ich richtig? Nehmen wir an es würde eine Blende entwickelt, die - ggf. durch Folienkonstruktion - die komplette Sensor- oder Filmfläche unmittelbar und ganz abdecken würde und diese Konstruktion kein Objektiv hätte- was dann? Dann würden diese Beugungsscheibchen und deren Nebenwirkungen nicht erst entstehen und das Bild, unterstellen wir mal die obige Möglichkeit, komplett das einfallende Licht, so plan wie denkbar - einfallen lassen. Habe ich da einen Denkfehler? Meine Idee war, dass schnellschaltende Kombination mit schaltbaren Beschichtungen — Fraunhofer ISE Folien, Intelligentes LC-Glas | MDR.DE so schnell und exakt öffnen, daß sie mit einem automatischen Beli gekoppelt die Crux der Lochkamera überwinden könnten ... ? Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #83 Posted March 6, 2010 Nehmen wir an es würde eine Blende entwickelt, die - ggf. durch Folienkonstruktion - die komplette Sensor- oder Filmfläche unmittelbar und ganz abdecken würde und diese Konstruktion kein Objektiv hätte- was dann? Dann würden diese Beugungsscheibchen und deren Nebenwirkungen nicht erst entstehen und das Bild, unterstellen wir mal die obige Möglichkeit, komplett das einfallende Licht, so plan wie denkbar - einfallen lassen. Habe ich da einen Denkfehler? Zum einen gibt es immer irgendeine Begrenzung; wir können die Objektive ja nicht beliebig groß bauen. Außerdem wollen wir oft abblenden, um die Schärfentiefe zu vergrößern. Vor allem aber muss ja irgendwie ein Bild entstehen, und wie sollte das ohne Objektiv geschehen? Eine Lochkamera erzeugt auch ohne (Linsen-) Objektiv ein abbildungsfehlerfreies Bild, leidet aber natürlich erst recht unter der Beugung. Eine Zonenplatte erzeugt unter geschickter Ausnutzung von Beugung und Interferenzen ein Bild; sie ist lichtstärker als das Loch einer Lochkamera, kann aber ebenfalls nicht die Beschränkungen aufgrund der Beugung umgehen. (Übrigens gibt es zur aktuellen Version des Lensbaby eine Zonenplatte als alternatives Objektiv; damit könnte man das ausprobieren.) Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #84 Posted March 6, 2010 Zum einen gibt es immer irgendeine Begrenzung; wir können die Objektive ja nicht beliebig groß bauen. Außerdem wollen wir oft abblenden, um die Schärfentiefe zu vergrößern. Vor allem aber muss ja irgendwie ein Bild entstehen, und wie sollte das ohne Objektiv geschehen? Eine Lochkamera erzeugt auch ohne (Linsen-) Objektiv ein abbildungsfehlerfreies Bild, leidet aber natürlich erst recht unter der Beugung. Eine Zonenplatte erzeugt unter geschickter Ausnutzung von Beugung und Interferenzen ein Bild; sie ist lichtstärker als das Loch einer Lochkamera, kann aber ebenfalls nicht die Beschränkungen aufgrund der Beugung umgehen. (Übrigens gibt es zur aktuellen Version des Lensbaby eine Zonenplatte als alternatives Objektiv; damit könnte man das ausprobieren.) Bei dieser These ging ich davon aus, daß reine Landschaftsaufnahmen (mein Metier) betrieben werden,dh. eine Freistellung eher nicht gebraucht wird: Mir würde (theoretisch) nur eine Blende genügen, wenn die Zeiten sich genügend differenzieren lassen. Auf meiner Linkseite sind ein paar interessante Sachen zum Thema Lochfotografie, evtl. interessieren sie jemanden.. http://www.plaetzchenwolf.eu/ALink.html Nochmal zu obigem Konstrukt: Verzichtet mal auf jedwelche Objektivmanipulatinen und nimmt nur das Abbild der Umwelt auf die Platte, die dann -unterstellterweise das wäre techn. möglich- mittels Folienblende arbeitet, sollte das Ergebnis so sein, als wenn man mit bloßem Auge betrachtet? Link to post Share on other sites More sharing options...
feuervogel69 Posted March 6, 2010 Share #85 Posted March 6, 2010 meinen weiter vorn angegebenen link habt ihr gelesen??? verstehe die ganze fragerei nach zahlen, werten und beugungsscheibchen nicht ganz....in meinem link zu luminous landscape wurde und wird alles erklärt, ausgerechnet in tabellen gegossen und jeder kann NACHLESEN was bei welcher blende, bei welcher lichtstärke und bei welcher wellenlänge genau mit der beugung passiert. lg mathias p.s. evtl sollten wir 01af mal die mailadresse von herrn walter e. schön geben, oder ihn in das forum einladen wo herr hscön schreibt? das wäre sicher lustig und der zusammenprall dieser charaktere etwas fr einen abend mit popcorn;-))) Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #86 Posted March 6, 2010 Verzichtet mal auf jedwelche Objektivmanipulatinen und nimmt nur das Abbild der Umwelt auf die Platte, die dann -unterstellterweise das wäre techn. möglich- mittels Folienblende arbeitet, sollte das Ergebnis so sein, als wenn man mit bloßem Auge betrachtet? Das menschliche Auge arbeitet ja mit einer Linsenoptik, hat eine Blende und so weiter. Davon abgesehen arbeiten Auge und Gehirn so grundsätzlich anders als eine Kamera, dass ein Vergleich kaum sinnvoll möglich wäre. Aber was ich an Deiner Fragestellung nicht verstehe: Wie stellst Du Dir konkret die Abbildung der Umwelt vor, wenn Du kein Objektiv irgendeiner Art verwendest? (Mir fällt da ein Trickfilmchen aus der „Sendung mit der Maus“ ein: Die Maus versucht recht ungeschickt, einen kleinen Teich mit einer darauf schwimmenden Ente zu malen, und nachdem der kleine blaue Elefant mehrere vergebliche Versuche mit angesehen hat, packt er die Leinwand mit dem Rüssel, klatscht sie auf Ente und Tümpel und erhält so ein perfektes Abbild.) Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #87 Posted March 6, 2010 Advertisement (gone after registration) Das menschliche Auge arbeitet ja mit einer Linsenoptik, hat eine Blende und so weiter. Davon abgesehen arbeiten Auge und Gehirn so grundsätzlich anders als eine Kamera, dass ein Vergleich kaum sinnvoll möglich wäre. Aber was ich an Deiner Fragestellung nicht verstehe: Wie stellst Du Dir konkret die Abbildung der Umwelt vor, wenn Du kein Objektiv irgendeiner Art verwendest? (Mir fällt da ein Trickfilmchen aus der „Sendung mit der Maus“ ein: Die Maus versucht recht ungeschickt, einen kleinen Teich mit einer darauf schwimmenden Ente zu malen, und nachdem der kleine blaue Elefant mehrere vergebliche Versuche mit angesehen hat, packt er die Leinwand mit dem Rüssel, klatscht sie auf Ente und Tümpel und erhält so ein perfektes Abbild.) Das ist mal ein griffiges Beispiel - ja, wie ein Abklatsch der Wirklichkeit soll es sein, wie eine Zeitaufnahme in Sekundenbruchteilen des einfallenden Lichtes. Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #88 Posted March 6, 2010 meinen weiter vorn angegebenen link habt ihr gelesen??? verstehe die ganze fragerei nach zahlen, werten und beugungsscheibchen nicht ganz....in meinem link zu luminous landscape wurde und wird alles erklärt, ausgerechnet in tabellen gegossen und jeder kann NACHLESEN was bei welcher blende, bei welcher lichtstärke und bei welcher wellenlänge genau mit der beugung passiert. lg mathias p.s. evtl sollten wir 01af mal die mailadresse von herrn walter e. schön geben, oder ihn in das forum einladen wo herr hscön schreibt? das wäre sicher lustig und der zusammenprall dieser charaktere etwas fr einen abend mit popcorn;-))) Leider finde ich den Link nicht - bitte nochmal angeben - dankeschön! Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #89 Posted March 6, 2010 verstehe die ganze fragerei nach zahlen, werten und beugungsscheibchen nicht ganz....in meinem link zu luminous landscape wurde und wird alles erklärt, ausgerechnet in tabellen gegossen und jeder kann NACHLESEN was bei welcher blende, bei welcher lichtstärke und bei welcher wellenlänge genau mit der beugung passiert. Vielleicht ist dieser Artikel doch nicht ganz so allgemeinverständlich formuliert? Die Materie ist ja auch nicht ganz so einfach. Übrigens schreibt Rubén Osuna, einer der Autoren des von Dir verlinkten Artikels, regelmäßig im internationalen Teil dieses Forums. Die Welt ist halt klein, zumal die der Fotografie. Die Formel, die ich oben angegeben hatte, kann man immerhin noch vereinfachen: Da die Blendenöffnung gleich Brennweite / Blendenzahl ist, kann man diesen Ausdruck einsetzen und die Brennweite herauskürzen: 2 x 1,22 x Wellenlänge x Blendenzahl Setzt man nun noch 555 nm (grünes Licht) als Wellenlänge ein und fasst alle Konstanten zusammen, ergibt sich als Faustformel für den Durchmesser des Beugungsscheibchens: 1,35 µm x Blendenzahl Geht man davon aus, dass das Beugungsscheibchen maximal den Durchmesser von zwei Pixelabständen haben sollte (für einen Sensor mit Farbfiltern im Bayer-Muster ein plausibler Wert), dann ergibt sich die kleinste Blende, bei der der Sensor seine Auflösungsleistung im besten Fall noch erbringen könnte, als (handlich gerundet) Pixelabstand x 1,5 Bei der M8 und M9 wäre das Blende 10, bei der S2 Blende 9 und bei der X1 Blende 8. Natürlich kann es dennoch bisweilen sinnvoll sein, weiter abzublenden, um die Schärfentiefe zu vergrößern. Link to post Share on other sites More sharing options...
PwoS Posted March 6, 2010 Share #90 Posted March 6, 2010 Wenn man jetzt noch einmal feuervogels Gedankengang aus Beitrag # 29 in diesem Thread aufgreift, (und dazu die natürlich absolut unrealistische Annahme trifft, es könne irgendwann einmal ein Noctilux ohne jeden Abbildungsrestfehler geben), dann wäre mit einem Pixelabstand von ca. 0,65 µm spätestens die Grenze überschritten nach der sich wg. der Beugungsscheibchen eine weitere Steigerung der Pixelauflösung keinesfalls mehr lohnen kann. Das wäre im KB-Format immerhin 36.923 x 55.384 = ca. 2 Milliarden Pixel (2.045 MP). Wow Andererseits wird es niemals ein Noctilux geben, dass bei offener Blende beugungsbegrenzt ist und bei einem erträglichen Kontrast mindestens 385 Linienpaare/mm auflöst*. Aber bei Blende 4,0 wäre die theoretisch sinnvolle Pixelzahl auf Kleinbild immer noch 128 MP. (Pixelabstand 2,6 µm]. * aber vielleicht ja einmal ein Nokton äh, Duck und ganz schnell weg Link to post Share on other sites More sharing options...
01af Posted March 6, 2010 Share #91 Posted March 6, 2010 Auch der Sensor ist ein analoges Bauelement! Na ja ... wenn man die Tonwertwiedergabe des einzelnen Pixels vor der A/D-Wandlung betrachtet, dann schon. Betrachtet man aber den Sensor als ganzes, dann nicht. Er teilt das Bildfeld räumlich in diskrete Elemente auf und ist somit in dieser Hinsicht definitiv nicht analog. Witzig in diesem Zusammenhang ist übrigens, daß Film bei dieser Betrachtung grad genau das Gegenteil eines digitalen Bildwandlers ist. Denn im Gegensatz zu diesem ist die Lage der einzelnen Silberhalogenidkristalle kontinuierlich, d. h. sie können überall liegen und nicht nur auf diskreten Rasterpunkten. Dafür ist ein Silberkorn nach Belichtung, Entwicklung und Fixierung aber entweder vorhanden oder nicht nicht vorhanden, also hinsichtlich seiner Tonwertwiedergabefähigkeit ein Binärelement. Sensorpixel, die kleiner als das Beugungsscheibchen sind, erzeugen keine effektiv höhere Auflösung mehr. Seufz. Genau das ist eben der – in Laienkreisen wohl nicht mehr ausrottbare – Irrtum. Würde das – bitte rein theoretisch – bedeuten, daß je feiner und kleiner der Pixelabstand im Sensor produziert werden kann, die Auflösung umso detailreicher und feiner wird? Im Prinzip ja – unter Vernachlässigung solch lästiger Details wie z. B. Signal-Rausch-Abstände ... rein theoretisch eben. Aber – die Auflösung würde nicht über jedes beliebige Maß hinaus anwachsen, sondern asymptotisch einem bestimmten Grenzwert zustreben, ohne diesen jemals zu erreichen. Und dieser Grenzwert ist durch das Auflösungvermögen des Objektives vorgegeben. In der Praxis ist es also ab einer hinreichend hohen Sensorauflösung nicht mehr sinnvoll, zu versuchen, durch noch höhere Sensorauflösung diesem Grenzwert noch ein klein wenig näher zu kommen, auch wenn dies theoretisch immer möglich wäre. Stattdessen wird man selbstverständlich lieber ein besseres Objektiv einsetzen, um so den Grenzwert selbst zu erhöhen. Aber einerlei, wo genau der jeweilige Grenzwert liegt, also wie gut oder schlecht das Objektiv ist – grundsätzlich liefert der höher auflösende Sensor unter dem gleichen Objektiv immer das detailreichere Bild. Umgekehrt gilt dasselbe: auf ein und demselben Sensor liefert das höher auflösende Objektiv immer das detailreichere Bild. Was würde passieren, wenn der Pixelabstand die Wellenlänge des Lichtes erreicht oder gar unterschreiten würde? Ist dort eine Grenze der theoretisch möglichen Auflösung zu sehen [...]? Ich meine das rein hypothetisch. Prinzipiell nein, auch dann gibt's keine Grenze ... natürlich wieder rein theoretisch. Es ist vollkommen egal, wodurch die Begrenzung der Auflösung des abbildenden Systems (also des Objektives) bedingt ist, seien es Seidel'sche Linsenfehler, Beugung oder die Wellenlänge des Lichtes. Die Auflösung des Bildes wird immer umso höher sein, je höher die Auflösung des auffangenden Systems (also des Sensors) ist. Werden zwei (oder mehr) auflösungsbegrenzte Systeme hintereinandergeschaltet, also Objektiv und Sensor, so ist die Gesamtauflösung nicht einfach gleich dem Minimum der Einzelauflösungen (wie sich der Laie das gern vorstellt), sondern entspricht im Prinzip dem Kehrwert der Summe der Kehrwerte der Einzelauflösungen. Deshalb verbessert auch die Erhöhung einer ohnehin schon hohen Einzelauflösung die Gesamtauflösung. Verzichtet mal auf jedwelche Objektivmanipulationen und nimmt nur das Abbild der Umwelt auf die Platte, die dann – unterstellt, das wäre technisch möglich – mittels Folienblende arbeitet, sollte das Ergebnis so sein, als wenn man mit bloßem Auge betrachtet? Pardon, aber das ist eine vollkommen sinnlose Fragestellung! Erstens: Wie sollte wohl ohne Objektiv eine fotografische Abbildung überhaupt zustandekommen? Zweitens: Wenn du etwas so sehen willst wie mit bloßem Auge betrachtet, dann mußt du's mit bloßem Auge betrachten. Eine körperliche Abbildung einer Szenerie, also ein Bild auf einem Monitor, auf einer Projektionsleinwand oder auf einem Stück Papier, welches du mit deinen Augen angucken kannst, kann prinzipiell niemals "so sein wie mit dem bloßen Auge betrachtet". Ein Bild von einer Sache ist nicht die Sache selbst ... gut, mit einer möglichen Ausnahme: wenn die Sache selber ein Bild ist (im weiteren Sinne, also irgend etwas viereckiges zweidimensionales starres nicht selbstleuchtendes). Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #92 Posted March 6, 2010 snip Pardon, aber das ist eine vollkommen sinnlose Fragestellung! Erstens: Wie sollte wohl ohne Objektiv eine fotografische Abbildung überhaupt zustandekommen? Zweitens: Wenn du etwas so sehen willst wie mit bloßem Auge betrachtet, dann mußt du's mit bloßem Auge betrachten. Eine körperliche Abbildung einer Szenerie, also ein Bild auf einem Monitor, auf einer Projektionsleinwand oder auf einem Stück Papier, welches du mit deinen Augen angucken kannst, kann prinzipiell niemals "so sein wie mit dem bloßen Auge betrachtet". Ein Bild von einer Sache ist nicht die Sache selbst ... gut, mit einer möglichen Ausnahme: wenn die Sache selber ein Bild ist (im weiteren Sinne, also irgend etwas viereckiges zweidimensionales starres nicht selbstleuchtendes). Die Reaktion war mir fast klar, weil von mir wohl etwas zu laienhaft gefragt worden ist: Mir schwebt ein Ergebnis vor, wie auf einer Projektionsleinwand, nur daß das Motiv von der Umwelt selbst "geworfen" wird, einem Spiegel ähnlich. Link to post Share on other sites More sharing options...
01af Posted March 6, 2010 Share #93 Posted March 6, 2010 ... dann ergibt sich die kleinste Blende, bei der der Sensor seine Auflösungsleistung im besten Fall noch erbringen könnte, als (handlich gerundet) Pixelabstand × 1,5 Bei der M8 und M9 wäre das Blende 10, bei der S2 Blende 9 und bei der X1 Blende 8. Natürlich kann es dennoch bisweilen sinnvoll sein, weiter abzublenden, um die Schärfentiefe zu vergrößern. Also schön. Dann kommt hier jetzt die Gretchenfrage: Ist es sinnvoll, weiter aufzublenden (erstklassiges Objektiv vorausgesetzt), um den Detailreichtum des Bildes zu vergrößern? Link to post Share on other sites More sharing options...
becker Posted March 6, 2010 Share #94 Posted March 6, 2010 Auf die Gefahr eins in die Fresse zu kriegen von 01 af. Würde sagen ja, mehr Licht mehr Information. Krieg ich jetzt ein Seufz, ein oje oder gar ein ojemine;) Gruß MB Link to post Share on other sites More sharing options...
PwoS Posted March 6, 2010 Share #95 Posted March 6, 2010 Ich habe gerade mal den Gedanken von dem minimal 2,6 µm großen Pixelabstand bei Blende 4 weitergesponnen. Heißt das nicht, dass bei den meisten der aktuellen Kompaktkameras dieser Wert heute schon unterschritten wird? Diese Kameras hätten dann ja jetzt schon mehr Pixel als sie sinnvoll brauchen könnten? Link to post Share on other sites More sharing options...
01af Posted March 6, 2010 Share #96 Posted March 6, 2010 Mir schwebt ein Ergebnis vor, wie auf einer Projektionsleinwand, nur daß das Motiv von der Umwelt selbst "geworfen" wird, einem Spiegel ähnlich. So etwas ist nicht möglich. Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #97 Posted March 6, 2010 Auf die Gefahr eins in die Fresse zu kriegen von 01 af. Würde sagen ja, mehr Licht mehr Information. Krieg ich jetzt ein Seufz, ein oje oder gar ein ojemine;) Gruß MB Ojemineh ! Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #98 Posted March 6, 2010 Mir schwebt ein Ergebnis vor, wie auf einer Projektionsleinwand, nur daß das Motiv von der Umwelt selbst "geworfen" wird, einem Spiegel ähnlich. Ja, aber die Umwelt wirft kein Bild, vielmehr wirft sie Licht in alle Richtungen und daraus entsteht kein Bild. Auch das Spiegelbild entsteht erst im Auge; der Spiegel lenkt das Licht nur um. Link to post Share on other sites More sharing options...
mjh Posted March 6, 2010 Share #99 Posted March 6, 2010 Ich habe gerade mal den Gedanken von dem minimal 2,6 µm großen Pixelabstand bei Blende 4 weitergesponnen. Heißt das nicht, dass bei den meisten der aktuellen Kompaktkameras dieser Wert heute schon unterschritten wird? Diese Kameras hätten dann ja jetzt schon mehr Pixel als sie sinnvoll brauchen könnten? So ist es. Bei der D-Lux 4 wäre bei Blende 3 (2,0 µm Pixelabstand mal 1,5) schon die Schmerzgrenze erreicht, aber wenigstens ist sie überhaupt so lichtstark. Manche aktuelle Kompaktkameras haben eine Lichtstärke von 1:3,3 und dazu noch kleinere Pixel. Link to post Share on other sites More sharing options...
Guest Land Posted March 6, 2010 Share #100 Posted March 6, 2010 Ja, aber die Umwelt wirft kein Bild, vielmehr wirft sie Licht in alle Richtungen und daraus entsteht kein Bild. Auch das Spiegelbild entsteht erst im Auge; der Spiegel lenkt das Licht nur um. Das gibt mir aber sehr zu denken ! Wenn nun das Licht, bzw. die Information, die auf dem Spiegel auftrifft- festgehalten wird, was dann? Der Spiegel reflektiert ja nicht nur das, was ich willkürlich sehe, sondern alles: Diese Information eingebrannt - wäre das was ich meinte. (Die Bilder des Spiegels sind da, das Gegenüber wird "spiegelbildlich" abgebildet, egal womit man sie sieht) http://leifi.physik.uni-muenchen.de/web_ph07_g8/grundwissen/02reflexion/reflexion1.htm Nun ist etwas, was "auftreffen" kann, auch festhaltbar- oder nicht? http://de.wikipedia.org/wiki/Spiegel Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.