Jump to content

Zusammenhang Pixel und lp/mm


Guest waldi2

Recommended Posts

Advertisement (gone after registration)

Es gibt tatsächlich allenfalls ganz schmale Bereiche von Wellenlängen, auf die nicht zwei oder gar drei Arten von Farbrezeptoren reagieren. Und das ist auch gut so, denn sonst hätten wir beispielsweise große Schwierigkeiten, Violett zu erkennen. Im metamerischen RGB-Farbsystem wird Violett als Mischung von Rot und Blau wiedergegeben, aber reines Violett liegt in einem völlig anderen Wellenlängenbereich als Rot. Würden die für Rot, Grün und Blau empfindlichen Rezeptoren nur oder fast nur auf diese Wellenlängenbereiche reagieren, würde reines Violett höchstens von den blauempfindlichen Rezeptoren registriert und könnte nicht von Blau unterschieden werden. Dies gelingt nur, weil einerseits die grünempfindlichen Rezeptoren einen sehr breiten Empfindlichkeitsbereich haben und andererseits die rotempfindlichen Rezeptoren noch ein kleines Nebenmaximum am entgegengesetzten Ende des Spektrums bei Violett haben.

Letzte Woche bei der Sternwartenführung hatte mir ein kleines Mädchen ein böses Loch in den Bauch gefragt:

"Es gibt gelbe und blaue Sterne, auch rote und orangene. Warum gibt's dann keine grünen Sterne?"

Ich war vorerst etwas ratlos und habe es mit Wahrnehmung erklärt, denn es gibt sicher Sterne mit passender Temperatur für ein Maximum im Grünen.

Diese Erklärung spart mir die Recherche (nächste Woche will sie wieder kommen, ich hatte Ihr bis dahin eine genaue Antwort versprechen müssen).

Merci Vielmal

Torsten

Link to post
Share on other sites

  • Replies 45
  • Created
  • Last Reply
Letzte Woche bei der Sternwartenführung hatte mir ein kleines Mädchen ein böses Loch in den Bauch gefragt:

"Es gibt gelbe und blaue Sterne, auch rote und orangene. Warum gibt's dann keine grünen Sterne?"

Solchen kleinen Mädchen erklärt man, daß ein idealer schwarzer Körper bei keiner Temperatur vor allem Licht im grünen Wellenlängenbereich abstrahlt (was einer der Gründe ist, weshalb ich an der Sinnhaftigkeit des Konzepts „Farbtemperatur“ in der Fotografie zweifle: Grünes Licht hat keine Farbtemperatur) und ein Stern ebenso wenig, und das haben sie dann davon.

 

Und wenn das noch nicht genügt, dann weist man darauf hin, daß das Wellenlängenband, das ein Stern abstrahlt, viel breiter als der Bereich von Wellenlängen in der Mitte des sichtbaren Spektrums ist, der als grün wahrgenommen wird. Wenn die Temperatur so hoch ist, daß das Maximum der abgestrahlten Energie bei den grünen Wellenlängen liegt, werden die rot- und blauempfindlichen Rezeptoren immer noch so stark gereizt, daß der Gesamteindruck der von Weiß ist. Wenn sich das Wellenlängenband allerdings mit steigender Temperatur von Infrarot kommend in das sichtbare Spektrum hinein schiebt, werden zunächst vor allem die Rot-Rezeptoren gereizt, dann zunehmend auch die Grün-Rezeptoren, so daß sich die Farbe nach Orange und Gelb verschiebt. Schließlich tritt Blau hinzu, womit wir Weiß wahrnehmen, und wenn sich das Wellenlängenband mit noch höheren Temperaturen Richtung Ultraviolett aus dem sichtbaren Spektrum hinaus schiebt, bleiben Grün und Blau und am Ende nur noch Blau übrig – und dann ist Schluß.

 

Man kann es sich so vorstellen, daß man aus dem Fenster zuschaut, wie ein Zug vorbeifährt: Erst schiebt sich die Lok in das Blickfeld, dann wird es vom Zug vollständig ausgefüllt, und am Ende sieht man den letzten Wagen das Blickfeld verlassen. Zu keinem Zeitpunkt sieht man aber nur im Zentrum des Blickfelds etwas vom Zug, links und rechts davon aber nicht – das müßte schon ein sehr kurzer Zug sein.

Link to post
Share on other sites

Solchen kleinen Mädchen erklärt man, daß ein idealer schwarzer Körper bei keiner Temperatur vor allem Licht im grünen Wellenlängenbereich abstrahlt (was einer der Gründe ist, weshalb ich an der Sinnhaftigkeit des Konzepts „Farbtemperatur“ in der Fotografie zweifle: Grünes Licht hat keine Farbtemperatur) und ein Stern ebenso wenig, und das haben sie dann davon.

 

Und wenn das noch nicht genügt, dann weist man darauf hin, daß das Wellenlängenband, das ein Stern abstrahlt, viel breiter als der Bereich von Wellenlängen in der Mitte des sichtbaren Spektrums ist, der als grün wahrgenommen wird. Wenn die Temperatur so hoch ist, daß das Maximum der abgestrahlten Energie bei den grünen Wellenlängen liegt, werden die rot- und blauempfindlichen Rezeptoren immer noch so stark gereizt, daß der Gesamteindruck der von Weiß ist. Wenn sich das Wellenlängenband allerdings mit steigender Temperatur von Infrarot kommend in das sichtbare Spektrum hinein schiebt, werden zunächst vor allem die Rot-Rezeptoren gereizt, dann zunehmend auch die Grün-Rezeptoren, so daß sich die Farbe nach Orange und Gelb verschiebt. Schließlich tritt Blau hinzu, womit wir Weiß wahrnehmen, und wenn sich das Wellenlängenband mit noch höheren Temperaturen Richtung Ultraviolett aus dem sichtbaren Spektrum hinaus schiebt, bleiben Grün und Blau und am Ende nur noch Blau übrig – und dann ist Schluß.

 

Man kann es sich so vorstellen, daß man aus dem Fenster zuschaut, wie ein Zug vorbeifährt: Erst schiebt sich die Lok in das Blickfeld, dann wird es vom Zug vollständig ausgefüllt, und am Ende sieht man den letzten Wagen das Blickfeld verlassen. Zu keinem Zeitpunkt sieht man aber nur im Zentrum des Blickfelds etwas vom Zug, links und rechts davon aber nicht – das müßte schon ein sehr kurzer Zug sein.

 

 

Sehr schöne Erläuterung. Müßte nicht, um bei der Analogie des Zuges zu bleiben, der ganze Zug dem weißen Licht entsprechen? Rot, Grün Blau gleichzeitig (ganzer Zug) und in gleicher Intensität?

Gruß volker

Link to post
Share on other sites

Letzte Woche bei der Sternwartenführung hatte mir ein kleines Mädchen ein böses Loch in den Bauch gefragt:

"Es gibt gelbe und blaue Sterne, auch rote und orangene. Warum gibt's dann keine grünen Sterne?"

Ich war vorerst etwas ratlos und habe es mit Wahrnehmung erklärt, denn es gibt sicher Sterne mit passender Temperatur für ein Maximum im Grünen.

Diese Erklärung spart mir die Recherche (nächste Woche will sie wieder kommen, ich hatte Ihr bis dahin eine genaue Antwort versprechen müssen).

Merci Vielmal

Torsten

 

Torsten, nee, die Erklärung von oben "ist es nicht".

Ein Temperaturstrahler hat eine breite Emissionskurve weil sehr viele Teilchen in Wechselwirkung stehen und ein breites Energiespektrum die Elektronen zur Emission anregt. Wenn du dir die Planck'schen Emissionsspektren ansiehst und darüber den sichtbaren Teil des Spektrum legst, dann siehst du wie die Kurve mit einem Übergewicht in Rot bei niedrigeren Temperaturen beginnt, dann ziemlich eben wird zu einem weißen Eindruck und schließlich bei höheren Temperaturen zu einem höherem Blauanteil kippt.

 

Im übrigen sieht man das auch sehr schön im CIE-Farbdreieck, manchmal ist die Kurve des schwarzen Strahlers dort eingezeichnet, sie verläuft von Rot, Orange Gelb über den Weißpunkt nach Blau. Grün ist nicht enthalten.

Link to post
Share on other sites

 

Wie man ein ganzes Farbspektrum differenzieren soll, wenn sich die Durchlaßkurven nicht überlappen, das müßtest Du mir mal erklären. Ein RGB-Sensor mit solchen Filtern würde ein kontinuierliches Spektrum als drei homogene Farbflächen abbilden:

 

 

Nein, das würde er nicht.

Wir reden hier von realen Farbräumen, in denen jede Farbe aus den drei Komponenten der Farbmaßzahlen gebildet werden kann. Mit reinen Spektralfarben geht es tatsächlich nicht.

Das Prinzip ist ja genau das der Helmholtzschen Dreifarbentheorie.

Die Antwort auf deinen Einwand hast du dir ja schon selbst gegeben - wie sonst könnte man aus den Tripeln eines Monitors alle Farben darstellen? Und auch hier strebt man nach idealen Emissionsfarben, die möglichst nicht überlappen. Es kommt dabei darauf an, die Zäpfchen in den Grundfarben möglichst an ihrem Empfindlichkeitsmaximum zu stimulieren.

 

Schau dir nochmal die Grundlagen über Farbwahrnehmungen, Farbreiz und Valenzen an.

Oder die Theorie zum CIE-Normvalenzsystem.

 

Übrigens, der olle Berger in seinem Werk "Agfacolor" hat das schon zu Urzeiten prächtig beschrieben.

Link to post
Share on other sites

Advertisement (gone after registration)

Probier´s mal aus: Das gleiche Motiv einmal digital (welche Kamera hast du eigentlich?) und einmal auf Film fotografieren, natürlich von einem sehr stabilen Stativ!!!

 

Dann das Negativ und die digitale Datei im Fachlabor im Fachlabor so gross wie möglich (z.B. 50x75cm) vergrössern lassen.

 

Das Ergebnis sagt mehr als jede Theorie!

 

Stefan,

 

in der Regel werden doch heute Dias und Negative vor einer Ausbelichtung digitalisiert. Ein aussagekräftiger Vergleich zwischen den beiden Welten ist daher meines Erachtens gar nicht mehr möglich.

Ich habe dieses Jahr mehrere Fotos, die auf Negativfilm aufgenommen waren, beim Sauter auf 50 x 75 ausbelichten lassen und war vom Ergebnis ob der guten Qualität ziemlich überrascht. Ob das damit zusammenhängt, dass die Negative vorher digitalisiert wurden, weiß ich allerdings nicht.

 

Grüße,

 

Andreas

Link to post
Share on other sites

Mit reinen Spektralfarben geht es tatsächlich nicht.

Das Prinzip ist ja genau das der Helmholtzschen Dreifarbentheorie.

Die Antwort auf deinen Einwand hast du dir ja schon selbst gegeben - wie sonst könnte man aus den Tripeln eines Monitors alle Farben darstellen?

Die Tatsache, daß wir das Auge mit nur drei Grundfarben so reizen können, daß die Empfindung aller Farben innerhalb eines bestimmten Farbraums entsteht, betrifft die Wiedergabe von Bildern; für die Belange fotografischer Aufnahmen ist das aber irrelevant – wir fotografieren ja nicht nur RGB-Monitorbilder, sondern reale Motive, die Licht in allen möglichen Wellenlängen reflektieren – nicht nur in dreien. Um diese Wellenlängen differenzieren zu können, insoweit das innerhalb eines metamerischen Farbsystems möglich ist, braucht man Sensorzellen, deren Empfindlichkeitsbereiche sich überlappen. Wenn es dann an die Wiedergabe geht, brauchen wir aber dankenswerterweise nur noch drei Farben; es ist ja der Vorteil eines metamerischen Farbsystems, daß man aus wenigen festen Wellenlängen alle Farbempfindungen erzeugen kann.

Link to post
Share on other sites

Müßte nicht, um bei der Analogie des Zuges zu bleiben, der ganze Zug dem weißen Licht entsprechen? Rot, Grün Blau gleichzeitig (ganzer Zug) und in gleicher Intensität?

Ja, genau. Die Intensität ist zwar nicht exakt gleich, aber für die Belange der Farbwahrnehmung reicht es.

Link to post
Share on other sites

Hallo,

noch eine kleine Zusatzfrage: Wie erklärt sich nach dieser Theorie die Farbe Braun?

 

Gruß Volker

 

Braun ist die Summe der drei (subtraktiven) Grundfarben in ihrer realen Ausprägung (nicht idealer Form der Absorptionen). Deshalb funktioniert der Vierfarbdruck eben nur mit vier und nicht mit drei Farben weil man schwarz zudrucken muß.

Link to post
Share on other sites

Wie erklärt sich nach dieser Theorie die Farbe Braun?

Braun ist ein dunkles Orange oder Rot. Wenn man zusätzlich einen geringen Anteil von Grün und Blau hinzufügt, entsteht ein helles Braun.

 

Viele unserer Farbwörter beschreiben Farbtöne, denen man bestimmte Wellenlängen zuordnen kann – Rot, Orange, Gelb, Grün, Blau, Violett etc.. Eine Empfindung dieser Farbtöne kann nicht nur durch Licht einer Wellenlänge, sodern auch durch eine unendliche Anzahl unterschiedlicher Kombinationen zweier oder mehr Wellenlängenin unterschiedlichen Intensitäten hervorgerufen werden.

 

Dann gibt es die Farbe Purpur, die nur als Mischung (zum Beispiel von Rot und Violett) existiert; es gibt keine Wellenlänge, die ihr entspricht.

 

Weiterhin können sich Farbwörter nicht nur auf den Farbton, sondern zusätzlich auch auf Helligkeit und/oder Sättigung beziehen, und dazu zählt neben Braun auch Rosa – ein helles, weniger gesättigtes Rot.

Link to post
Share on other sites

50x75 verträgt sowieso kein Digitalfoto, 20x30 klappt für meine Begriffe schon erst ab deutlich über 10 MP vernünftig.

 

Das sehe ich anders. Und meine tägliche Praxis bestätigt mich darin, da ich immer wieder feststellen muß, daß selbst die 6 Mio. Pixel der Nikon D70 prima 50x75 Bilder ergeben. Vorausgesetzt man schaut nicht aus 20 cm Abstand darauf.

 

Folgt man der Theorie vom idealen Betrachtungsabstand, die aussagt, daß das Gehirn den Gesamteindruck eines Bildes höchsten aus einem der einfachen Bilddiagonale entsprechenden Abstand verarbeiten kann, ohne sich in Detailaspekten zu verlieren - das sind bei 50x75 Bildern dann 90 cm Abstand-, und geht man weiterhin von der idealen Sehkraft eines perfekt gesunden 20 jährigen Menschen von 160% = 0,65' aus, müßte unser Auge eigentlich bereits mit rund 2,2 Mio. Pixel korrigiere Rechenfehler: 10 Mio.Pixel, (bei nur 100% Sehkraft 4,2 Mio. Pixel) in der Bildfläche an seine Auflösungsgrenze stoßen.

 

Etwas anderes gilt natürlich wenn man näher als 90 cm an das Bild herantritt. Aber dann nimmt man es eben auch nicht mehr vollständig, sondern in Ausschnitten war. Man läßt die Augen quasi über das Bild wandern, was ja auch ganz schön sein kann. Deshalb gibt es ja auch Mittel- und Großformatsysteme (egal ob digital oder analog).

Link to post
Share on other sites

Hallo Waldi2,

 

ersteinmal herzlich willkommen im Forum.

 

Die Frage ist so alt wie die Digitalfotographie und sie ist nicht direkt zu beantworten. Es sind physikalische Gründe, die dagegen sprechen. Man würde Birnen mit Äpfeln vergleichen.

 

Natürlich bringt es Spaß, irgendwie die Leistung eines digitalen Sensors mit einem althergebrachten Film zu vergleichen.

Auch wir haben uns intensiv mit dieser Problematik beschäftigt und eine Notlösung geschaffen.

 

Ausgangsbasis ist für uns das fertige Endprodukt unserer fotographischen Bemühungen: das fertig gedruckte Bild mit 300 dpi. Das ist heute internationaler Standard und alle Digitalbilder werden von den Agenturen heute im 300 dpi -Standard angeboten.

300 dpi ist das maximale Auflösungsvermögen, das unser menschliches Auge mit seiner Netzhaut aus etwa 25 cm Entfernung noch klar unterscheiden kann. Es macht also im Alltag keinen Sinn, ein Druckbild zu betrachten, welches mit 1200 dpi gedruckt wurde; auch wenn das technisch möglich ist. Es ist weder schärfer und schon gar nicht detailreicher.

 

Aber ich kann natürlich das Druckbild vergrößern. Und hier zeigen sich sehr schnell gewaltige Qualitätsunterschiede. Es wird sofort verständlich, weshalb die Kamerahersteller derzeit weltweit einen Pixelwettlauf veranstalten. Und man erkennt zudem erstaunt, daß die Digitalfotographie in unseren Kleinbildknipsen den Highendbereichen der Analogfotographie immer noch unterlegen ist.

 

Bei 300 dpi ergeben sich folgende gedruckte Endbildgrößen:

(Pixeldaten von den jeweiligen Homepages der Hersteller; Größenberechnung mit Photoshop Elements)

 

- 5616 x 3744 in 300 dpi = 47,55 x 31,70 cm (21,03 MP (zum Beispiel EOS ds Mark III)

- 4992 x 3328 in 300 dpi = 42,27 x 28,18 cm (16,61 MP (zum Beispiel EOS ds Mark II)

- 4368 x 2912 in 300 dpi = 36,98 x 24,65 cm (12,72 MP (zum Beispiel EOS 5D)

- 3872 x 2576 in 300 dpi = 32,78 x 21,81 cm (9,974 MP (zum Beispiel Leica DMR)

 

Ein analoger Film hat keine Pixel. Das Auflösungsvermögen hängt von vielen Faktoren ab:

-der Empfindlichkeit (ISO); der exakten Entwicklung; der Qualität des Objektives; und vor allem vom Fotographen selbst. Ein Schwarzweißfilm wie der Adox CMS 20 soll zum Beispiel ein theoretisches (!) Auflösungsvermögen von 500 MP (fünfhundert) im Kleinbildformat haben. In unserem obigen Beispiel wären das etwa 27450 x 18300 Pixel in 300 dpi = 232,41 x 154,95 cm. Das schaffen nicht mal mehr Leicalinsen.

 

Wir selber erreichen in der Analogknipserei mit dem R-System 20 bis 25 Megapixel als absolutes Maximum. Das entspricht bei 300 dpi grob 6000 x 4000 Pixel. Aber das bedeutet, daß das Rohmaterial - Fuji Velvia 50 oder 100 ISO - von Trommelscannern digitalisiert wierden muß. Das Bild ist dann etwa 51 mal 34 cm groß. Ein sehr umständliches Verfahren. Und wenn Sie fragen, wie oft uns diese Qualität gelingt, dann müssen wir ehrlicherweise sagen 4 bis 5 mal pro 1000 Dias. Solche Fotos sind wahrscheinlich eher Zufälle. Zumindest bei uns als Amateuren.

Mit einem digitalen Sensor von begrenzter Pixelzahl habe ich aber nicht einmal die Chance, ein solches Foto zu machen. Und das dürfte vielleicht auch einer der Gründe gewesen sein, weshalb Leica die DMR- Produktion mit 10 MP wieder eingestellt hat. Die Leica Objektive sind schlichtweg zu gut für derartige Pixelbeschränkungen.

 

Für Alltagsfotos im 9 x 13 cm - Format sind solche Betrachtungen natürlich überflüssig. Hier ist die Digitalfotographie der Filmbelichtung was Schnelligkeit und Effizienz angeht mittlerweile haushoch überlegen. Die durchschnittlichen Digitalfotos sind hier sogar von eindeutig besserer Qualität, weil die maximalen Pixelzahlen gar nicht ausgenutzt werden.

In unserem Beispiel mit 300 dpi würden 9 x 13 Fotos etwa 1,65 MP benötigen. Hier produziert jeder 4 MP Sensor aus einer XYZ-Einmalkamera sehr gute Ergebnisse. Und die Linsenoptik muß auch nicht wirklich gut sein.

 

Sie sehen, es ist ein kompliziertes und nicht einfaches Thema, welches Sie da aufgeworfen haben und dennoch interessant und vielschichtig in der Betrachtung und Diskussion.

 

In diesem Sinne

 

Herzliche Grüße und ein schönes Wochenende

 

dikdik

Link to post
Share on other sites

Etwas anderes gilt natürlich wenn man näher als 90 cm an das Bild herantritt. Aber dann nimmt man es eben auch nicht mehr vollständig, sondern in Ausschnitten war.

Ok, ich neige stark dazu, das Bild in einigen "Schritten" aus näherer Entfernung zu erfassen.

Dennoch, Rechnerei hin oder her: 50x75 - das habe ich schon oft genug bei Werbung von Fotoläden gesehen, und bei Porträts ist mir sofort an den schlecht aufgelösten Haaren das Digitalbild unangenehm aufgefallen. Und zwar von 1m Entfernung aus hinter der Vitrine.

 

Außerdem, wenn schon gerechnet wird, dann bitte auch richtig - Pixelzahlen von CFA-Sensoren (CFA=color filter array) müssen im Mittel etwa verdoppelt werden, da sie eben durch ihr Farbmuster Auflösung verlieren.

Je nach Farbgebung und AA-Filter kann der Auflösungsverlust auch noch größer (oder geringer) sein.

 

@dikdik

Auch bei dir fehlt bei der Rechnung wieder die Einbeziehung des Farbmosaiks, man muß eigentlich mit 400 DPI rechnen. Die 20-25 MP des Trommelscans passen aber. Ich hatte hier mal ausgerechnet, was ein Trommelscan so eines 80 lp/mm-Bildes ergeben müßte, und war dabei auf weniger als 10 "echte" MP gekommen. Das entspricht ja etwa 20 MP eines CFA-Sensors.

Die Auflösung von marktüblichen Trommelscannern ist einfach nicht hoch genug für Film, so daß ein deutlicher Kopierverlust eintritt. Es gibt Möglichkeiten, z.B. beim Fotografieren durch ein Mikroskop und anschließende Montage der Einzelbilder mehr Detail rauszuholen. Aber bisher hat das wohl noch keiner probiert.

 

Damit würdet ihr (wer ist eigentlich "wir"?) vermutlich erstaunt sein, was wirklich in den "20-25 MP"-Bildern steckt.

Link to post
Share on other sites

ich stelle mir gerade eine zukünftige kamera vor: der sensor-eine schöne kleine handschmeichlerische platte im leica-format- ist bequem austauschbar. je nach anforderung schiebt man einen foveon, einen bayer, cmos ohne farbfilter oder einen fuji ein.

 

und siehe: eine findige firma hat tatsächlich kleine fotografische platten im angebot, die man anstelle des sensors einschieben kann. sozusagen der chemische einmal high-endsensor... im dunkelsack gewechselt treten dann diese absolut planen und super ausgerichteten "platten" die reise ins speziallabor an. die platten sind natürlich hervorragned scanbar. MM fotografiert ab und an mit der velvia-platte;)

 

man könnte eigentlich soviel machen... ein biosensor mit nanobakterien o.ä. wäre doch auch mal was.

 

(warum soll ein sensor nicht wie eine SD-card gewechselt werden können????

man könnte dann wie früher die neuen filme neue sensoren kaufen und hätte allzeit freude. )

 

lg matthias

Link to post
Share on other sites

warum soll ein sensor nicht wie eine SD-card gewechselt werden können????

Vielleicht deshalb, weil ein Sensor viel präziser ausgerichtet sein muß als eine SD-Karte? Oder weil jeder Sensor etwas anders ausgelesen und sein Output auf andere Weise verarbeitet werden muß, während die SD-Karten-Schnittstelle standardisiert ist? So etwas funktioniert am besten, wenn man die komplette Elektronik-Einheit tauscht, und damit wäre man bei Rückteilen, wie man sie aus dem Mittelformatbereich kennt. Das funktioniert durchaus, macht die Kameras aber auch voluminöser und teurer.

Link to post
Share on other sites

ich stelle mir gerade eine zukünftige kamera vor: der sensor-eine schöne kleine handschmeichlerische platte im leica-format- ist bequem austauschbar. je nach anforderung schiebt man einen foveon, einen bayer, cmos ohne farbfilter oder einen fuji ein.

 

und siehe: eine findige firma hat tatsächlich kleine fotografische platten im angebot, die man anstelle des sensors einschieben kann. sozusagen der chemische einmal high-endsensor... im dunkelsack gewechselt treten dann diese absolut planen und super ausgerichteten "platten" die reise ins speziallabor an. die platten sind natürlich hervorragned scanbar. MM fotografiert ab und an mit der velvia-platte;)

 

man könnte eigentlich soviel machen... ein biosensor mit nanobakterien o.ä. wäre doch auch mal was.

 

(warum soll ein sensor nicht wie eine SD-card gewechselt werden können????

man könnte dann wie früher die neuen filme neue sensoren kaufen und hätte allzeit freude. )

 

lg matthias

 

Träum einfach weiter Matthias. Manchmal wähne ich mich hier im Kindergarten. Na so weit scheine ich davon auch nicht entfernt, betrachtet man .....

Link to post
Share on other sites

Vielleicht deshalb, weil ein Sensor viel präziser ausgerichtet sein muß als eine SD-Karte? Oder weil jeder Sensor etwas anders ausgelesen und sein Output auf andere Weise verarbeitet werden muß, während die SD-Karten-Schnittstelle standardisiert ist? So etwas funktioniert am besten, wenn man die komplette Elektronik-Einheit tauscht, und damit wäre man bei Rückteilen, wie man sie aus dem Mittelformatbereich kennt. Das funktioniert durchaus, macht die Kameras aber auch voluminöser und teurer.

 

Aber wäre es denn nicht eine ganz nette Lösung, wenn Leica die Kameras so konstruieren könnte, dass Sensor+zugehörige Elektronik relativ einfach vom Service ausgetauscht werden können. Bei den Sensoren und der Signalbearbeitung scheint sich ja noch einiges zu tun. Bei einer doch relativ teuren Leica wäre mir die Zukunftssicherheit nämlich doch recht wichtig, und da wäre eine "Update" Möglichkeit (wie sagt man dass eigentlich am besten auf Deutsch?) passend.

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...