Jump to content

... E


Guest

Recommended Posts

Advertisement (gone after registration)

Ich meine DSPs - und zwar im Sinne von

 

DSPs enthalten im Vergleich zu Standard-Prozessoren einen auf häufig benötigte mathematische Operationen hin geschwindigkeitsoptimierten Prozessor. Einige DSPs enthalten darüber hinaus am Ein- und Ausgang bereits die erforderlichen A/D- und D/A-Wandler.

 

Die M9 verwendet meines Wissens erstmals reprogrammierbare DSPs. Weil die Wandlung von Sensordaten in Bilddaten in Farbe und SW schon von Beginn an völlig unterschiedlich ist, dürfte es kaum damit getan sein ein paar Routinen wegzulassen. Digitale Farbe beginnt damit, daß mindesten 4 Pixel benötigt werden um einen Farbpunkt und seine Helligkeit zu definieren. Nun ist es zu verküzt, davon auszugehen, daß für Farbe nur Viererpäckchen ausgelesen und interpoliert werden - aber es hilft beim Verständnis des völlig unterschiedlichen Weges zum fertigen Bild. Da finden parallel noch andere Berechnungen statt, die am Ende dafür sorgen, daß das fertige Bild nicht das Ergebnis von Sensorauflösung / 4 x 4 ist, sondern eher von Sensorauflösung / 1,5 x 1,5 - was immer noch nicht 1 : 1 der Sensorauflösung entspricht. Dazu noch einmal etwas, das ich weiter oben schon zitiert habe:

 

Bei Bayer-Sensoren mit abweichenden Pixelanordnungen (z. B. rechteckige Pixel bei der Nikon D1X oder diagonal angeordnete Pixel beim Super-CCD-Sensor von Fujifilm) werden die Bilder zwar mit der Pixelanzahl ausgegeben, die der tatsächlichen Anzahl der Pixel entspricht, jedoch besteht hier keine eindeutige Relation von Sensor-Pixel und Bild-Pixel mehr.

 

Soll ein SW-Sensor seine Stärken im Bezug auf die Auflösung ausspielen, muß der DSP schon mit dem Auslesen der Signale ganz anders beginnen - nämlich Pixel für Pixel. Das Monochrombild ist 1 : 1. Da ist nicht die Bildecke links oben aus einer Gruppe von Pixeln der Sensorecke rechts unten interpoliert, sondern der Grauwert des Eckpixels links oben im Bild ist der gemessene Grauwert des Eckpixels rechts unten auf dem Sensor. Natürlich fällt einiges weg - aber der Rest funktioniert ganz anders. So bleibt der DSP in diesem Fall zwar hardwäremäßig derselbe, ist jedoch in seiner Arbeitsweise ein völlig anderer. Genausogut hätte man einen ganz anderen Prozessor bauen können, was aber wohl noch deutlich teurer geworden wäre.

Link to post
Share on other sites

  • Replies 166
  • Created
  • Last Reply

Bei dem RAW (Farb oder SW) Bild hast du jeden Wert einzeln.

Also wird der DSP sowohl bei der M9 als auch bei der MM alle Pixel auslesen muessen.

 

Bei SW muss der DSP weniger tun, da die Interpretation der RAW Daten bei einem SW Bild natuerlich einfacher ist als bei einem Farbbild.

 

Ich denke die frei gewordenen Kapazitaeten auf dem DSP wurden (zum Glueck) bei Leica nicht einfach verschmissen sondern es wird das RAW Histogramm erzeugt.

 

Softwareentwicklung ist echt kein Voodoo, natuerlich kann es nicht jeder, aber es gibt Studien in denen man so etwas lernt.

 

Ich sage als Fachmann, wenn die Software der M9 nicht grotten schlecht war, ist das Weglassen der Farbinterpretation und das Bilden des RAW Histograms kein Grosser Aufwand.

 

Gruss

Robert

Link to post
Share on other sites

Noch eines!

 

Ich verstehe nicht, warum davon ausgegangen wird, dass es kompliziert ist einen DSP zu programmieren.

 

Das Programmieren einer CPU zu dem Programmieren eines DSPs verhaellt sich ungefaehr so wie das Fahren eines 4 Gang Wagens zu dem Fahren eines 4 Gang Wagens mit Zwischengetriebe.

 

Man kann die Funktionen eines DSPs nutzen, muss man aber nicht. Wenn man es richtig macht, kann man aber viel raus holen.

 

Gruss

Robert

Link to post
Share on other sites

Noch eines!

 

Ich verstehe nicht, warum davon ausgegangen wird, dass es kompliziert ist einen DSP zu programmieren.

 

Das Programmieren einer CPU zu dem Programmieren eines DSPs verhaellt sich ungefaehr so wie das Fahren eines 4 Gang Wagens zu dem Fahren eines 4 Gang Wagens mit Zwischengetriebe.

 

Man kann die Funktionen eines DSPs nutzen, muss man aber nicht. Wenn man es richtig macht, kann man aber viel raus holen.

 

Gruss

Robert

In Hardware implementierte Funktionen werden schneller berechnet als wenn diese Funktionen auf einer Wald-und Wiesen-CPU von Software ausgeführt werden.

Link to post
Share on other sites

Oder deiner ...

 

'Tschuldigung:

Bayer-Sensor – Wikipedia

 

Jeder Farbpunkt (Pixel) liefert entsprechend nur Informationen für eine einzige Farbkomponente an dieser Stelle, so dass für ein vollständiges Bild mit denselben Abmessungen die jeweils benachbarten Pixel derselben Farbe zur Farbinterpolation herangezogen werden müssen. Für Grün werden somit 50 % der Pixel errechnet, bei Blau und Rot sind es jeweils 75 % der Fläche (oder in einer Zeile 50 % und in der Folgezeile 100 % der Zeile), die durch Berechnung gefüllt werden müssen. Bei der Farbinterpolation geht man davon aus, dass es im Bild zwischen zwei benachbarten Pixeln gleicher Farbe nur zu geringen Farbunterschieden kommt und somit die Grauwerte der Pixel stochastisch nicht unabhängig voneinander sind. Dies muss natürlich nicht auf jedes Bildmotiv zutreffen. Daher besitzt der Bayersensor unter der Betrachtung eines artefaktfreien Bildes streng genommen nur ein Viertel der scheinbaren Auflösung.
Link to post
Share on other sites

 

und?

 

Du hast beim FarbRaw einen 12-16bit ( je nach Sensor )Wert pro Pixel.

Du hast beim SchwarzWeissRaw einen 12-16bit ( je nach Sensor ) Wert pro Pixel.

 

Die Interpretation dieser einzelnen Werte ist bei einem Farb Raw natuerlich umstaendlicher, weil sie erst im Zusammenhang mit den Umgebungspixeln einen Sinn macht. Bei einem SW Raw ist das einfacher, da ist jeder RawPixel auch schon ein Bild Pixel. Aber in beiden Faellund musst man natuerlich erst mal alle diese Werte haben, wo nichts ist kann auch nichts interpretiert werden.

 

Mir draengt sich langsam der Schluss auf, dass wir aneinander vorbei reden?

 

Gruss

Robert

 

PS:

Ich behaupte ja nicht, dass das SW Bild nicht mehr "Echte" Aufloesung hat, aber es hat dennoch das Raw nicht mehr Daten.

Link to post
Share on other sites

PS:

Ich behaupte ja nicht, dass das SW Bild nicht mehr "Echte" Aufloesung hat, aber es hat dennoch das Raw nicht mehr Daten.

 

Das fertige Farb-RAW ist aber - siehe oben - genaugenommen aus einem Viertel der Daten zusammengeschustert. Deshalb lässt es sich auch wieder packen und von Converter (fast schon wie ein "Digitalzoom") wieder auspacken - das Monochrom-RAW nicht - und ist deshalb wahrscheinlich auch doppelt so groß wie ein M9-Farb-RAW.

Link to post
Share on other sites

Das fertige Farb-RAW ist aber - siehe oben - genaugenommen aus einem Viertel der Daten zusammengeschustert. Deshalb lässt es sich auch wieder packen und von Converter (fast schon wie ein "Digitalzoom") wieder auspacken - das Monochrom-RAW nicht - und ist deshalb wahrscheinlich auch doppelt so groß wie ein M9-Farb-RAW.

 

Die natur des RAW ist es, dass sie nicht "fertig" ist. Es sind die unbearbeiteten ,eben die RAW, Daten des Sensors.

 

https://en.wikipedia.org/wiki/Raw_image_format#File_contents

 

Es gibt das komprimierte RAW von Leica, welches aber streng genommen kein Raw mehr ist.

 

Ich glaube echt wir reden aneinander vorbei. Wir sollten das mal bei einem Bier besprechen.

 

Gruss

Robert

 

Edit:

Ja du hast weniger "Aufloesung" aber dafuer halt die Farbinformation beim FarbRaw. Aber rein von den Sensordaten haben wir die selbe Datenmenge, die von der Software,dem DSP oder auch Lightromm anders interpretiert werden muss.

 

Edit2:

Und besagte Interpretation ist, wie im naechstem post schoen dargestellt, beim SW Raw eben einfacher als beim FarbRaw .... Wobei beide Interpretationen keine Rocket Science darstellen.

Link to post
Share on other sites

Ein "Farb-RAW" ist ein Graustufenbild, das – wenn man dem RAW-Konverter die Interpolation verbietet – so aussieht wie die linke Bildhälfte. Erst durch das Demosaicing wird daraus ein Farbbild (rechte Bildhälfte, beide vierfach vergrößert).

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!






Link to post
Share on other sites

Ein "Farb-RAW" ist ein Graustufenbild, das – wenn man dem RAW-Konverter die Interpolation verbietet – so aussieht wie die linke Bildhälfte. Erst durch das Demosaicing wird daraus ein Farbbild (rechte Bildhälfte, beide vierfach vergrößert).

 

Genau und somit gleich gross wie ein SW RAW ... Sehr schoen veranschaulicht.

Es ist wie gesagt alles eine Interpretationsfrage.

 

Kann man die Interpolation mit Lightroom auch weglassen?

 

Gruss

Robert

Link to post
Share on other sites

UP: was hindert dich jetzt, anstatt hier noch mehr wilde mutmassungen anzustellen, einfach mal zu schauen, wo überall kodaksensoren monochrom verbaut sind... es gibt nicht nur fotografen als kameranutzer... evtl. begreifst du dann, daß ein monochromer kodaksensor (und gerade eben die monochromen ohne die auf farbfotographie ähnlich dem menshclichen auge abgestimmten bayerfilter) in allen möglichen kameras samt software verbaut ist.

 

die monochrom ist vielleicht aus fotografischer sicht ein ausnahmefall, aus genereller sensornutzungssicht aber überhaupt nix besonderes. im gegenteil.

 

str. darf sich zu recht fragen, wieso eigentlich nun so langsam nicht mal eine preislich abgespeckte variante verkauft wird. er macht ja auch noch den vorschlag, wie man das kundenfreundlich nennen könnte, damit sich kein mm-käufer getäuscht fühlt...:-)

 

wenn ich es recht im hinterkopf habe, ist ja auch der sensor der neuen m von einem hersteller für industrieanwendungen. auch hier könnte man eigentlich mutmassen, daß dort bei cmosis (?) jede menge monochromer sensoren verbaut werden und dementsprechend eine implantierung in eine m auch nicht sonderlich kompliziert wäre.

Link to post
Share on other sites

Ein "Farb-RAW" ist ein Graustufenbild, das – wenn man dem RAW-Konverter die Interpolation verbietet – so aussieht wie die linke Bildhälfte. Erst durch das Demosaicing wird daraus ein Farbbild (rechte Bildhälfte, beide vierfach vergrößert).

Wie hoch ist Pixelzahl des Graustufenbildes vor dem Interpolieren? Und wie hoch danach, wenn Du es zulässt?

Und wie sind die Werte bei einer Monochrom davor und danach?

 

Kannst du einen Vergleich zeigen wie das aussieht mit einem Monochrom-DNG? Angenommen ich oder jemand anderes machte weitgehend identische Bilder mitM9 und Monochrom?

Link to post
Share on other sites

Wie hoch ist Pixelzahl des Graustufenbildes vor dem Interpolieren? Und wie hoch danach, wenn Du es zulässt?

Und wie sind die Werte bei einer Monochrom davor und danach?

 

Kannst du einen Vergleich zeigen wie das aussieht mit einem Monochrom-DNG? Angenommen ich oder jemand anderes machte weitgehend identische Bilder mitM9 und Monochrom?

 

Die (oertliche) Aufloesung des Ergebnisbildes ist bei beiden gleich.

nur die reine Helligkeitsaufloesung hat bei der MM die hoehere Guete, da keine Interpolationsartifakte uebrig bleiben. Logischerweise hat die Farbaufloesung bei der MM die schlechtere Guete, weil auf sie verzichtet wird.

 

Das MM RAW Muss streng genommener Weise gar nicht Interpoliert werden. Eventuell noch auf 8 bit pro Kanal runtergerechnet. (Falls JPG)

 

Gruss

Robert

Link to post
Share on other sites

[ATTACH]386601[/ATTACH]

 

 

 

 

 

Eine Frage zum Verständnis im SW-Teil des Bildes, womit sich dann meine vorherigen Fragen praktisch erledigt hätten: Ein Viertel der Pixel scheint immer einen nahezu identischen Grauwert zu haben. Ist das vielleicht das Pixel aus der Vierergruppe, welches die Helligkeit misst, und demnach keine Farbe hat und die Farbe beim Interpolieren erst zugewiesen bekommt?

Link to post
Share on other sites

Eine Frage zum Verständnis im SW-Teil des Bildes, womit sich dann meine vorherigen Fragen praktisch erledigt hätten: Ein Viertel der Pixel scheint immer einen nahezu identischen Grauwert zu haben. Ist das vielleicht das Pixel aus der Vierergruppe, welches die Helligkeit misst, und demnach keine Farbe hat und die Farbe beim Interpolieren erst zugewiesen bekommt?

 

Das uebliche BayerPattern hat kein Pixel das "nur" die Helligkeit misst.

 

Es misst ueblicherweise Rot, Gruen oder Blau, wobei die gruenen Pixel im Normalfall doppelt so oft vertreten sind wie die Anderen. Wenn du dir Das Beispielbild ansiehst siehst du, dass es Rot oder unfarbig ist, dass erklaert, dass die Roten immer recht hell sind und die anderen eher da nachziehen, wo es in Richtung Weiss geht.

 

Gruss

Robert

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...