Jump to content

M240 liveview, scrolling und focus-peaking


danielp11

Recommended Posts

Advertisement (gone after registration)

Der Prozessor tut doch lediglich das, was ihm die Software vorgibt.

Sagt diese nun "Schärfeindikator bitte zentral" dann wird das so umgesetzt und bei Indikator rechts oben , dann eben dort.

Das ist doch per se dem Prozessor ziemlich egal, wo diese passiert und hat, meines Erachtens, auch mit der internen Rechnerarchitektur des Prozessors nix zu tun.

Die Frage ist halt, wie das umgesetzt werden könnte. Fest steht, dass kein vollständiges Bild ausgelesen wird, aus dem man einen Ausschnitt bestimmen könnte, denn das würden weder der Sensor (der maximal 5 Bilder/Sek. schafft) noch der Prozessor hergeben (der auch den für 5 Bilder/Sek. nötigen Durchsatz nicht bewältigen würde). Theoretisch könnte man den tatsächlich ausgelesenen Teil des Sensors verschieben, aber in der Praxis geht das wohl auch nicht. Stand der Dinge ist jedenfalls, dass Leica den vergrößerten Ausschnitt gerne verschiebbar gemacht hätte, das aber technisch nicht möglich war. Wer eine gute Idee hat, wie es doch klappen könnte, kann sich ja mal in Solms melden.

  • Like 2
Link to post
Share on other sites

Mir ist unklar, was die Auslesegeschwindigkeit damit zu tun hat, ob man nur den zentralen oder irgendeinen anderen Ausschnitt des Bildes vergrößert.

Nun, entweder liest man das ganze Bild aus und wählt daraus dann einen Ausschnitt – dann muss das mit der Live-View-Bildrate von 30 Bilder/Sek. erfolgen. Oder man liest nur einen (verschiebbaren) Teil des Sensors aus. Dann spielt die Auslesegeschwindigkeit zwar keine Rolle, aber dazu müsste es eben möglich sein, beliebige Ausschnitte des Sensors auszulesen.

Link to post
Share on other sites

Die Frage ist halt, wie das umgesetzt werden könnte. Fest steht, dass kein vollständiges Bild ausgelesen wird, aus dem man einen Ausschnitt bestimmen könnte, denn das würden weder der Sensor (der maximal 5 Bilder/Sek. schafft) noch der Prozessor hergeben (der auch den für 5 Bilder/Sek. nötigen Durchsatz nicht bewältigen würde). Theoretisch könnte man den tatsächlich ausgelesenen Teil des Sensors verschieben, aber in der Praxis geht das wohl auch nicht. Stand der Dinge ist jedenfalls, dass Leica den vergrößerten Ausschnitt gerne verschiebbar gemacht hätte, das aber technisch nicht möglich war. Wer eine gute Idee hat, wie es doch klappen könnte, kann sich ja mal in Solms melden.

Ich könnte Leica meine NEX-7 mal leihen, die macht das mit 24 MPix. :p

Link to post
Share on other sites

Nun, entweder liest man das ganze Bild aus und wählt daraus dann einen Ausschnitt – dann muss das mit der Live-View-Bildrate von 30 Bilder/Sek. erfolgen. Oder man liest nur einen (verschiebbaren) Teil des Sensors aus. Dann spielt die Auslesegeschwindigkeit zwar keine Rolle, aber dazu müsste es eben möglich sein, beliebige Ausschnitte des Sensors auszulesen.

 

Vielen Dank für die plausible Erklärung. Aber es bleibt doch noch die Frage offen, wo nun der technische Engpass tatsächlich liegt. Ist es ein Hardware- oder Softwareproblem oder beides? Bei Canon oder Nikon war noch bis vor nicht zu langer Zeit der LiveView auch Neuland, er wurde aber von Beginn an so konzipiert, daß man die Vergrößerung auf dem Display dahin scrollen kann, wo man gerade will rsp. sie braucht. Was machen die anders als Leica?

Link to post
Share on other sites

Advertisement (gone after registration)

......

Von der DSLR her kennt man es so, dass man sich in der LiveView-Ansicht frei mit der Lupe im Bild bewegen kann und so z.B. den Schärfeverlauf kontrollieren kann.

.......

Falls sich jetzt einige fragen, wozu man dann überhaupt die Lupe quer durch das Bild bewegen möchte, wäre als eines der vielen Beispiele mal Tilt genannt. Auch wenn keine M-Objektive in der Form existieren, bietet die neue M ja durch LiveView und Adaption die Möglichkeiten solche Objektive zu nutzen und einige werden es tun bzw. wollen.

Sich mit der Lupe dann frei im Bild bewegen zu können, wie ich es persönlich bei einer DSLR nicht mehr missen möchte, ist für solche Tilt-Aufnahmen ( oder andere, bei welchen sich die Schärfebene durch div. Bildbereich hinzieht ) hier unabdingbar.

 

Gruß

Jochen

Genau das ist auch mein Punkt (habe ich schon an anderer Stelle erwähnt), bei Verwendung von Tilt ist eine richtige Kontrolle nur mit verschiebbarer Lupe möglich!

 

An der NEX-7 sieht tilt mit focus peaking allerdings nicht schlecht aus, man sieht sehr schön, wie sich die Schärfenebene verschiebt, ist aber natürlich sehr ungenau.

 

Ist dein Bild auf der Kamera mit Tilt aufgenommen oder das Bild von der Kamera?

Auf jeden Fall ein beeindruckendes Bild.

 

Ein Beispiel mit Shift:

Leica M Monochrom mit Canon 17mm TS-E tilt/shift

(stitch aus 3 Bildern: Zentrum, shift links und shift rechts)

ohne Liveview kann ich die Entfernung nur schätzen!

8628168276_885543cf00_z.jpg

 

dierk

  • Like 1
Link to post
Share on other sites

Vielen Dank für die plausible Erklärung. Aber es bleibt doch noch die Frage offen, wo nun der technische Engpass tatsächlich liegt. Ist es ein Hardware- oder Softwareproblem oder beides? Bei Canon oder Nikon war noch bis vor nicht zu langer Zeit der LiveView auch Neuland, er wurde aber von Beginn an so konzipiert, daß man die Vergrößerung auf dem Display dahin scrollen kann, wo man gerade will rsp. sie braucht. Was machen die anders als Leica?

 

Genau das ist für mich ebenfalls die große Frage.

Offensichtlich funktioniert das ja irgend wie, ohne die Aussage von mjh jetzt zu bezweifeln.

Link to post
Share on other sites

Ich könnte Leica meine NEX-7 mal leihen, die macht das mit 24 MPix. :p

 

Das macht sie nicht. Der Sensor kann (a) einen Ausschnitt des Bilds in der für den Sucher benötigten Wiederholfrequenz liefern und (B) den Ausschnitt auch noch verschieben.

 

Das Bild, das für den Sucher aufbereitet wird, wird nicht durch Auslesen des Sensors in der vollen Auflösung gewonnen. Der Sensor liefert für diesen Zweck ein Bild mit reduzierter Auflösung.

  • Like 1
Link to post
Share on other sites

Ist dein Bild auf der Kamera mit Tilt aufgenommen oder das Bild von der Kamera?

Auf jeden Fall ein beeindruckendes Bild.

 

Tilt bei dem gezeigten Bild in der Form, dass die Schärfebene parallel zur Bilddiagonalen verläuft. Also von links vorn nach rechts hinten.

 

Ein Beispiel mit Shift:

Leica M Monochrom mit Canon 17mm TS-E tilt/shift

(stitch aus 3 Bildern: Zentrum, shift links und shift rechts)

Kleiner Fehler übrigens beim Stich, siehe dir nochmal kurz das zweite Fenster oben links an; alternativ auch auf der rechten Seite unten an der Mauer sichtbar. ;) Lässt sich vermeiden, wenn du anstatt der Optik mittels Adapter für das TS-E ( das sitzt dann auf dem Stativ, nicht die Kamera ) die Sensorebene shiftest bei der Erstellung von einem Pano. ;)

 

So, genug OT meinerseits. ;)

Edited by K-Photo
Link to post
Share on other sites

Das macht sie nicht. Der Sensor kann (a) einen Ausschnitt des Bilds in der für den Sucher benötigten Wiederholfrequenz liefern und (B) den Ausschnitt auch noch verschieben.

 

Das Bild, das für den Sucher aufbereitet wird, wird nicht durch Auslesen des Sensors in der vollen Auflösung gewonnen. Der Sensor liefert für diesen Zweck ein Bild mit reduzierter Auflösung.

 

Das verstehe ich nicht, Philipp?

Ich habe mir das eben noch einmal angesehen: die Lupe sieht in beiden Vergrößerungen perfekt aufgelöst aus, also nicht wie aufgeblasenes Pixelbild aus einer reduzierten Auflösung, und liefert eine perfekte Fokuskontrolle.

 

Aber auch wenn die Lupe aus einer reduzierten Auflösung gewonnen würde, warum macht Leica das nicht genau so???

Damit wäre ich vollkommen zufrieden.

dierk

Link to post
Share on other sites

......

Lässt sich vermeiden, wenn du anstatt der Optik mittels Adapter für das TS-E ( das sitzt dann auf dem Stativ, nicht die Kamera ) die Sensorebene shiftest bei der Erstellung von einem Pano. ;)

;)

Danke für den Hinweis

der ist von Hartblei bestellt und kommt hoffentlich nächste Woche :)

 

Weiter besser in diesem thread:

http://www.l-camera-forum.com/leica-forum/leica-m9-forum/278215-canon-17mm-4-ts-e-tilt.html

 

dierk

Link to post
Share on other sites


Ich hatte vor einiger Zeit einen Artikel über die Arbeitsteilung zwischen Sensor, Signalprozessor und digitalem Prozessor in der Digitalkamera gelesen. Ich kann nicht garantieren, dass das, woran ich mich erinnern kann, tatsächlich so dort gestanden hatte, und ich kann erst recht nicht garantieren, dass es auf die M mit dem Maestro-Prozessor zutrifft. Trotzdem:

Der Sucher braucht ein Bild mit sehr bescheidener Auflösung aber mit verhältnismässig hoher Taktfrequenz.

Der Sensor wäre damit überfordert, das Bild in der vollständigen Auflösung mit der geforderten Taktfrequenz abzuliefern; der Prozessor wäre anschliessend überfordert, das hochaufgelöste Bild auf die vom Sucher benötigte Auflösung in Echtzeit herunter zu rechnen. Die Lösung besteht darin, dass der Sensor für den Sucher von Anfang an ein Bild in geringerer Auflösung ausliest und dem Prozessor abliefert. Ob das durch Zusammenlegen der Werte mehrerer Pixel geschieht oder durch Auslesen nur jedes n-ten Pixels weiss ich nicht mehr. Es könnte auch sein, dass verschiedene Kameras das unterschiedlich machen.

Eine Kamera, die einen vergrösserten Bildausschnitt im Sucher anzeigen soll, löst das in der Regel so, dass sie den Sensor anweist, die Pixel nur eines ausgewählten Teils des Bilds abzuliefern. Die Aufgabe des digitalen Prozessors beschränkt sich in diesem Fall darauf, den Tastendruck zu entdecken und dem Sensor die notwendige Instruktion zu übermitteln.

Es ist also die Aufgabe des Sensors (mit der ihm zugeordneten Elektronik), ein Bild mit geringerer Auflösung für den Sucher aufzubereiten und allenfalls einen Ausschnitt aus dem gesamten Bild herzustellen.

Sollte jetzt der Ausschnitt aus dem Bild auch noch verschiebbar sein, müsste der Sensor zusätzlich in der Lage sein, ausser dem Massstab auch noch die relative Position dieses Ausschnitts zu bestimmen.

Wenn die Hardware des Sensors das nicht kann, kannst Du diese Funktion nicht im digitalen Prozessor nachschieben. Der Sensor kann entweder einen Ausschnitt des Bilds als Sucherbild mit der erforderlichen Wiederholfrequenz abliefern oder er kann das nicht. Wenn er es kann, kann er entweder die Position des Ausschnitts relativ um Gesamtbild ändern oder er kann das nicht.

Kurzfassung: Die Auswahl der Bildpunkte, die im Sucherbild angezeigt werden, erfolgt nicht im Prozessor der Kamera sondern bereits in der Elektronik des Sensors.
  • Like 5
Link to post
Share on other sites

Danke Phillip für die ausführliche Beschreibung.

 

Noch ein anderes Thema, und ich weiß nicht, ob es in dem langen Thread schon zur Sprache kam:

 

Wenn es in sicher naher Zukunft EVF mit höherer Auflösung gibt würde ich mir wünschen, dass die dann auch von der M unterstützt werden - wenn nicht die Auflösung des Suchers wieder eine Sache Hardware ist???

 

dierk

Link to post
Share on other sites

So, wie Philipp das beschrieben hat, geschieht es auch in der M: Im Live-View- und Movie-Modus werden die Sensorpixel schon im Sensor zusammengefasst. Daher muss auch nur ein Teil der A/D-Wandler aktiv sein, was den Stromverbrauch und die Erwärmung des Sensors reduziert. Keine Kamera, auch die NEX-7 nicht, könnte für die Live-View alle Sensorpixel auslesen; es bleibt nur, entweder nur ausgewählte Pixel auszulesen (was zu Moiré führt) oder die Pixel von vornherein zusammenzufassen.

 

Wenn man im Live-View-Modus eine Vergrößerung wählt, kann dieses Bild aber nicht vergrößert werden, denn es hat ja nur eine begrenzte Auflösung. Man kann aber stattdessen einen Ausschnitt von Sensorpixeln wählen – diese werden dann alle ausgelesen, also ohne Pixelzusammenfassung auf dem Sensor, aber da die Zahl der Pixel wiederum beschränkt ist, funktioniert das. Wenn der Bereich tatsächlich ausgelesener Sensorpixel verschiebbar ist, kann man den vergrößerten Ausschnitt verschieben, und andernfalls eben nicht.

  • Like 6
Link to post
Share on other sites

Wenn es in sicher naher Zukunft EVF mit höherer Auflösung gibt würde ich mir wünschen, dass die dann auch von der M unterstützt werden - wenn nicht die Auflösung des Suchers wieder eine Sache Hardware ist???

Dazu gibt es keine offizielle Aussage von Leica – das wird man wohl erst erfahren, wenn entsprechende elektronische Sucher verfügbar werden –, aber wir wissen ja bereits, dass die M 1920 x 1080 Pixel bei 25 fps schafft (und mehr nicht). Das wäre aber immerhin die gut vierfache Auflösung des aktuellen Suchers.

  • Like 1
Link to post
Share on other sites

Wenn ich es recht verstehe, ermöglichen die Anforderungen des elektronischen Suchers die Verschiebung des vergrößerten Bildes nicht.

 

Warum gilt das ebenso für die Darstellung auf dem Display? Oder verstehe ich das ganze falsch und das Display ermöglicht die Vergrößerung im Liveview-Modus an unterschiedlichen Stellen des Bildes?

Link to post
Share on other sites

Vielen Dank an Michael und Philipp für die Erklärungen.

 

Die Frage ist halt, wie das umgesetzt werden könnte. ...

 

Daraus, dass es andere (irgendwie) auch hinbekommen, kann man ableiten, dass das Verschieben des Ausschnitts prinzipiell möglich ist. Wie man das mit der von der Leica Camera AG ausgewählten "Hardware-Basis" hinbekommen kann, wird wahrscheinlich niemand hier beantworten können.

 

Schade, dass es nicht funktioniert.

Link to post
Share on other sites

Vielen Dank an Michael und Philipp für die Erklärungen.

 

 

 

Daraus, dass es andere (irgendwie) auch hinbekommen, kann man ableiten, dass das Verschieben des Ausschnitts prinzipiell möglich ist. Wie man das mit der von der Leica Camera AG ausgewählten "Hardware-Basis" hinbekommen kann, wird wahrscheinlich niemand hier beantworten können.

 

Schade, dass es nicht funktioniert.

 

Unterm Strich fast das alte Lied, der Sensor scheint diesmal mit vorne, der Rest eher hinten.

Der Preis ist absurd.

 

Wen das nicht abhält ;) soll sie bitte kaufen.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...