Jump to content

Autofokus mit kommender Firmware schneller?


Recommended Posts

  • 3 weeks later...
  • Replies 50
  • Created
  • Last Reply

Top Posters In This Topic

Top Posters In This Topic

Popular Posts

Schöne neue Nachrichten. Im engl. Thread hat jemand die Beta-Version der neuen Firmware der X1 getestet. Hört sich gut an.   http://www.l-camera-forum.com/leica-forum/leica-x1-forum/151365-my-experience-x1-firmware-2-0-a.html

Ok, wir kommen der Sache langsam näher, keine TOTALE Ablehnung mehr Hello guest! Please register or sign in to view the hidden content. Hallo Gast! Du willst die Bilder sehen? Einfach registrieren oder anmelden!! Die literarisch niedergeschriebene Theorie, der Prof. Dr., und das "handweaving", so würde ich es bezeichnen, denn dem Dipl. Ing. ist bewusst dass in der Praxis heute schon Gesetze zu überwinden sind, welche die Theorie erst morgen erforscht hat, kommen in der Praxis ohne einander s

Hallo zusammen,

 

vielleicht erinnert sich noch der ein oder andere an meinen Thread in diesem und anderen Foren zu Vorschlägen zur Firmwareverbesserung der Leica X1!

 

Im Mai habe ich die Sache finalisiert und die ausformulierte "Semi"-Spezifikation per Post an die Leica Camera AG geschickt. Ich habe daraufhin relativ schnell eine Antwort von Frau Becker, der Assistentin des Vorstandsvorsitzenden erhalten.

Frau Becker hat sich im Namen von Herrn Spiller für mein Schreiben bedankt und mir mitgeteilt, dass die Vorschläge intern geprüft werden und man sich "alsbald" mit mir in Verbindung setzen würde. Das Schreiben war vom 10.05.2010. Seit diesem Zeitpunkt habe ich noch nichts wieder von der Fa. Leica gehört.

 

So wie ich das deute konzentriert man sich derzeit auf die Weiterentwicklung der FW für die M9. Nach dem "was man so liest" ist die M9 das aktuelle, umsatzstärkste Zugpferd, da die Produktion auf Monate ausverkauft ist und diese nun verstärkt werden soll.

 

Da viele der beschriebenen Erweiterungen/Verbesserungen "öffentlich" geboren wurden sehe ich keinen Grund, den Link zum Dokument zu verstecken:

http://www.rhs-net.com/misc/X1-FW-2010.05.05.pdf

 

 

 

Um der Überschrift dieses Threads gerecht zu werden: Die Fokusgeschwindigkeit wurde in der Spezifikation zwar erwähnt und eine Verbesserung wäre auch begrüssenswert, technisch sehe ich aber aufgrund der Spezifikation des Sensors Schwierigkeiten, aber keine Unmöglichkeit.

 

Bei ausreichendem Licht arbeitet die Kamera für die meisten Anwendungen, in meinen Augen ausreichend schnell. Ok, schneller wäre besser, meine D3 reisst mit AF-S Optik schon anders an. Dabei darf aber die Präzision, die ich bei der X1 derzeitig nicht in Frage stelle, nicht auf der Strecke bleiben. Verglichen mit anderen Systemen, welche mit vergleichbaren Sensoren arbeiten und im "LiveView" Modus fokussieren, fällt die X1 gar nicht weit ab (D300s/D3...).

 

Es ist sicherlich noch was möglich. Die meisten Systeme die ich kenne arbeiten mit einer konstanten Fokusgeschwindigkeit, damit meine ich die Geschwindigkeit des Antriebs zur Scharfstellung. Das kann man z.B. an einer DP1* sehr gut nachvollziehen. Die Schrittgeschwindigkeit des Stellmotors der Optik verändert sich bei konstanten Lichtverhältnissen nicht. Das bedeutet auch, dass das System in absoluter Unschärfe genau so langsam fokussiert wie um den Punkt der optimalen Schärfe. Diese Schrittgeschwindigkeit hängt dann auch unmittlerbar mit der "derzeitigen (von der Anzahl der Integrationen zur "Verstärkung")" Auslesegeschwindigkeit des Sensors zusammen.

 

Ich "könnte" mir vorstellen, dass eine Regelung (denn das ist ein TTL AF-System), basierend auf einem PI-Glied eine Verbesserung bringen könnte: Grosse Regelabweichung (kaum Schärfe/geringe Frequenz des Bildsignals) -> höhere Geschwindigkeit des Antriebs.

Die bei den meisten Kompaktkameras zur Anwendung kommenden Systeme arbeiten anhand der Auswertung des Frequenzspektrums innerhalb des AF-Feldes. Bei einer möglichst hohen Frequenz, d.h. ein möglichst grosser Kontrastunterschied über einen möglichst geringen Abstand innerhalb des AF-Feldes, zeigt eine ideale Scharfeinstellung. Die Frequenz kann ich von Regelschritt zu Regelschritt messen und auswerten. Ist der Anstieg der höchsten ermittelten Frequenz noch gering, d.h. es herrscht Unschärfe, kann ich die Optik schneller verfahren, als wenn sich schon eine hohe Frequenz, die sich aus der Auflösung des Sensors konstruktiv ergibt, andeutet. Bis zu diesem Zeitpunkt kann ich die Optik noch schneller verfahren, weil ich im nächsten Auslesezyklus des Sensors noch nicht mit einer hohen Frequenz, und diese in hoher Amplitude, im Bild zu rechnen habe.

Irgendwann, wenn sich hohe Frequenzen auftun muss ich mit dem Verfahren langsamer werden, um nicht zu weit über den optimalen Punkt hinausfahren darf (hier stimmt die PI Theorie nicht mehr ganz).

Bei geringer Beleuchtung wird die Sache allerdings schwieriger, weil stärkeres Rauschen durch erhöhten Gain immer hohe Frequenzen im Bereich der konstruktiven Grenze des Sensors erscheinen lässt.

Um das Rauschen zu verringern nutzt man Integrationen der jeweils ausgelesenen "Bilder", setzt somit aber die Auslesegeschwindigkeit des Sensors indirekt weiter herab, damit die Geschwindigkeit des gesamten Systems.

 

Wie man sieht alles nicht ganz so einfach. Eine konstante Geschwindigkeit "abzuklackern" ist systemtechnisch einfacher, damit schneller und weniger fehleranfällig zu programmieren, ergo schneller am Markt. Man bleibt in Bezug auf die Projekt(entwicklungs)kosten nicht so lange im Minus bzw. das Minus wird klein gehalten. Verpasst man aber beliebige Entwicklungsschritte oder sitzt den Fortschritt aus, rutscht man irgendwann ins totale Minus, weil man selbst keine Technologie mehr verkauft.

 

...wieder alles viel zu lang:

FAZIT: schneller wäre schöner!!

 

Gruß und "Gut Licht",

Roland.

Link to post
Share on other sites

PI-Glied? Verwechselt Du da nicht was? Das ist doch kein Phasen-AF….

 

Funktioniert die Auswertung der Schärfe nicht einfach per Intervalschachtelung mit der Suche nach dem höchsten Kontrast?

 

Und wer sagt Dir, was das begrenzende Element bei der Geschwindigkeit des AF ist.

Das Auslesen des Sensors, die Rechengeschwindigkeit der Kamera oder der Schrittmotor?

 

Ist das, ohne die interne Arbeitsweise der X1 und die einzelnen Prozesse zu kennen, nicht ein wenig zu viel Spekulatius?

 

Jens

Link to post
Share on other sites
PI-Glied? Verwechselt Du da nicht was? Das ist doch kein Phasen-AF….

Da stimmt einiges nicht. Zum einen würde das, was dort beschrieben ist, nichts mit einem I-Glied zu tun haben – um den Fokussiermotor bei einer größeren Abweichung schneller laufen zu lassen, müsste man differenzieren statt integrieren, bräuchte also ein D-Glied. Aber vor allem liefert eine Kontrastmessung gar keine Regelabweichung, aus der man eine Stellgröße berechnen könnte; das gibt es nur beim Phasendetektionsverfahren. Beim Kontrastvergleichsverfahren handelt es sich nicht um einen Regelkreis und daher sind Begriffe wie PI, PD oder PID hier nicht anwendbar.

Link to post
Share on other sites

...zu viel Spekulatius?! Die Aussage/Frage ist in jedem Fall richtig, fast der ganze Thread hier besteht darauf

!

 

PI-Glied/Regler ist aber gar nicht so verkehrt. Technisch kann man da ne Menge machen. Mit PD bleibt ne Regelabweichung, besonders wenn man mit einfachen Verfahren auf Integerbasis arbeitet, so dass der Prozeß noch ausreichend schnell abläuft, PID bringt sicherlich die "schnellste" Ausregelung, erfordert aber wieder mehr Rechenaufwand und eine gewisse Mindestauflösung der Regelgrösse.

Der PI liegt irgendwo dazwischen, oft ein guter Kompromiss.

 

Ob Phase oder Kontrast hat vor dem Hintergrund der vorhergehenden Beschreibung eigentlich nicht viel damit zu tun.

Richtig ist aber schon, dass wir den begrenzenden Faktor, ausser dem Sensor nicht kennen. Da bleiben dann noch die Stellgeschwindigkeit des Motors und die Rechenperformance des Systems.

Ich kann mir aber ehrlich gesagt nicht vorstellen, dass der, vermutlich eingesetzte Schrittmotor, bei dem "Geknurre" am Ende seiner Leistung ist.

Wenn ich jetzt nicht jeden der ca. möglichen 64 Schritte für die Scharfeeinstellung mit einem Bild vom Sensor vergleiche, und mich dem max. Kontrast oder damit der höchsten Frequenz (hoher Kontrast -> hoher Anstieg-/Abfall der Luminanz -> hohe Frequenz) im Meßfeld annähere, kann ich schon eine Steigerung der Geschwindigkeit erzielen.

Wenn ich mir aber die X1 so betrachte, auf 30cm "vor"fokussiert habe, dann auf Unendlich gehe, habe ich Zweifel ob fortgeschrittene Methoden Anwendung finden. Habe den Test noch nicht gemacht, aber liegen wir bei einem vollen (0,3m-unendlich) Durchlauf nicht in der Region von über zwei Sekunden?!

 

64 Schritte durch 60fps macht 1,1 Sekunden. Das passt glaube ich (habe die Kamera gerade nicht zum Test zur Hand). Von daher denke ich mal ist bisher kein "Voodoo" im Einsatz. Würde aber wetten dass der Motor mehr kann.

 

Von daher:

grosse Regelabweichung (keine Schärfe bzw. keine hohe Frequenz)

-> Bilder vom Sensor auslassen, Optik schneller verfahren

angekommen bei kleiner Regelabweichung (Bereiche mit hoher Frequenz steigen an) --> weniger Bilder vom Sensor überspringen, deshalb Optik langsamer verfahren, um den optimalen Punkt nicht zu weit zu überfahren und die Anzahl der Schritte bis zum optimalen Punkt nachvollziehen zu können (zurückfahren).

 

...also PI! PID wäre "mechanisch" schneller, könnte den optimalen Schärfepunkt durch die "geringe Auflösung/Anzahl von Messwerten (bedingt durch den Sensor)" aber zu leicht überfahren und im Nirvana landen, d.h. das System erkennt zwar eine Veränderung der Frequenzen, nie aber einen deutlichen Trend bzw. die Annäherung an ein Maximum.

 

Trotzdem Spekulatius: was kann der Motor, was kann der Prozessor... was kann der Programmierer?!

 

Roland.

 

 

P.S.: vielleicht gehe ich nachher mal mit nem Mikrofon an die X1 und zeichne das Fokussiergeräusch auf: Ich denke die Abstände der Ansteuerung des AF-Motors (Ansteuerfrequenz des "Schrittmotors") sind 1.) konstant und liegen 2.) im Bereich von über 17ms (1/60fps+Rechenzeit) (bei ausreichender Helligkeit), nicht schneller. Das wird man anhand der Wellenform nachprüfen können.

 

 

 

 

PI-Glied? Verwechselt Du da nicht was? Das ist doch kein Phasen-AF….

 

Funktioniert die Auswertung der Schärfe nicht einfach per Intervalschachtelung mit der Suche nach dem höchsten Kontrast?

 

Und wer sagt Dir, was das begrenzende Element bei der Geschwindigkeit des AF ist.

Das Auslesen des Sensors, die Rechengeschwindigkeit der Kamera oder der Schrittmotor?

 

Ist das, ohne die interne Arbeitsweise der X1 und die einzelnen Prozesse zu kennen, nicht ein wenig zu viel Spekulatius?

 

Jens

Link to post
Share on other sites
PI-Glied/Regler ist aber gar nicht so verkehrt. Technisch kann man da ne Menge machen. Mit PD bleibt ne Regelabweichung, besonders wenn man mit einfachen Verfahren auf Integerbasis arbeitet, so dass der Prozeß noch ausreichend schnell abläuft, PID bringt sicherlich die "schnellste" Ausregelung, erfordert aber wieder mehr Rechenaufwand und eine gewisse Mindestauflösung der Regelgrösse.

Der PI liegt irgendwo dazwischen, oft ein guter Kompromiss.

Alles gut und schön, aber Du hast nun mal in Deinem Text die Wirkung eines D-Glieds beschrieben, nicht die eines I-Glieds. Das ist ja eine eingeführte Terminologie und mit PI bekommst Du gerade nicht das Verhalten, das Du als wünschenswert beschrieben hast.

 

Ob Phase oder Kontrast hat vor dem Hintergrund der vorhergehenden Beschreibung eigentlich nicht viel damit zu tun.

Außer dass es beim Kontrastvergleichsverfahren keinen Regelkreis gibt, keine Regelabweichung und daher auch keine Stellgröße. Das heißt, Deine Beschreibung hat mit dem Kontrastvergleichs-AF, den Du optimieren willst, rein gar nichts zu tun. Und das kann man ohne alle Spekulation feststellen.

Link to post
Share on other sites

Advertisement (gone after registration)

Na da ist die Praxis weiter, habe seinerzeit ähnliches in einem Laborversuch gebaut. Es ging darum, blablabla... die Farbe der Reflexionsschicht von DVD Rohlingen spektral darzustellen. Also Lichtquelle, optisches Gitter, CCD Linearsensor.... Fokussierung des Systems durch Verschiebung der gesamten Einheit auf die Mediumkante plus Offset...blablabla......... langsamer linearer CCD zur Kontrasterkennung -> tricksen!

Max. Geschwindigkeit "ermitteln" (P-Anteil), D ist theoretisch richtig, passt aber aus den oben genannten Gründen hier nicht. Letzte Regelabweichung rausregeln mit I.

...ok, so vielleicht nicht so ganz einfach nachvollziehbar, oder von mir schlecht erklärt, aber einfach mal den Regelkreis ansehen (http://www.roboternetz.de/wiki/uploads/Main/vergleich.gif), dann SIEHT man förmlich was für die Anwendung unter den Randparametern am geeignetsten ist:

 

 

Sollwert ist wie bereits beschrieben die konstruktive Auflösung des Sensors, also die höchste erzielbare Frequenz, Rückführung ist die im aktuellen Messzyklus ermittelte höchste Frequenz (Kontrastanstieg). Ok, bei einer Digitalkamera gibt´s sicherlich mehr "Störgrössen" als bei einem nahezu idealen Laboraufbau, machbar ist aber einiges und man muss halt adaptiv agieren.

 

Ziel einer solchen Aktion ist es, mit einer vergleichsweise langsamen Erfassung der Rückführung eine schnelle "Regelung" hinzukriegen. Phase und Kontrast liegen nur in "oberflächlicher" Betrachtung weit auseinander. Die ganze Sache weicht von einer "klassischen" Regelung in soweit ab, dass es erstmal keine positive- oder negative Regelabweichung gibt, sondern immer nur den Betrag. Deshalb kann man auch nicht direkt einen PI "aus dem Baukasten" nehmen (es würde "klassisch" maximal D funktionieren).

Die Stellgrösse ist die relative Fokussierung (also n. Schritte des Schrittmotors der Optik). Jetzt kommen wir auch nochmal zur Regelabweichung, bzw. dem Vorzeichen: fährt die "Regelung" in eine Richtung (z.B. unendlich), und der optimale Schärfepunkt wird überfahren (also die Amplitude der höchsten Frequenz sinkt wieder), erhält die Regelabweichung in der Logik ein invertiertes Vorzeichen). Die Schritte vom letzten ermittelten Maximum sind bekannt und werden rückwärts angefahren.

 

 

Die praxisnahe Anwendung kommt dem PI also absolut nahe.

Einfach mal das Spektrum eines AF Feldes während der Fokussierung vorstellen...

 

nochmal: D ist "theoretisch" drin bzw. richtig, in "dieser" Praxis aber kaum anwendbar. 1.) D "überfährt" nicht. Ich muss aber überfahren (schwingen) um mein tatsächliches Maximum festzustellen. 2.) D ist um den Bereich des Maximums "zu schnell".

 

Bau die Steuerung anhand der Sprungantwort im Regelkreis. Das wird PI sein!

 

 

...und nicht immer so fest auf der Theorie und dem Lehrbuch rumreiten.

 

 

 

 

 

 

 

Da stimmt einiges nicht. Zum einen würde das, was dort beschrieben ist, nichts mit einem I-Glied zu tun haben – um den Fokussiermotor bei einer größeren Abweichung schneller laufen zu lassen, müsste man differenzieren statt integrieren, bräuchte also ein D-Glied. Aber vor allem liefert eine Kontrastmessung gar keine Regelabweichung, aus der man eine Stellgröße berechnen könnte; das gibt es nur beim Phasendetektionsverfahren. Beim Kontrastvergleichsverfahren handelt es sich nicht um einen Regelkreis und daher sind Begriffe wie PI, PD oder PID hier nicht anwendbar.
Edited by Roland Schulz
Link to post
Share on other sites
Sollwert ist wie bereits beschrieben die konstruktive Auflösung des Sensors, also die höchste erzielbare Frequenz, Rückführung ist die im aktuellen Messzyklus ermittelte höchste Frequenz (Kontrastanstieg). Ok, bei einer Digitalkamera gibt´s sicherlich mehr "Störgrössen" als bei einem nahezu idealen Laboraufbau, machbar ist aber einiges und man muss halt adaptiv agieren.

Sorry, aber bei Formulierungen wie „machbar ist aber einiges und man muss halt adaptiv agieren“ werde ich immer skeptisch; der Engländer bezeichnet so etwas als „handwaving“. Jedenfalls gibt es beim Kontrastvergleichs-AF einer Digitalkamera keinen Soll-Kontrast, mit dem man vergleichen könnte, denn man weiß ja zunächst nicht, wie hoch der Kontrast oder die Frequenz bei einer optimalen Fokussierung überhaupt wäre – man kennt das Motiv nicht. Allein das Rauschen erreicht immer die maximal mögliche Frequenz, aber das hilft nicht. Man kann nur zwei Kontrastmesswerte vergleichen, was einem aber immer noch keine Abschätzung der Stellgröße erlaubt, kann doch ein höherer Kontrast bereits das Optimum sein oder auch nur ein Zwischenwert dorthin. Schließlich kann ein zunächst gefundener Maximalwert ein lokales Optimum sein, während das wahre, globale Optimum weit entfernt ist. Ein wirklich gründlicher Kontrastvergleichs-AF müsste den gesamten Fokussierbereich in kleinen Schritten durchfahren und sich jeweils die Position merken, an der der bislang höchste Kontrast gemessen wurde. Am anderen Ende des Fokussierbereichs angelangt müsste der Motor dann zum optimalen Punkt zurückfahren. Da das allerdings eine gewisse Zeit in Anspruch genommen hat, müsste man, um wirklich gründlich zu sein, noch einmal nachmessen.

Link to post
Share on other sites

Ok, wir kommen der Sache langsam näher, keine TOTALE Ablehnung mehr

!

Die literarisch niedergeschriebene Theorie, der Prof. Dr., und das "handweaving", so würde ich es bezeichnen, denn dem Dipl. Ing. ist bewusst dass in der Praxis heute schon Gesetze zu überwinden sind, welche die Theorie erst morgen erforscht hat, kommen in der Praxis ohne einander selten aus. Denn was zum Verrecken doch eigentlich funktionieren müsste, kann mit ein bisschen "Handgeschick" in die gesuchte Lösung "eingewebt" werden....

 

Soll u.A. heissen: Das theoretische Maximum, also die konstruktiv bedingte Sensorauflösung, die natürlich durch Demosaicing, Leistung der Optik usw. weiter begrenzt ist, ist schon vorhanden. Jetzt machen wir uns mal von den 100%, die theoretisch erreichbar wären frei, und versuchen irgendwo im Spektrum ca. 80% beim Fokussieren zu finden. Wenn wir jetzt aber reine Unschärfe haben, weil die Cam auf 30cm steht und das Objekt der Begierde 20m entfernt ist, haben wir überhaupt keine Frequenzen im Bereich von 80% oder darüber. Also gehts mit Vollgas nach vorn. Auf ein Bild vom Sensor ca. alle 18ms (so lange wie das Auslesen des Sensors plus Verabreitung auch dauert) machen wir fünf Steps an den Schrittmotor. Irgendwann wird es Anstiege bei vielleicht 50% im Spektrum geben, und man kann davon ausgehen, dass bald 60% anstehen. Um jetzt nicht blind über die zu erzielenden 80% hinauszuschiessen, tasten wir uns jetzt etwas langsamer weiter nach vorne, die "Regeldifferenz" ist nicht mehr so groß, machen daher nur noch 3 Steps pro Bild. Bei weiterer Annäherung dann nur noch 2 und irgendwann 1 Step. Ab hier speichern wir die Werte des Spektrums. Wenn wir weiterfahren werden wir feststellen, dass der Kontrast oder halt die Frequenzmaxima in Frequenz und Amplitude wieder kleiner werden. Wir haben aber in vorherigen Schritten einen Wert gefunden, der höher war als der jetzige. Weiterhin haben wir uns seit dem die Anzahl der Fokusschritte gemerkt. Also Schluss mit dem vorherigen "PI-Verhalten" und vereinfacht die Schritte zum Maximum zurück, ohne dabei nochmal den Sensor auslesen zu müssen. Das "PI-Verhalten" macht also hier nach dem Überschwingen einen steilen Knick zum neuen "Sollwert", der jetzt nicht mehr die mindestens geforderten 80% darstellt, sondern das tatsächlich gemessene Maximum.

Weitere übergeordnete "Regelung" oder Logik: Stelle ich beim "Losfahren" fest, dass das derzeitige Spektrum "schlechter" wird, fahre ich in die andere Richtung.

 

Man kann das jetzt alles noch weiter ausführen und verfeinern, mir ging es um das eigentliche Ziel, bei grosser Unschärfe diesen Bereich erst mal schnell zu verlassen, weil ich beim nächsten Bild des Sensors noch nicht mit etwas Scharfem zu rechnen habe. Wie oben beschrieben muss ich irgendwann aber immer öfter Bilder vergleichen, um nicht über das sich annähernde Maximum wegzufahren. Nur so kann ich einen AF beschleunigen, der eigentlich durch die Auslesezeit des Sensors gehemmt ist. Man stelle sich dazu doch mal eine Kamera vor, die statt nur 64 Schritten 1000 Schritte hat. Da würde man nie fertig.

 

Bei den 64 Fokuspositionen der X1 kann man sicherlich auch mit Tabellen vieles vereinfachen, damit Rechenzeit sparen. In einer Regelung für einen gesteuerten Wechselstromgleichrichter würde man für die Linearisierungskurve auch nicht ständig den Sinus neu berechnen, es sein denn man baut einen XEON in den Dimmer (schlechtes Beispiel, hier haben wir wirklich KEINE Regelung, es sein denn wir beziehen den Menschen mit ein, der am Dimmer steht und das Licht seinen Wünschen entsprechend beurteilt und dahin einstellt!).

 

 

******************************************************************************************

Jetzt noch mal ganz zurück zum ganz konventionellen Kontrast-AF: Wie funktioniert das nochmal?!

Den Kontrast, den unser Sensor mit der Auswertung dahinter feststellt, wird auf eine "Steuerung" gegeben, die dann durch Fokussierung versucht, diesen weiter zu verbessern. Auch der nach dem n-ten Fokussierschritt ermittelte Kontrastwert wird wieder mit dem vorherigen verglichen......

Also haben wir eine *Rückkopplung*!! P-I-D hin oder her, eine Steuerung mit Rückkopplung nennt man *Regelung*!!

******************************************************************************************

 

...jetzt seid ihr wieder dran, machen wir das rund?!

 

Roland.

 

 

 

Sorry, aber bei Formulierungen wie „machbar ist aber einiges und man muss halt adaptiv agieren“ werde ich immer skeptisch; der Engländer bezeichnet so etwas als „handwaving“. Jedenfalls gibt es beim Kontrastvergleichs-AF einer Digitalkamera keinen Soll-Kontrast, mit dem man vergleichen könnte, denn man weiß ja zunächst nicht, wie hoch der Kontrast oder die Frequenz bei einer optimalen Fokussierung überhaupt wäre – man kennt das Motiv nicht. Allein das Rauschen erreicht immer die maximal mögliche Frequenz, aber das hilft nicht. Man kann nur zwei Kontrastmesswerte vergleichen, was einem aber immer noch keine Abschätzung der Stellgröße erlaubt, kann doch ein höherer Kontrast bereits das Optimum sein oder auch nur ein Zwischenwert dorthin. Schließlich kann ein zunächst gefundener Maximalwert ein lokales Optimum sein, während das wahre, globale Optimum weit entfernt ist. Ein wirklich gründlicher Kontrastvergleichs-AF müsste den gesamten Fokussierbereich in kleinen Schritten durchfahren und sich jeweils die Position merken, an der der bislang höchste Kontrast gemessen wurde. Am anderen Ende des Fokussierbereichs angelangt müsste der Motor dann zum optimalen Punkt zurückfahren. Da das allerdings eine gewisse Zeit in Anspruch genommen hat, müsste man, um wirklich gründlich zu sein, noch einmal nachmessen.
Link to post
Share on other sites
Stelle ich beim "Losfahren" fest, dass das derzeitige Spektrum "schlechter" wird, fahre ich in die andere Richtung.

 

Das Verfahren könnte funktionieren. Es lässt sich vielleicht noch weiter tunen, indem die Veränderung des Auszugs negativ beschleunigt wird, wenn der Sensor einen "ziemlich" hohen Kontrast feststellt.

 

Und jetzt fehlt nur noch die Information darüber, ob heute vorhandene Kameras das nicht alles schon längst tun. Diese Verfahren werden schon seit Jahrzehnten nicht mehr als Innovativ bezeichnet.

Link to post
Share on other sites

...das gilt es zu überprüfen: komme heute nicht mehr dazu, aber wie weiter oben beschrieben, einfach mal das akustische Fokusgeräusch aufnehmen, und die Zeitabstände der Motoransteuerung in der Wellenform betrachten. Sind diese konstant, hat der Hersteller noch nix von unserer "Innovation" mitgekriegt. Nach meinem Hörempfinden würde ich sagen: konstant!

 

Jahrzehnte sind aber auf jeden Fall übertrieben, bin knappe 3 1/2 Jahrzehnte alt, kann mich aber noch an Videokameras der 80er erinnern (Blaupunkt CR8000, 1986 von (Matsushita), funktioniert immer noch!!), welche mit konstanter Geschwindigkeit die Linse verfahren. Das war auch bei späteren Sonys noch so. Heute sieht man davon ja leider nichts mehr.

Also Jahrzehnte sind dann doch übertrieben

! Matsushita und Sony leben ja nun nicht gerade hinterm Mond.

 

 

Das Verfahren könnte funktionieren. Es lässt sich vielleicht noch weiter tunen, indem die Veränderung des Auszugs negativ beschleunigt wird, wenn der Sensor einen "ziemlich" hohen Kontrast feststellt.

 

Und jetzt fehlt nur noch die Information darüber, ob heute vorhandene Kameras das nicht alles schon längst tun. Diese Verfahren werden schon seit Jahrzehnten nicht mehr als Innovativ bezeichnet.

Link to post
Share on other sites

Jahrzehnte sind aber auf jeden Fall übertrieben, bin knappe 3 1/2 Jahrzehnte alt, kann mich aber noch an Videokameras der 80er erinnern (Blaupunkt CR8000, 1986 von (Matsushita), funktioniert immer noch!!), welche mit konstanter Geschwindigkeit die Linse verfahren. Das war auch bei späteren Sonys noch so. Heute sieht man davon ja leider nichts mehr.

Also Jahrzehnte sind dann doch übertrieben

! Matsushita und Sony leben ja nun nicht gerade hinterm Mond.

 

Die Kybernetik ist etwas älter. Dieselbe Fragen stellen sich z.B. bei der Steuerung der Zentalheizung eines Hauses: hohe Reaktionsgeschwindigkeit vs. Übersteuern. Obwohl ich selbst kein Kybernetiker bin, würde ich annehmen, dass es sehr überraschend wäre, wenn ausgerechnet bei der Steuerung einer Autofokus-Anlage grundlegend neue Verfahren notwendig würden, um die Reaktionsgeschwindigkeit zu optimieren.

 

Eine verhältnismässig einfache Massnahme wurde -glaube ich - noch nicht genannt: ich bin mir ziemlich sicher, dass sich die Funktion Kontrast(Auszug) mit wenigen Parametern darstellen und ermitteln lässt. In diesem Fall müsste die Kamera nicht den Auszug mit dem maximalen Kontrast speichern. Sie müsste die Kurve analysieren. Je nach Funktion könne die erste Ableitung schon ausreichen. Somit könnte sie wohl mit hinreichender Präzision ermitteln, wo der maximale Kontrast stattzufinden hat. Damit könnte sie vielleicht sogar den Scharfstellpunkt extrapolieren, sicher aber interpolieren, falls sie das Objektiv schon zu weit bewegt haben sollte.

 

Woher weisst Du, dass bei den alten Teilen die Geschwindigkeit konstant ist? Meine Nikon, die ich fast zwei Jahrzehnte verwendet habe, tönte jeweils als ob sie das Objektiv zu weit verschiebt und dann etwas zurücksetzt.

Link to post
Share on other sites

zu Abschnitt 1: ist nicht direkt und unmittelbar anwendbar, siehe Ausnahmen oben.

 

zu Abschnitt 2: der Anstieg der Schärfe pro Verfahrschritt ist Abhängig von der Objektentfernung, damit nicht für jeden Fall gleich. Denke das würde ein höchst komplexer, wenn überhaupt realisierbarer Prozeß. Gedankenansatz finde ich aber interessant.

 

Zu Abschnitt 3: Habe früher überall dranrumgehört. Die Motorgeschwindigkeit ist konstant, Ausserdem wird um den Punkt der optimalen Schärfe "hin- und hergezuckt". Das Ding steht nie still, weil durch die Geschwindigkeit nie am optimalen Punkt gestoppt werden kann bzw. der optimale Punkt nicht gespeichert wird. Es wird immer um den optimalen Punkt rumgeschwungen -> bleibende Regelabweichung im "P-Regler".

 

 

Die Kybernetik ist etwas älter. Dieselbe Fragen stellen sich z.B. bei der Steuerung der Zentalheizung eines Hauses: hohe Reaktionsgeschwindigkeit vs. Übersteuern. Obwohl ich selbst kein Kybernetiker bin, würde ich annehmen, dass es sehr überraschend wäre, wenn ausgerechnet bei der Steuerung einer Autofokus-Anlage grundlegend neue Verfahren notwendig würden, um die Reaktionsgeschwindigkeit zu optimieren.

 

Eine verhältnismässig einfache Massnahme wurde -glaube ich - noch nicht genannt: ich bin mir ziemlich sicher, dass sich die Funktion Kontrast(Auszug) mit wenigen Parametern darstellen und ermitteln lässt. In diesem Fall müsste die Kamera nicht den Auszug mit dem maximalen Kontrast speichern. Sie müsste die Kurve analysieren. Je nach Funktion könne die erste Ableitung schon ausreichen. Somit könnte sie wohl mit hinreichender Präzision ermitteln, wo der maximale Kontrast stattzufinden hat. Damit könnte sie vielleicht sogar den Scharfstellpunkt extrapolieren, sicher aber interpolieren, falls sie das Objektiv schon zu weit bewegt haben sollte.

 

Woher weisst Du, dass bei den alten Teilen die Geschwindigkeit konstant ist? Meine Nikon, die ich fast zwei Jahrzehnte verwendet habe, tönte jeweils als ob sie das Objektiv zu weit verschiebt und dann etwas zurücksetzt.

Link to post
Share on other sites
zu Abschnitt 1: ist nicht direkt und unmittelbar anwendbar, siehe Ausnahmen oben.

 

Analogien sind immer problematisch. Der wesentliche Unterschied zwischen Objektivstellung und Raumtemperatur scheint mir aber darin zu bestehen, dass bei der Raumtemperatur sowohl Betrag als auch Vorzeichen der Abweichung mit einer einzigen Messung (bei einer einzigen Raumtemperatur) festgestellt werden kann, wohingegen beim Objektiv Messungen an (wohl mindestens) zwei Punkten notwendig sind, um das Vorzeichen der Abweichung zu ermitteln.

 

zu Abschnitt 2: der Anstieg der Schärfe pro Verfahrschritt ist Abhängig von der Objektentfernung, damit nicht für jeden Fall gleich. Denke das würde ein höchst komplexer, wenn überhaupt realisierbarer Prozeß. Gedankenansatz finde ich aber interessant.

 

Darum ist ja der Ansatz erwähnenswert, weil der Kontrastunterschied pro Auszugslänge von der Objektweite abhängig sein müsste. Das ganze hängt davon ab, ob sich der Kontrast monoton mit der Bildweite ändert, und ob er in einem hinreichend grossen Bereich überhaupt auswertbar ist.

 

Zu Abschnitt 3: Habe früher überall dranrumgehört. Die Motorgeschwindigkeit ist konstant, Ausserdem wird um den Punkt der optimalen Schärfe "hin- und hergezuckt". Das Ding steht nie still, weil durch die Geschwindigkeit nie am optimalen Punkt gestoppt werden kann bzw. der optimale Punkt nicht gespeichert wird. Es wird immer um den optimalen Punkt rumgeschwungen -> bleibende Regelabweichung im "P-Regler".

 

Die Beobachtung einer Videokamera scheint mir in diesem Zusammenhang nicht nützlich. Im Gegensatz zur Standbildkamera hat die Videokamera zwei weitere Auflagen zu erfüllen: die Schärfe muss laufend nachgeführt werden und grosse Abweichungen während der Dauer der Aufnahme sind unerwünscht. Das müsste nach meiner Vorstellung der eingebauten Kybernetik selbstredend zu kleinen Schwankungen beidseits der optimalen Scharfeinstellung führen.

Link to post
Share on other sites

Analogien sind immer problematisch. Der wesentliche Unterschied zwischen Objektivstellung und Raumtemperatur scheint mir aber darin zu bestehen, dass bei der Raumtemperatur sowohl Betrag als auch Vorzeichen der Abweichung mit einer einzigen Messung (bei einer einzigen Raumtemperatur) festgestellt werden kann, wohingegen beim Objektiv Messungen an (wohl mindestens) zwei Punkten notwendig sind, um das Vorzeichen der Abweichung zu ermitteln.

 

...wie bereits beschrieben, nach dem Überfahren des optimalen Schärfepunktes wird das Vorzeichen jeweils invertiert

 

 

Darum ist ja der Ansatz erwähnenswert, weil der Kontrastunterschied pro Auszugslänge von der Objektweite abhängig sein müsste. Das ganze hängt davon ab, ob sich der Kontrast monoton mit der Bildweite ändert, und ob er in einem hinreichend grossen Bereich überhaupt auswertbar ist.

 

 

 

Die Beobachtung einer Videokamera scheint mir in diesem Zusammenhang nicht nützlich. Im Gegensatz zur Standbildkamera hat die Videokamera zwei weitere Auflagen zu erfüllen: die Schärfe muss laufend nachgeführt werden und grosse Abweichungen während der Dauer der Aufnahme sind unerwünscht. Das müsste nach meiner Vorstellung der eingebauten Kybernetik selbstredend zu kleinen Schwankungen beidseits der optimalen Scharfeinstellung führen.

 

es ging um die Frage, ob die Jahrzehnte alte Technik bei AF Systemen Anwendung findet. Antwort: nicht überall, zumindest nicht seit Jahrzehnten.

Auch klar dass eine Videokamera nachführen muss. Das war hier nicht der Punkt. Die Frage bzw. der Hinweis sollte sein, dass dies nicht mit einer konstanten Geschwindigkeit erfolgen sollte, da man, wenn ein Schärfepunkt gefunden ist, i.d.R. davon auszugehen ist, dass sich die Entfernung nicht "zu schnell" verändert. Bei Videokameras wäre ein Phasen-AF ohnehin besser geeignet, weil man hier die Richtung der Veränderung ohne Trial&Error feststellen kann. Das geht bei den Kontrast-AF Systemen nicht. Hier muss "Versucht" werden, die Richtung zu finden. Hybrid AF-Systeme mit zusätzlicher Laufzeitmessung oder Triangulation können hier Vorteile bringen

Link to post
Share on other sites

X1 Autofokus: Da kann man noch VIEL machen...wenn man adaptiv agiert

(Gruß nach München und Solms!)

 

Habe mir heute nach etwas längerer Zeit meine X1 noch mal zur Brust genommen und den AF etwas näher untersucht. Wusste gar nicht mehr wie ....

Also, ganz ehrlich, mit meinen hier niedergeschriebenen Ideen würde man sicherlich NACH ALLEM ANDEREN noch einige Performace holen können, mit vergleichsweise einfachen Mitteln sollte man aber erstmal locker Faktor 2 oder mehr schaffen: Das Ding macht selbst bei optimalem Kontrast teilweise mehrere Korrekturfahrten, die ich bei bestem Willen nicht nachvollziehen kann. Da wird bei gutem Kontrast mehrfach über den optimalen Punkt drübergefahren...

Beim Suchen "des" Fokuspunktes wird der Stellmotor der Optik mit gemessenen ca. 42ms angesteuert. Das ergibt, oh Schreck, ca. 23,8fps! Das sind ziemlich genau die 24fps, die Peter in seinem Kommentar beschrieben hat. Ich habe mein LFI mit dem Artikel über die Entstehung der X1 gerade nicht zur Hand, aber ich glaube da stand was über den Sensor drin, keine Ahnung wo das sonst herkommt. Datenblätter oder Specs konnte ich nicht finden, lediglich über einen älteren (2007), ähnlichen Sensor, den IMX021. Der schafft aber nur 10,4fps im Full Frame, kann aber auch nen gefensterten Modus. Ob die von Peter genannten 60fps da die Grenze sind?! Wäre auf jeden Fall schon mal eine Verbesserung.

Die X1 nutzt beim Fokussieren auf jeden Fall derzeit, selbst im 1-Point HighSpeed Modus, keinen gefensterten Ausschnitt, das Sucherbild bewegt sich komplett während der Fokussierung weiter, lediglich bei der Ausweisung der Fokussierung als gültig (grüner Rahmen) stockt das Live Bild kurz.

 

Aber: Der Motor kann mehr. Während der teilweise mehrfachen Überfahrungen des optimalen Punktes wird der Motor manchmal schneller, mit etwa 9,5ms getaktet. Man fährt wahrscheinlich tatsächlich einen vorherigen Referenz- oder Gar-nicht-mal-so-schlecht-Punkt erneut an (ähnlich der bereits beschriebenen Idee).

 

Aber, ich bin doch sehr erschrocken, wie wenig ich selbst und viele andere "Fachleute" hier die Kamera überhaupt kennen. Denken uns hier die pfiffigsten Lösungen aus und haben derzeit noch... eine *ziemlich* einfache Realisierung in der Hand.

 

Also: da kann man noch VIEL machen, wenn man adaptiv -und geschickt- agiert!!! "Funktionieren" ist gut, Ehrgeiz ist mehr draus zu machen. Das geschieht auch alles nicht für die Katz, sondern kann in Folgemodellen wieder eingesetzt werden, ebenso wie viele andere Ideen und Hinweise aus der *Spec*.

 

 

 

IMX021 fps´s (alles nur mal an die Decke geguckt):

 

12.41M effektive Pixel (X1 nutzt 4272x2856, also 12.20M)

12 kanaliges Design

54MHz Takt

wenn der Sensor 10.39fps kann, braucht man ca. 5 Takte für 12 Pixel (die sich auch durch notwendinge Delays zusammensetzen können, deshalb unter die Decke geguckt).

 

praktikable Messfeldgröße: 500x400 Pixel

 

wenn der Sensor nur einen row-window-mode kann (wahrscheinlich):

10.39fps / 400px * 2856px = 74.18fps

 

wenn der Sensor nur einen column-window-mode kann:

10.39fps / 500px * 4272px = 88.77fps

 

wenn der Sensor einen row&column-window-mode kann (eher unwahrscheinlich):

10.39fps / ( (500*400) / (4272*2856) ) [px] = 633.83fps

 

Ok, ohne vollständiges Datenblatt alles GROBE Anhaltspunkte für die B-Zeitung. Riesig werden die Abweichungen, auch wenn man zusätzliche Timings und Freiwerdezeiten berücksichtigt, aber nicht sein.

 

 

Roland.

Link to post
Share on other sites
Eine verhältnismässig einfache Massnahme wurde -glaube ich - noch nicht genannt: ich bin mir ziemlich sicher, dass sich die Funktion Kontrast(Auszug) mit wenigen Parametern darstellen und ermitteln lässt. In diesem Fall müsste die Kamera nicht den Auszug mit dem maximalen Kontrast speichern. Sie müsste die Kurve analysieren. Je nach Funktion könne die erste Ableitung schon ausreichen. Somit könnte sie wohl mit hinreichender Präzision ermitteln, wo der maximale Kontrast stattzufinden hat. Damit könnte sie vielleicht sogar den Scharfstellpunkt extrapolieren, sicher aber interpolieren, falls sie das Objektiv schon zu weit bewegt haben sollte.

Das wäre natürlich praktisch, wenn es denn funktionieren würde, aber das tut es wohl nicht. Eine Extrapolation ist kaum möglich, aus den genannten Gründen (lokale und davon verschiedene globale Kontrastmaxima etc.) aber auch deshalb, weil sich Kamera und Motiv oft bewegen und schon daraus Kontrastveränderungen resultieren – wir haben es ja nicht mit einem Laboraufbau zu tun. Das Motiv und seine Eigenschaften sind unbekannt, daher auch der maximal erzielbare Kontrast, das Motiv bewegt sich, die Kamera wackelt, es gibt verschiedene Motive in unterschiedlicher Entfernung, die vom selben AF-Messfeld erfasst werden … wie will man da ernsthaft extrapolieren? Und eine Interpolation würde im besten Fall ergeben, wo der optimale Fokus lag, als der Fokussiermotor zuletzt dort vorbei kam. Ob er dann immer noch dort liegt, wäre noch nachzuprüfen.

 

Und dann setzt die gesamte bisherige Diskussion voraus, dass man mit einem aktiven AF-Messfeld fokussiert. Die X1 hat aber deren 11 (wie viele Panasonic-Kompaktkameras, was Zufall sein mag, vielleicht aber auch nicht), und die können auch alle parallel ausgewertet werden.

Link to post
Share on other sites

Beim Suchen "des" Fokuspunktes wird der Stellmotor der Optik mit gemessenen ca. 42ms angesteuert. Das ergibt, oh Schreck, ca. 23,8fps! Das sind ziemlich genau die 24fps, die Peter in seinem Kommentar beschrieben hat. Ich habe mein LFI mit dem Artikel über die Entstehung der X1 gerade nicht zur Hand, aber ich glaube da stand was über den Sensor drin, keine Ahnung wo das sonst herkommt. Datenblätter oder Specs konnte ich nicht finden, lediglich über einen älteren (2007), ähnlichen Sensor, den IMX021. Der schafft aber nur 10,4fps im Full Frame, kann aber auch nen gefensterten Modus. Ob die von Peter genannten 60fps da die Grenze sind?! Wäre auf jeden Fall schon mal eine Verbesserung.

Die X1 nutzt beim Fokussieren auf jeden Fall derzeit, selbst im 1-Point HighSpeed Modus, keinen gefensterten Ausschnitt, das Sucherbild bewegt sich komplett während der Fokussierung weiter, lediglich bei der Ausweisung der Fokussierung als gültig (grüner Rahmen) stockt das Live Bild kurz.

 

Ok, hab´s in der LFI 3/2010 wiedergefunden: Wie Peter schon geschrieben hat wird hier von einem Sensor mit 24fps im FF und 60fps im Streifenmodus (wie auch immer der aussieht) geschrieben (vielleicht IMX038).

 

Wenn man das hochrechnet käme man im gefensterten Modus auf ziemlich genau 17ms (incl. derzeitiger Verarbeitungszeit), statt der aktuellen 42ms.

Also Faktor 2,5x schneller fände ich schon ne Verbesserung! Das sollte absolut machbar sein!

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...