Guest VLux Posted August 6, 2008 Share #1 Posted August 6, 2008 Advertisement (gone after registration) Elektronik: Kamera imitiert das menschliche Auge - Wissenschaft - FOCUS Online Link to post Share on other sites More sharing options...
Advertisement Posted August 6, 2008 Posted August 6, 2008 Hi Guest VLux, Take a look here Neuer Sensor . I'm sure you'll find what you were looking for!
Thomas Böder Posted August 6, 2008 Share #2 Posted August 6, 2008 Beeindruckende Entwicklung! Link to post Share on other sites More sharing options...
feuervogel69 Posted August 6, 2008 Share #3 Posted August 6, 2008 wenn es nur das wäre.... unser auge (resp. unser sehen) ist ein einziger gigantischer HDR und nonstop-panoramastitching-vorgang. der kameraprozessor "kopf" ist ja auch nicht grad der kleinste. da ist noch viel zu tun, wenn man auch nur annähernd eine kamera das attribut (wie unser auge) vergeben will... aber ein erster schritt ist gemacht. und vor allem einer, der neuen schwung in die wichtigste sache-nämlich den eigentlichen "bildwandler"-die objektive bringen könnte. aber ob das für den massenmarkt freigegeben wird? ... lg matthias Link to post Share on other sites More sharing options...
hverheyen Posted August 7, 2008 Share #4 Posted August 7, 2008 interessante Entwicklung ja, aber... dies würde bedeuten, dass alle Optiken eines Systems ab Hinterlinse weitere Normungen einhalten müssten. Bisher ist die Kompatibilität Optik/Sensor noch recht einfach und trotzdem in der Fertigung/Rechnung nicht einfach, wenn höchste Qualität gefordert ist. Nun kämen noch weitere Parameter hinzu. Bin mal gespannt. Link to post Share on other sites More sharing options...
krabat Posted August 7, 2008 Share #5 Posted August 7, 2008 Wieder mal ein typisch reißerischer Aufmacher von LOCUS. Um das Auge zu "imitieren", da bedarf es schon weiterer Parameter, als "nur" einen gekrümmten Chip herzustellen (so nett dies auch ist). Das hat "Feuervogel" ja schon angedeutet. Ein "richtiger" sensationeller Fortschritt wäre eine "on-chip"-Signalverarbeitung, so wie in der menschlichen Netzhaut die "analogen" Membranpotentialschwankungen der ca. 120 Millionen Photorezeptoren letztendlich in "digitale" Folgen von Aktionspotentialen der knapp anderthalb Millionen retinalen Ganglienzellen umgewandelt werden. Diese "spike trains" übermitteln simultan bis zu zwölf verschiedene Versionen der Außenwelt an das Gehirn (siehe auch das Mai-Heft 2008 von "Spektrum der Wissenschaft")! Dabei arbeitet das Auge ähnlich wie ein Chip mit Bayer-Pattern (alle Verfechter von Vollfarb-Chips bitte nicht enttäuscht sein! ), denn wir haben ebenfalls Photorezeptoren für rot, grün und blau (grob gesprochen). Das sind die Zapfen, und dann haben wir noch viiiieeel mehr Stäbchen für das Schwarz-Weiß-Sehen im Dunkeln. Das o.g. Verhältnis vorausgesetzt, würde das bei einem 20 Megapixel-Chip einem spike train von 200 kB entsprechen. Dann müßte natürlich der Prozessor in der Kamera entsprechend gut sein, um daraus ein brauchbares Bild zu machen. .. Link to post Share on other sites More sharing options...
winsoft Posted August 7, 2008 Share #6 Posted August 7, 2008 Auch unter Neue Kameras für Bilder ohne Randverzerrung - Yahoo! Nachrichten Deutschland zu lesen... Link to post Share on other sites More sharing options...
Guest VLux Posted August 7, 2008 Share #7 Posted August 7, 2008 Advertisement (gone after registration) Wieder mal ein typisch reißerischer Aufmacher von LOCUS. Um das Auge zu "imitieren", da bedarf es schon weiterer Parameter, als "nur" einen gekrümmten Chip herzustellen (so nett dies auch ist). Das hat "Feuervogel" ja schon angedeutet. Ein "richtiger" sensationeller Fortschritt wäre eine "on-chip"-Signalverarbeitung, so wie in der menschlichen Netzhaut die "analogen" Membranpotentialschwankungen der ca. 120 Millionen Photorezeptoren letztendlich in "digitale" Folgen von Aktionspotentialen der knapp anderthalb Millionen retinalen Ganglienzellen umgewandelt werden. Diese "spike trains" übermitteln simultan bis zu zwölf verschiedene Versionen der Außenwelt an das Gehirn (siehe auch das Mai-Heft 2008 von "Spektrum der Wissenschaft")! Dabei arbeitet das Auge ähnlich wie ein Chip mit Bayer-Pattern (alle Verfechter von Vollfarb-Chips bitte nicht enttäuscht sein! ), denn wir haben ebenfalls Photorezeptoren für rot, grün und blau (grob gesprochen). Das sind die Zapfen, und dann haben wir noch viiiieeel mehr Stäbchen für das Schwarz-Weiß-Sehen im Dunkeln. Das o.g. Verhältnis vorausgesetzt, würde das bei einem 20 Megapixel-Chip einem spike train von 200 kB entsprechen. Dann müßte natürlich der Prozessor in der Kamera entsprechend gut sein, um daraus ein brauchbares Bild zu machen. .. Abwarten und Tee trinken. Der jetzige Entwicklungsstand der Digitalfotografie ist bestimmt nicht das Ende einer Entwicklung. Um das zu behaupten braucht man weder eine Kristallkugel noch muss man die Sterne bemühen. In spätestens 2 Jahren sind alle Vollformatsupersensorkameras von heute wieder altes Eisen. Darum mein Tipp: Kauft heute das Neueste, morgen ist es schon wieder zu spät. Und immer ganz ganz teuer kaufen! Gruß Rolf Link to post Share on other sites More sharing options...
krabat Posted August 7, 2008 Share #8 Posted August 7, 2008 Darum mein Tipp:Kauft heute das Neueste, morgen ist es schon wieder zu spät. Und immer ganz ganz teuer kaufen! Ja, genau, Rolf! Das erinnert mich an die Karikatur von Uli Stein, wo ein Mäuserich mit einem Rechner hektisch die Straße entlang rennt, und zwei andere Mäuse stehen daneben und schauen sich das an, und die eine Maus sagt sinngemäß zu der anderen: "Er hat Angst, daß sein neuer Computer schon veraltet ist, bevor er zu Hause ankommt!" ... Link to post Share on other sites More sharing options...
feuervogel69 Posted August 7, 2008 Share #9 Posted August 7, 2008 um ganz sachlich zu bleiben: auch heute schon wäre es bestimmt möglich eine -sagen wir mal 4mpix-kamera zu konstruieren, die beim auslösen die belichtungszeit von eingestellten-sagen wir mal wieder 1/60 sec- auflöst in mehrere unterschiedlich lange einzelbelichtungsbilder und dies intern zu einem DRI- bild verrechnet und auf der anderen seite sowieso bei auslösung viele einzelbilder macht (in so etwas wie multishottechnik)wo man sogar etwas verwackeln sollte und selbige dann "richtig" übereinanderlegt. DAS wäre dann eine dem auge entsprechende verwacklungskorrektur mit gleichzeitiger info-erhöhung, statt herausrechnung störender verwackler oder rauschens..... alles zusammen müßte der prozessor aus den vielen bildern eins machen. es ist und bleibt ein reiner rechenvorgang. warum wird nicht in dieser richtung entwickelt? stattdessen wird krampfhaft versucht aus einem allereinzigstem belichtungsvorgang mit millionen von pixeln hohe informationsmengen herauszupressen, die dann doch in entscheidenden parametern (dynamikumfang) eher bescheiden aussehen, bzw. die mühsame arbeit von HDR,panorama,stichting und stacking muß der anwender auch heute noch mühevoll zuhause leisten. lg matthias Link to post Share on other sites More sharing options...
krabat Posted August 7, 2008 Share #10 Posted August 7, 2008 Habe mir gerade den Original-Artikel in der britischen Zeitschrift Nature durchgelesen (http://www.nature.com/nature/journal/v454/n7205/pdf/454703a.pdf). Ist ja wirklich eine nette Sache, die völlig neue Perspektiven für Kamera-Design und -Konstruktion ermöglichen würde. Lassen wir uns einfach überraschen, ob das etwas längerfristiges wird oder ob es ein Strohfeuer bleibt. Hm, eine kugelförmige Digicam... paßt dann allerdings nicht mehr in die Hosen- oder Jackentasche.... Grüßle, Peter. Link to post Share on other sites More sharing options...
krabat Posted August 7, 2008 Share #11 Posted August 7, 2008 Huch, mein obiger Link bezog sich auf den Kommentar zum Artikel. Hier ist die Original-Publikation: Access : : Nature Link to post Share on other sites More sharing options...
hverheyen Posted August 7, 2008 Share #12 Posted August 7, 2008 Habe mir gerade den Original-Artikel in der britischen Zeitschrift Nature durchgelesen (http://www.nature.com/nature/journal/v454/n7205/pdf/454703a.pdf).Ist ja wirklich eine nette Sache, die völlig neue Perspektiven für Kamera-Design und -Konstruktion ermöglichen würde. Lassen wir uns einfach überraschen, ob das etwas längerfristiges wird oder ob es ein Strohfeuer bleibt. Hm, eine kugelförmige Digicam... paßt dann allerdings nicht mehr in die Hosen- oder Jackentasche.... Grüßle, Peter. kein Problem, es gibt doch diese Tennisballhalter Link to post Share on other sites More sharing options...
mjh Posted August 7, 2008 Share #13 Posted August 7, 2008 um ganz sachlich zu bleiben: auch heute schon wäre es bestimmt möglich eine -sagen wir mal 4mpix-kamera zu konstruieren, die beim auslösen die belichtungszeit von eingestellten-sagen wir mal wieder 1/60 sec- auflöst in mehrere unterschiedlich lange einzelbelichtungsbilder und dies intern zu einem DRI- bild verrechnet Dazu müßte der Sensor allerdings schneller ausgelesen werden, als das bislang möglich ist; sonst würden die Pausen zwischen den Belichtungen zu lang. und auf der anderen seite sowieso bei auslösung viele einzelbilder macht (in so etwas wie multishottechnik)wo man sogar etwas verwackeln sollte und selbige dann "richtig" übereinanderlegt. DAS wäre dann eine dem auge entsprechende verwacklungskorrektur mit gleichzeitiger info-erhöhung, statt herausrechnung störender verwackler oder rauschens..... Das entspräche der Super-Resolution-Technologie. Das funktioniert, bei bewegten Motiven aber nur für Details – man kann so das Nummernschild eines fahrendes Autos auflösen, obwohl die Auflösung der Überwachungskamera das eigentlich gar nicht hergibt. Aber für die Fotografie, wie wir sie kennen und betreiben, ist das eigentlich nichts. Multi-Shot ist etwas für unbewegte Motive und unbewegte Kameras; da kann dieses Verfahren seine Stärken ausspielen. Zum Vergleich mit dem menschlichen Auge wäre noch zu sagen, daß das Auge wohl vor allem deshalb rund ist, weil sich plane Flächen mit den verfügbaren Mitteln schwerer herstellen lassen, während sich ein kugelförmiges Gebilde von selbst in Form hält. Außerdem ist der Bereich der Netzhaut, in dem wir scharf sehen, sehr klein; ich bin mir daher nicht so sicher, ob die gekrümmte Form überhaupt einen so großen Einfluß hat. Link to post Share on other sites More sharing options...
leicageek Posted August 7, 2008 Share #14 Posted August 7, 2008 Auch unterNeue Kameras für Bilder ohne Randverzerrung - Yahoo! Nachrichten Deutschland zu lesen... Was ist denn das für ein komischer Artikel? Das steht ja verdammt viel Mist und Unsinn drin...... Link to post Share on other sites More sharing options...
feuervogel69 Posted August 7, 2008 Share #15 Posted August 7, 2008 multi-shot war ja nur das "anschauungsbeispiel" unser auge bekommt ja eben genau das auch mit bewegten bildern hin. aber gut möglich, daß derzeit die auslesegeschwindigkeiten der sensoren einfach zu lang sind, um solche szenarien zu entwickeln. aber zumindest die einfachen arten von bracketing und stitching sollten bei zukünftigen cams nun mal so langsam mit integriert werden. ich erinnere mich dunkel, daß vor einiger zeit mal eine dieser kompaktdigis einen modus für stereobilder hatte! manches muß man eben nur wollen.... im musikbereich hat man schon lange übrigens bestimmte funktionalitäten von geräten austauschbar gemacht in dem sinne, daß man per modul- oder kartenaustausch mit dem gleichen "mastergerät" je nach bedarf ein unterschiedliches teil "in den händen hat". die kameraindustrie packt heute noch alles in eine cam (riesenmenüs), oder-wie leica- läßt puristisch vieles weg, anstatt je nach anwendung sich für bestimmte funktionalitäten bei gleichbleibender knöpfeanzahl entscheiden zu können. eine "landschaftsmodusfirmware- z.b. für die m8 , wo dann anstelle serienbildmöglichkeit solche panorame/HDR dinge+16bit konvertierung "eingebaut wären, fände ich ganz nett. irgendwie könnten die kameraingenieure mal kreativer sein. lg matthias Link to post Share on other sites More sharing options...
winsoft Posted August 7, 2008 Share #16 Posted August 7, 2008 Was ist denn das für ein komischer Artikel? Das steht ja verdammt viel Mist und Unsinn drin...... Stammt nicht von mir... Link to post Share on other sites More sharing options...
winsoft Posted August 7, 2008 Share #17 Posted August 7, 2008 Ist ja wirklich eine nette Sache, die völlig neue Perspektiven für Kamera-Design und -Konstruktion ermöglichen würde. Wenn mich nicht alles täuscht, klappt diese Technologie nur für eine einzige Festbrennweite. Beim Objektivwechsel auf andere Brennweiten stimmt der Kugelschalenradius nicht mehr. Oder jedes Objektiv müsste hinten ein Korrekturglied aufweisen, um sich dem gegebenen Kugelschalenradius anzupassen. Mit mühsam konstruierter Bildfeldebnung wäre es dann jedenfalls endgültig vorbei... Frage wäre, wie dann plane Objekte abgebildet werden... Link to post Share on other sites More sharing options...
ALUX Posted August 7, 2008 Share #18 Posted August 7, 2008 Hat sich eigentlich schon mal jemand Gedanken gemacht wie man das sphärische Bild am besten in zweidimensionaler Form ausgeben soll? Winkeltreu oder doch lieber flächentreu? Was ist Euch lieber?? Link to post Share on other sites More sharing options...
gerd_heuser Posted August 7, 2008 Share #19 Posted August 7, 2008 Aber für die Fotografie, wie wir sie kennen und betreiben, Möglicherweise werden wir irgendwann die farbige Holografie als reales Abbild des Gegenstands haben, aufzeichnen können und beliebig betrachten. Link to post Share on other sites More sharing options...
krabat Posted August 7, 2008 Share #20 Posted August 7, 2008 Hat sich eigentlich schon mal jemand Gedanken gemacht wie man das sphärische Bild am besten in zweidimensionaler Form ausgeben soll?Winkeltreu oder doch lieber flächentreu? Was ist Euch lieber?? Hm, also in der Originalpublikation lassen sich die Autoren nicht so richtig darüber aus. Sie reden lediglich von einer senkrechten Projektion des sich auf der gebogenen Sensorfläche befindlichen Bildes auf eine planare Fläche. Es ist jetzt schon zu spät nach einem langen Arbeitstag, als daß ich mich jetzt tiefer hineindenken könnte... Aber dafür nutzen die Autoren das biologische Prinzip der Saccaden (auch wenn das Wort im Text nicht fällt, sind halt Ingenieure und keine Biologen oder Augenärzte ), d.h. die Kamera wird schnell in verschiedene Richtungen gedreht, und die sich ergebenden Bilder werden miteinander verrechnet, was eine höhere Auflösung ergibt. Genau so, wie es Matthias vorgeschlagen hat! Gruß, Peter. Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.