elmars Posted November 17, 2011 Share #1 Posted November 17, 2011 Advertisement (gone after registration) Hallo, sind alle Monitore, die nominell die gleiche Auflösung haben, gleich scharf? Ich habe auf einem Druckseminar an einem Eizo-Monitor gearbeitet und der kam mir schärfer vor, als der Monitor meines Mac, obwohl beide eine Auflösung von 1920x1200 haben. Wenn die Schärfe nicht unbedingt von der Auflösung abhängt: Kann ich sie irgendwie in den Datenblättern erkennen? Elmar Link to post Share on other sites More sharing options...
Advertisement Posted November 17, 2011 Posted November 17, 2011 Hi elmars, Take a look here Schärfe des Monitorbildes. I'm sure you'll find what you were looking for!
feuervogel69 Posted November 17, 2011 Share #2 Posted November 17, 2011 es leuchten ja keine einzelnen pixel, sondern es werden nur filter angeschaltet, die eine hintergrundbeleuchtung "abfiltern"... da kannst du dir selber ausrechnen, daß man diesen vorgang seeehr korrekt, aber auch seehr luschig ausführen kann.damit wirklich jedes pixel in der genauen leuchtstärke leuchtet, braucht es einigen aufwand. noch mehr aufwand, damit auch wirklich alle farbtöne da sind. farben-die die HG-beleuchtung nicht liefert, kann man auch nicht herausfiltern. ergebnis: vermatschte farbtöne, fehlende tonwerte: unscharfes matschiges bild.... Link to post Share on other sites More sharing options...
elmars Posted November 17, 2011 Author Share #3 Posted November 17, 2011 Danke. Mein subjektiver Eindruck scheint also wohl richtig zu sein. Gibt es denn Messwerte für so etwas? Elmar Link to post Share on other sites More sharing options...
mjh Posted November 17, 2011 Share #4 Posted November 17, 2011 An auffällige Unterschiede kann ich mich nur aus der Zeit erinnern, als TFTs noch analog angesteuert wurden. Damals konnte das Bild unscharf werden, wenn Phase und Frequenz nicht richtig justiert waren. Heutzutage bekommt jedes Bildschirmpixel sein eigens für dieses hergestellte Bildpixel, sodass Unschärfen der Vergangenheit angehören sollten. Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede. Link to post Share on other sites More sharing options...
thowi Posted November 17, 2011 Share #5 Posted November 17, 2011 Hallo Elmar, Michael hat es einmal mehr auf den Punkt gebracht. Einfaches Beispiel: Hier im Raum stehen zwei Macs nebeneinander. Der von Renate mit mattem Bildschirm und meiner mit glänzendem. Der Unterschied nicht von der Hand zu weisen. Gruß Thomas Link to post Share on other sites More sharing options...
elmars Posted November 18, 2011 Author Share #6 Posted November 18, 2011 Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede. Das verstehe ich leider nicht. Was bedeutet gemessene Pixeldichte? Dass der Hersteller mehr oder weniger Pixel eingebaut hat als angegeben. Ich dachte, die angegebene Auflösung entspricht der Zahl der Pixel. Um es auf den Punkt zu bringen: Sind die speziellen Monitore von Eizo und Co schärfer als derjenige meines Mac? Elmar Link to post Share on other sites More sharing options...
kanzlr Posted November 18, 2011 Share #7 Posted November 18, 2011 Advertisement (gone after registration) jaja, aber gemeint ist wohl die pixeldichte. Also auf welche fläche sich die pixel verteilen müssen. iPhone zB mit 960x640 auf nur 3,2" hat eine enorme Pixeldichte. Link to post Share on other sites More sharing options...
Talker Posted November 18, 2011 Share #8 Posted November 18, 2011 Ich denke doch auch... je größer der Bildschirm desto "unschärfer" müsste doch das Bild sein...... wenn ich 1920 x 1200 Pixel auf einem 30 Zoll-Schirm oder auf einem 15 Zoll Schirm zeige muss doch ein Unterschied sichtbar werden ???? Link to post Share on other sites More sharing options...
Unbekannter Photograph Posted November 18, 2011 Share #9 Posted November 18, 2011 Jetzt geht Ihr davon aus, daß Elmar gleiche Pixelmengen bei unterschiedlichen Displaygrößen meint. Auf die Idee käme ich nicht. Aber das kann nur Elmar zweifelsfrei beantworten. Link to post Share on other sites More sharing options...
elmars Posted November 18, 2011 Author Share #10 Posted November 18, 2011 Ich meinte tatsächlich die gleiche Pixelmenge bei gleicher Monitorgrösse (24 Zoll). Bei meinen - allerdings nur oberflächlichen Recherchen - habe ich für eine bestimmte Monitorgrösse immer eine bestimmte Relation zur Auflösung gefunden, je größer, desto mehr. Bei Kameradisplays scheint es das nicht zu geben, da wird die Auflösung bei gleicher Größe im Lauf der Zeit immer besser. Elmar http://www.elmarstreyl.de Link to post Share on other sites More sharing options...
kanzlr Posted November 18, 2011 Share #11 Posted November 18, 2011 der Kontrast beeinflusst den Schärfeeindruck natürlich auch stark. und wenn man auf harte Kanten steht, kann ich mir sogar vorstellen, daß ein niedriger auflösender Bildschirm schärfer wirkt. Link to post Share on other sites More sharing options...
poseidon Posted November 18, 2011 Share #12 Posted November 18, 2011 An auffällige Unterschiede kann ich mich nur aus der Zeit erinnern, als TFTs noch analog angesteuert wurden. Damals konnte das Bild unscharf werden, wenn Phase und Frequenz nicht richtig justiert waren. Heutzutage bekommt jedes Bildschirmpixel sein eigens für dieses hergestellte Bildpixel, sodass Unschärfen der Vergangenheit angehören sollten. Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede. Hi, spielt nicht die verwendete Grafikkarte auch eine Rolle?? Denn an der Aufbereitung des Signals kann auch was an der Grenze sein, wenn das Teil am Ende seiner Signalgrenze arbeitet. Würde ich also nicht ganz außer acht lassen. Nun bei den fertig konfigurierten Mac´s hat man da keine große Wahl, bei den Win Systemen schon, aber diese sehr guten Karten gehen auch ins Geld. Auch der Mac Monitor ist gegen die teuren EIZO oder Quato nicht so gut in der Abbildung, die aber auch fast so teuer sind wie ein gesamter Mac, dass darf man auch nicht vergessen. Normal solle es aber ausreichen, auch wenn der Farbraum beim Mac Monitor nicht so berückend ist. Jedenfalls ist dies auch mein Eindruck wenn man diese Monitore nebeneinander vergleicht. Gruß Horst PS aber wir diskutieren hier schon auf hohem Niveau, dass so nicht jeder braucht...... Link to post Share on other sites More sharing options...
elmars Posted November 18, 2011 Author Share #13 Posted November 18, 2011 Horst, mir ging es um Schärfe, nicht um Farbe. Kannst Du da etwas zu sagen? Sind die teuren Spezialmonitore auch in dieser Beziehung besser? Elmar Link to post Share on other sites More sharing options...
feuervogel69 Posted November 18, 2011 Share #14 Posted November 18, 2011 auch wenn mein beitrag nicht so angenommen wird, muß das nicht heißen, daß ich da falsches geschrieben habe. aber wer mjh gerne als guru sieht.....;-) z.b. schreibt mjh: jeder bildschirm hätte seine ganz eigenen pixel...so hatte ich mir das auch anfangs vorgestellt, so ist es aber nicht, wenn es eine hintergrundbeleuchtung gibt, die grundsätzlich das licht bereitstellt. zudem besteht jedes "pixel" eines bildschirms aus 3 kleinen subpixeln RGB..... (mal mit der lupe schauen). wenn jeder bildschirm in jedem pixel exakt (egal ob rand, bildmitte, ecke etc.) den luminanz- und farbwert darstellen könnte, bräuchten wir eizos etc. nicht..... daß dem nicht so ist, sieht elmar. also gebt ihm bitte eine etwas detailliertere begründung, als dieser pixeldichtenquatsch (hier im thread)... dasselbe problem, was ein bayersensor bei der farbdetektion hat (bestimmte mischfarben werden besser wahrgenommen, als andere) hat auch ein monitor bei der additiven farbsynthese, wenn das licht der einzelnen pixel wiederum mittels subtraktiver farbsynthese durch filter gewonnen wird, die naturgemäß eben bestimmte kantensteilheiten haben, oder eben auch nicht. der ideale monitor hätte wirklich einzelne genau durchsteuerbare rgb-pixel, die dieses licht DIREKT emittieren und nicht durhc subtraktion aus einem neonröhrenlicht (frequenzspektrum.....alles andere als gleichmäßig!) gewinnen. und was nicht exakt dargestellte tonwerte bedeuten (fehlende tonwerttrennung, zulaufende farben etc.) das wissen hier auch einige;-) die pipette ist auch heute noch des grafikers liebstes kind. so und jetzt wieder shcön auf die punktlandung von mjh warten. sicher erklärt michael das ganze gleich in einem lfi-artikel und dann gibts keine fragen mehr ;-) Link to post Share on other sites More sharing options...
poseidon Posted November 18, 2011 Share #15 Posted November 18, 2011 Horst, mir ging es um Schärfe, nicht um Farbe. Kannst Du da etwas zu sagen? Sind die teuren Spezialmonitore auch in dieser Beziehung besser? Elmar Hi, Elmar, das Ganze ist ein Zusammenspiel aller Faktoren, dass was Du mit dem Auge als Schärfe definierst, ist die bessere Detaillierung vieler hier genannter Faktoren. Und die richtigen DTP Monitore wie z.B. von Quato haben in diesen Belangen eben ein "besseres Bild" dies läst sich alleine durch technische Erklärungen nicht erklären..... zum Teil sind die gleichen Panels verbaut, nur eben mit anderen Zutaten. Gruß Horst Link to post Share on other sites More sharing options...
mjh Posted November 18, 2011 Share #16 Posted November 18, 2011 spielt nicht die verwendete Grafikkarte auch eine Rolle?? Bei einem digital angeschlossenen Display eigentlich nicht; da müssten schon ganze Bytes ausfallen, damit man einen Unterschied sieht. Das wäre dann aber kein Unterschied der Schärfe, sondern einfach ein kaputtes Bild. Link to post Share on other sites More sharing options...
mjh Posted November 18, 2011 Share #17 Posted November 18, 2011 Das verstehe ich leider nicht. Was bedeutet gemessene Pixeldichte? Nicht „gemessen“ (obwohl man sie natürlich auch messen kann), sondern „in ppi gemessen“. „ppi“ heißt „pixel per inch“ – auf jeden Zoll gehen soundso viel Pixel, manchmal mehr, manchmal weniger. Daher können Displays mit derselben Pixelzahl eine ganz unterschiedliche Diagonale haben (und entsprechend unterschiedlich große Pixel). Link to post Share on other sites More sharing options...
mjh Posted November 18, 2011 Share #18 Posted November 18, 2011 z.b. schreibt mjh: jeder bildschirm hätte seine ganz eigenen pixel...so hatte ich mir das auch anfangs vorgestellt, so ist es aber nicht, wenn es eine hintergrundbeleuchtung gibt, die grundsätzlich das licht bereitstellt. Das ist doch klar – dachte ich –, hat aber nichts mit Pixeln zu tun. Die gibt es natürlich dennoch, ganz gleich, wie die Hintergrundbeleuchtung aufgebaut ist. Aber es ist in diesem Zusammenhang eigentlich nicht nötig, die grundlegende Funktionsweise eines LC-Displays zu erklären (man kann das sicherlich auf Wikipedia nachlesen). Der wesentliche Punkt ist vielmehr der, dass der Grafikchip heutzutage (meist) nicht mehr aus dem digitalen Pixelbild ein analoges Signal erzeugt, das das Display dann wieder digitalisieren müsste, um jedem Bildschirmpixel seine Farbe und Helligkeit geben zu können. Als der analoge Anschluss noch allgemein üblich war, konnte sich tatsächlich ein unscharfes Bild ergeben, wenn Grafikchip und Display aus dem Takt gerieten und das Display aus einem Stück Signal ein Bildschirmpixel formte, das tatsächlich der Rest des einen Pixels und der Anfang des nächsten Pixels war. Wenn die automatische Synchronisation des Signals nicht klappte, musste man die Phasen- und Frequenzeinstellung des Displays manuell ändern, bis das Bild scharf, streifen- und flimmerfrei war. Das habe ich allerdings zuletzt in den 90er Jahren des vergangenen Jahrhunderts machen müssen. Heutzutage nimmt das Display vom Grafikchip fertige digital spezifizierte Pixel an; die fehlerträchtige doppelte Wandlung von digital nach analog und wieder zurück nach digital entfällt. zudem besteht jedes "pixel" eines bildschirms aus 3 kleinen subpixeln RGB..... (mal mit der lupe schauen). Drei Leuchtpunkte pro Pixel, ganz richtig. Das hatte ich für bekannt gehalten, ist in diesem Zusammenhang aber auch irrelevant. Auch Ausführungen zur Farbdarstellung sind zwar interessant, stehen aber in keinerlei Zusammenhang mit der Frage, warum man Schärfeunterschiede sieht. Link to post Share on other sites More sharing options...
feuervogel69 Posted November 18, 2011 Share #19 Posted November 18, 2011 vielleicht drücke ich mich wieder unsauber aus....: michael: die bekannten sachen lass ich jetzt mal weg. ich behaupte trotzdem, daß den meisten micht klar ist, was es für bedeutung hat, wenn ihre rgb-pixel im schirm nicht wirklich additiv arbeiten (also nur z.b. rot luminanzgesteuert abgeben ) sondern der rotfilter (der für das rote pixel verantwortlich ist) den rotwert subtraktiv herstellt, indem er eben aus dem hintergrundlicht die komplementärfarben ausfiltert, damit man rot sieht. (das ist auch bekannt ;-) . da röhren (derzeit noch?) und auch led´s kein wirklihces gleichmäßiges tageslichtspektrum abgeben, gibt es bei dieser methode immer bereiche, wo die subtraktion auf den gleichen wert hinausläuft (obwohl er unterschiedlich sein müßte), weil das zur verfügung stehende spektrum der HG-beleuchtung zu ungleichmäßig ist. die folge: tonwertmatsch. die folge: unschärfe. jeder der mit kunstlicht sensoren belichtet, weiß um die problem des ungleichmäßigen spektrums. die filter sind natürlich angepaßt, aber es bleibt ein rest an tonwerten (vor allem bei billig-monitoren) der nicht wirklich darstellbar ist. oder ist die technik jetzt soweit, daß die pixel wirklich jeden (!) tonwert darstellen können? wenn ja: wie? ich lass mich gern auf den neusten stand bringen. mein stand ist der s.o....es geht ja hier nicht um die ränder des farbraumes, sondern um zwischenräume. werden die bei den messungen z.b. überhaupt erfasst, oder werden die diagramme dort einfach interpoliert? Link to post Share on other sites More sharing options...
elmars Posted November 18, 2011 Author Share #20 Posted November 18, 2011 Vielleicht bin ich ja zu blöd, Michael. Wenn ich Dich richtig verstehe, müsste es so sein, dass zwei Monitor, die dieselbe Diagonale haben und dieselbe Pixelanzahl (also auch dieselbe Pixelgröße) gleich scharf sind. Das bedeutet, dass mein 24 Zoll Mac mit 1920x1200 Auflösung genauso scharf ist wie ein 24 Zoll Eizo mit 1920x1200 Auflösung. Richtig? Elmar Link to post Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.