Jump to content

Schärfe des Monitorbildes


elmars

Recommended Posts

Advertisement (gone after registration)

Hallo,

 

sind alle Monitore, die nominell die gleiche Auflösung haben, gleich scharf? Ich habe auf einem Druckseminar an einem Eizo-Monitor gearbeitet und der kam mir schärfer vor, als der Monitor meines Mac, obwohl beide eine Auflösung von 1920x1200 haben. Wenn die Schärfe nicht unbedingt von der Auflösung abhängt: Kann ich sie irgendwie in den Datenblättern erkennen?

 

Elmar

Link to post
Share on other sites

es leuchten ja keine einzelnen pixel, sondern es werden nur filter angeschaltet, die eine hintergrundbeleuchtung "abfiltern"... da kannst du dir selber ausrechnen, daß man diesen vorgang seeehr korrekt, aber auch seehr luschig ausführen kann.damit wirklich jedes pixel in der genauen leuchtstärke leuchtet, braucht es einigen aufwand. noch mehr aufwand, damit auch wirklich alle farbtöne da sind. farben-die die HG-beleuchtung nicht liefert, kann man auch nicht herausfiltern. ergebnis: vermatschte farbtöne, fehlende tonwerte: unscharfes matschiges bild....

Link to post
Share on other sites

An auffällige Unterschiede kann ich mich nur aus der Zeit erinnern, als TFTs noch analog angesteuert wurden. Damals konnte das Bild unscharf werden, wenn Phase und Frequenz nicht richtig justiert waren. Heutzutage bekommt jedes Bildschirmpixel sein eigens für dieses hergestellte Bildpixel, sodass Unschärfen der Vergangenheit angehören sollten.

 

Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede.

Link to post
Share on other sites

Hallo Elmar,

 

Michael hat es einmal mehr auf den Punkt gebracht. Einfaches Beispiel: Hier im Raum stehen zwei Macs nebeneinander. Der von Renate mit mattem Bildschirm und meiner mit glänzendem. Der Unterschied nicht von der Hand zu weisen.

 

Gruß

Thomas

Link to post
Share on other sites

Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede.

 

Das verstehe ich leider nicht. Was bedeutet gemessene Pixeldichte? Dass der Hersteller mehr oder weniger Pixel eingebaut hat als angegeben. Ich dachte, die angegebene Auflösung entspricht der Zahl der Pixel.

 

Um es auf den Punkt zu bringen: Sind die speziellen Monitore von Eizo und Co schärfer als derjenige meines Mac?

 

Elmar

Link to post
Share on other sites

Ich meinte tatsächlich die gleiche Pixelmenge bei gleicher Monitorgrösse (24 Zoll). Bei meinen - allerdings nur oberflächlichen Recherchen - habe ich für eine bestimmte Monitorgrösse immer eine bestimmte Relation zur Auflösung gefunden, je größer, desto mehr. Bei Kameradisplays scheint es das nicht zu geben, da wird die Auflösung bei gleicher Größe im Lauf der Zeit immer besser.

 

Elmar

 

 

http://www.elmarstreyl.de

Link to post
Share on other sites

An auffällige Unterschiede kann ich mich nur aus der Zeit erinnern, als TFTs noch analog angesteuert wurden. Damals konnte das Bild unscharf werden, wenn Phase und Frequenz nicht richtig justiert waren. Heutzutage bekommt jedes Bildschirmpixel sein eigens für dieses hergestellte Bildpixel, sodass Unschärfen der Vergangenheit angehören sollten.

 

Abgesehen davon kann sich die in ppi gemessene Pixeldichte bei zwei Displays mit gleicher Auflösung unterscheiden, was zu einem unterschiedlichen Schärfeeindruck führen kann. Zwischen glänzenden und matten Displays gibt es auch noch Unterschiede.

 

 

Hi,

spielt nicht die verwendete Grafikkarte auch eine Rolle??

Denn an der Aufbereitung des Signals kann auch was an der Grenze sein,

wenn das Teil am Ende seiner Signalgrenze arbeitet.

Würde ich also nicht ganz außer acht lassen.

 

Nun bei den fertig konfigurierten Mac´s hat man da keine große Wahl,

bei den Win Systemen schon, aber diese sehr guten Karten gehen auch ins Geld.

Auch der Mac Monitor ist gegen die teuren EIZO oder Quato nicht so

gut in der Abbildung, die aber auch fast so teuer sind wie ein gesamter Mac,

dass darf man auch nicht vergessen.

Normal solle es aber ausreichen, auch wenn der Farbraum beim Mac Monitor

nicht so berückend ist.

Jedenfalls ist dies auch mein Eindruck wenn man diese Monitore nebeneinander vergleicht.

 

Gruß

Horst

 

PS

aber wir diskutieren hier schon auf hohem Niveau, dass so nicht jeder braucht......:D

Link to post
Share on other sites

auch wenn mein beitrag nicht so angenommen wird, muß das nicht heißen, daß ich da falsches geschrieben habe. aber wer mjh gerne als guru sieht.....;-)

 

z.b. schreibt mjh: jeder bildschirm hätte seine ganz eigenen pixel...so hatte ich mir das auch anfangs vorgestellt, so ist es aber nicht, wenn es eine hintergrundbeleuchtung gibt, die grundsätzlich das licht bereitstellt. zudem besteht jedes "pixel" eines bildschirms aus 3 kleinen subpixeln RGB..... (mal mit der lupe schauen).

wenn jeder bildschirm in jedem pixel exakt (egal ob rand, bildmitte, ecke etc.) den luminanz- und farbwert darstellen könnte, bräuchten wir eizos etc. nicht.....:mad:

 

daß dem nicht so ist, sieht elmar. also gebt ihm bitte eine etwas detailliertere begründung, als dieser pixeldichtenquatsch (hier im thread)...

dasselbe problem, was ein bayersensor bei der farbdetektion hat (bestimmte mischfarben werden besser wahrgenommen, als andere) hat auch ein monitor bei der additiven farbsynthese, wenn das licht der einzelnen pixel wiederum mittels subtraktiver farbsynthese durch filter gewonnen wird, die naturgemäß eben bestimmte kantensteilheiten haben, oder eben auch nicht.

der ideale monitor hätte wirklich einzelne genau durchsteuerbare rgb-pixel, die dieses licht DIREKT emittieren und nicht durhc subtraktion aus einem neonröhrenlicht (frequenzspektrum.....alles andere als gleichmäßig!) gewinnen.

 

und was nicht exakt dargestellte tonwerte bedeuten (fehlende tonwerttrennung, zulaufende farben etc.) das wissen hier auch einige;-) die pipette ist auch heute noch des grafikers liebstes kind.

 

so und jetzt wieder shcön auf die punktlandung von mjh warten. sicher erklärt michael das ganze gleich in einem lfi-artikel und dann gibts keine fragen mehr ;-)

Link to post
Share on other sites

Horst, mir ging es um Schärfe, nicht um Farbe. Kannst Du da etwas zu sagen? Sind die teuren Spezialmonitore auch in dieser Beziehung besser?

 

Elmar

 

Hi,

Elmar,

das Ganze ist ein Zusammenspiel aller Faktoren,

dass was Du mit dem Auge als Schärfe definierst, ist die bessere Detaillierung

vieler hier genannter Faktoren.

Und die richtigen DTP Monitore wie z.B. von Quato haben in diesen Belangen eben

ein "besseres Bild" dies läst sich alleine durch technische Erklärungen nicht erklären.....:)

zum Teil sind die gleichen Panels verbaut, nur eben mit anderen Zutaten.

 

Gruß

Horst

Link to post
Share on other sites

spielt nicht die verwendete Grafikkarte auch eine Rolle??

Bei einem digital angeschlossenen Display eigentlich nicht; da müssten schon ganze Bytes ausfallen, damit man einen Unterschied sieht. Das wäre dann aber kein Unterschied der Schärfe, sondern einfach ein kaputtes Bild.

Link to post
Share on other sites

Das verstehe ich leider nicht. Was bedeutet gemessene Pixeldichte?

Nicht „gemessen“ (obwohl man sie natürlich auch messen kann), sondern „in ppi gemessen“. „ppi“ heißt „pixel per inch“ – auf jeden Zoll gehen soundso viel Pixel, manchmal mehr, manchmal weniger. Daher können Displays mit derselben Pixelzahl eine ganz unterschiedliche Diagonale haben (und entsprechend unterschiedlich große Pixel).

Link to post
Share on other sites

z.b. schreibt mjh: jeder bildschirm hätte seine ganz eigenen pixel...so hatte ich mir das auch anfangs vorgestellt, so ist es aber nicht, wenn es eine hintergrundbeleuchtung gibt, die grundsätzlich das licht bereitstellt.

Das ist doch klar – dachte ich –, hat aber nichts mit Pixeln zu tun. Die gibt es natürlich dennoch, ganz gleich, wie die Hintergrundbeleuchtung aufgebaut ist. Aber es ist in diesem Zusammenhang eigentlich nicht nötig, die grundlegende Funktionsweise eines LC-Displays zu erklären (man kann das sicherlich auf Wikipedia nachlesen).

 

Der wesentliche Punkt ist vielmehr der, dass der Grafikchip heutzutage (meist) nicht mehr aus dem digitalen Pixelbild ein analoges Signal erzeugt, das das Display dann wieder digitalisieren müsste, um jedem Bildschirmpixel seine Farbe und Helligkeit geben zu können. Als der analoge Anschluss noch allgemein üblich war, konnte sich tatsächlich ein unscharfes Bild ergeben, wenn Grafikchip und Display aus dem Takt gerieten und das Display aus einem Stück Signal ein Bildschirmpixel formte, das tatsächlich der Rest des einen Pixels und der Anfang des nächsten Pixels war. Wenn die automatische Synchronisation des Signals nicht klappte, musste man die Phasen- und Frequenzeinstellung des Displays manuell ändern, bis das Bild scharf, streifen- und flimmerfrei war. Das habe ich allerdings zuletzt in den 90er Jahren des vergangenen Jahrhunderts machen müssen. Heutzutage nimmt das Display vom Grafikchip fertige digital spezifizierte Pixel an; die fehlerträchtige doppelte Wandlung von digital nach analog und wieder zurück nach digital entfällt.

 

zudem besteht jedes "pixel" eines bildschirms aus 3 kleinen subpixeln RGB..... (mal mit der lupe schauen).

Drei Leuchtpunkte pro Pixel, ganz richtig. Das hatte ich für bekannt gehalten, ist in diesem Zusammenhang aber auch irrelevant.

 

Auch Ausführungen zur Farbdarstellung sind zwar interessant, stehen aber in keinerlei Zusammenhang mit der Frage, warum man Schärfeunterschiede sieht.

Link to post
Share on other sites

vielleicht drücke ich mich wieder unsauber aus....:

michael: die bekannten sachen lass ich jetzt mal weg. ich behaupte trotzdem, daß den meisten micht klar ist, was es für bedeutung hat, wenn ihre rgb-pixel im schirm nicht wirklich additiv arbeiten (also nur z.b. rot luminanzgesteuert abgeben ) sondern der rotfilter (der für das rote pixel verantwortlich ist) den rotwert subtraktiv herstellt, indem er eben aus dem hintergrundlicht die komplementärfarben ausfiltert, damit man rot sieht. (das ist auch bekannt ;-) . da röhren (derzeit noch?) und auch led´s kein wirklihces gleichmäßiges tageslichtspektrum abgeben, gibt es bei dieser methode immer bereiche, wo die subtraktion auf den gleichen wert hinausläuft (obwohl er unterschiedlich sein müßte), weil das zur verfügung stehende spektrum der HG-beleuchtung zu ungleichmäßig ist.

die folge: tonwertmatsch. die folge: unschärfe.

 

jeder der mit kunstlicht sensoren belichtet, weiß um die problem des ungleichmäßigen spektrums. die filter sind natürlich angepaßt, aber es bleibt ein rest an tonwerten (vor allem bei billig-monitoren) der nicht wirklich darstellbar ist.

oder ist die technik jetzt soweit, daß die pixel wirklich jeden (!) tonwert darstellen können? wenn ja: wie? ich lass mich gern auf den neusten stand bringen. mein stand ist der s.o....es geht ja hier nicht um die ränder des farbraumes, sondern um zwischenräume. werden die bei den messungen z.b. überhaupt erfasst, oder werden die diagramme dort einfach interpoliert?

Link to post
Share on other sites

Vielleicht bin ich ja zu blöd, Michael. Wenn ich Dich richtig verstehe, müsste es so sein, dass zwei Monitor, die dieselbe Diagonale haben und dieselbe Pixelanzahl (also auch dieselbe Pixelgröße) gleich scharf sind. Das bedeutet, dass mein 24 Zoll Mac mit 1920x1200 Auflösung genauso scharf ist wie ein 24 Zoll Eizo mit 1920x1200 Auflösung. Richtig?

 

Elmar

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...