Beiträge von 64erGrufti im Thema „Bräuchte Erklärung zu der 50hz Monitor Voraussetzung“

    Ich würde sagen "es gibt keine V-Zeilen".

    Dann schau Dir mal die PAL-Spezifikation an. Da gibt es ganz klare Zeilen. Aber keine klaren Spalten, wobei die Lochmaske durchaus auch horizontale Pixel interpretieren lässt. Aber Du hast ja gar nicht die Möglichkeit, eine Zeile etwas weiter nach unten oder oben zu verlegen. Der vertikale Abstand ist ja fest gelegt. Du könntest höchstens nur ein Halbbild produzieren, das andere komplett weg lassen. Dürfte aber blöd aussehen und ich weiß auch nicht, ob das technisch möglich wäre. Horizontal sieht das wie gesagt durch die analoge Modulation etwas anders aus. Allerdings kann man da auch nur im Rahmen der Lochmaske agieren.

    In den Austastlücken lässt sich da sicherlich noch was variieren. Durch die Sync-Signale kann dann die nächste sichtbare Zeile wieder passgenau projiziert werden.

    Doch, die können auch ein Problem sein. Zwar wird jeder hierzulande vertriebene Fernseher mit 50Hz klarkommen, aber vereinzelt trifft man auf PC-Monitore, die ein 50Hz-Signal verweigern. Ein Beispiel dafür ist zB ein Asus XG16AHP, der laut Spec 60-144Hz Vertikalfrequenz unterstützt und darunter leider wirklich nur "Out of range" meldet.

    Das stimmt. 50Hz für einen Computermonitor ist eher ungewöhnlich. Die fingen eher so bei 60Hz an, wurden aber häuftig mit 75Hz betrieben.

    Nein, die simulieren da keinen Elektronenstrahl.

    Quasi schon. Das Bild kommt vom Computer in Form von Elektronenstrahlmodulationen. Diese müssen in ein digitales Bild umgewandelt werden. Der Scaler muss also schauen, wo befindet sich der Elektronenstrahl im Moment und welcher Pixel muss dafür gezeichnet werden. Da es keinen echten Elektronenstrahl gibt, muss der Scaler also so tun als hätter er einen, ihn also simulieren.

    Also müsste dem Beispiel des modernen Monitors oben entsprechend dann "Signal Frequency 15 - 225khz(H) / 48 - 180 Hz(V)" stehen damit das passt?

    Da die Monitore ja nach digitalem Prinzip arbeiten, kann man das so gar nicht vergleichen. Das ist ein völlig anderes Verfahren. Deshalb braucht man ja Converter.

    Da aber der Retroscaler2x eben diese Hochrizontalfrequenz verdoppelt, würde aber wieder der ursprüngliche Monitor "Signal Frequency 30 - 225khz(H) / 48 - 180 Hz(V)" passen?

    So kann man das nicht sehen. Früher hatte ein TV 768x576 Punkte. Wobei die horizontalen Punkte (768) nicht so exakt festgelegt sind. Der Elektronenstrahl bewegt sich einfach konstant übers Bild dessen Stärke und wird vom Videosignal gesteuert. Man darf nicht vergessen, das war analog. Analog bedeutet, nicht quantisiert, also keine festen Zahlen und ich kann so weit rein zoomen, wie ich will, es wird nicht "Pixelig". Bei Digital habe ich exakte Punkte. Dazwischen gibt es nicht!

    Die Zeilen waren aber tatsächlich festgelegt. Da wurden 576 Zeilen abgefahren (siehe mein Link oben). Wenn man sich nun die Auflösungen heutzutage ansiegt, so sind die Auflösungen der Bildschirme weitaus höher. Also muss das aus dem Analogsignal generierte Digitalbild irgendwie "aufgeblasen" werden. Alternative wäre eine 1:1-Darstellung in der Mitte. Aber dann hast Du af dem großen Monitor ein kleines Bild mit großem schwarzen Rand.

    Dieses "Aufblasen" kann man nun mit verschiedenen Methoden machen. Wenn Du 2 Punkte nebeneinander hast, einer hat den Wert 1, der nächste 0. Du möchtest aus diesen 2 Punkten nur 4 Punkte machen, kannst Du es einfach machen und interpolieren. Dann hast Du die Punkte 1, 0.5., 0, 0. Das führt zu einem unscharfen Rand. Der RetroScaler verdoppelt die Punkte einfach. Du hast dann 1, 1, 0, 0. Das ist immer noch scharf, dafür hast Du größere "Blöcke".

    Doof gefragt. (H) ist Hochrizontal und (V) ist Vertikal?

    Genau

    Also H Zeilen wiederholen sich schneller wie V Zeilen? Und beides ist zusammen das Bild?

    Es gibt keine "H-Zeilen". Vertikal sind die Zeilen, horizontal hast Du nur einzelne Bildpunkte der Zeile. Auch das sieht man in dem obigen Link schön.

    Daraus folgt, die V-Frequenz entspricht quasi der Bildfrequenz, die H-Frequenz die die Frequenz, in der einzelne Punkte gezeichnet werden. Diese ist natürlich um den Faktor Zeilenzahl höher. (in jeder Zeile werden ja genauso viele Punkte gezeichnet).

    Um das Thema auf die Spitze zu treiben, wie ist das bei modernen TVs? zb so ein OLED Sony 4k TV die ja meist auch mit hohen Hz angegeben werden.

    Das ist die Geschwindigkeit, mit der Bilder nacheinander angezeigt werden können. Das ist aber nicht immer ein wahrer Messfaktor.

    Durch die Digitalisierung erzeugst Du eine Verzögerung. Früher wurde das Bild vom Computer direkt auf den Monitor "gezeichnet" und Du hast es direkt gesehen. Heute wird es im Converter auf die virtuelle Leinwand "gezeichnet" und erst wenn das Bild fertig ist, komprimiert und den TV geschickt. Dieser muss es wieder dekomprimieren und darstellen. Das dauert auch noch eine gewisse Zeit. Für Spiele ist wichtig, dass diese gesamte Zeit möglichst kurz ist. Die Zeit, in der das virtuele Bild geschrieben wird, ist durch das TV-Format festgelegt und kann nicht geändert werden. Der Converter muss nun also schnell komprimieren, die Daten an den TV übermitteln und dieser wieder schnell verarbeiten und anzeigen. Dauert das zu lange führt es dazu, dass Du bei Spielen, wo Du schnell reagieren musst, auf ein Bild reagierst, der Computer aber schon weiter ist als Du siehst, also zu langsam bist. Das macht dann keinen Spaß.

    Es ist also die Geschwindigkeit des Converters und des Bildschirms extrem wichtig. Wenn Du einen langsamen Bildschirm hast, kann der Converter noch so schnell sein, Du wirst nicht glücklich. Theoretisch sollte diese hohe Frequenzangabe der TV ein Messfaktor für diese Verarbeitungsgeschwindigkeit sein, ist es aber oft nicht. Bei einem Film ist es egal, ob Du den Inhalt 0.5s später präsentiert bekommst, aber schnelle Bewegungen trotzdem super dargestellt werden. Beim Computerspiel ist das der Tod.

    1. Ein 50Hz-Monitor arbeitet mit einer exakten Bildfrequenz von 50Hz, also 50 Halbbilder pro Sekunde aufbauen, bzw. 25 Vollbilder. Bitte melde dich an, um diesen Link zu sehen. siehst Du eine Erklärung dazu.

    Es werden also abwechselnd die ungeraden und dann die geraden Zeilen geschrieben. Das ist halt die Geschwindigkeit, mit der die Computer früher das Bild generiert haben, die ans TV angeschlossen wurden. Das TV-System war so beim analogen System (bei uns, PAL-System).

    Es gibt auch Computermonitore, die ein Bild schneller schreiben können. Wenn Du da nen ungeraden Teilerfaktor hast, kann halt mal was verloren gehen, oder nicht richtig dargestellt werden. Ich hatte einen Monitor, mit dem ich immer auf 120Hz geschaut hatte. Das war für die Augen viel entspannter (OK, ich hab auch dei DLP-Krankheit).

    Wenn Du jetzt nen Monitor hast, der mit 75Hz arbeitet ist klar, dass dieser 1,5 Bilder schreibt, während der Computer 1 Bild schickt. Der Monitor ist schon am schreiben des zweiten Halbbildes (von Bild2), während der Computer aber schon Bild2 schickt. D.h. Der Computer sendet gerade die ungeraden Zeilen, der Monitor will aber die geraden schreiben. Da ist natürlich ein Konflikt.

    Desweiteren dürften Lichtgriffel wohl auch nur mit einem echten 50Hz-Monitor funktonieren, da dieser ja abtastet, wann der Elektronenstrahl gerade vorbei kommt. Arbeitest Du nun mit 100Hz, so stimmt die ermittelte Position nicht, da der Monitor ja schon doppelt so weit ist, wie der Computer "denkt".

    Beim Analogmonitor regt der Elektronenstrahl eine Leuchtschicht an, die nachleuchtet. Dadurch bleiben die Punkte bis zum nächsten "Besuch" quasi noch "stehen". Schnellere Monitorröhren leuchten kürzer nach.

    2. Heutige Monitore arbeiten nicht mehr nach dem analogen Verfahren. RetroScaler & Co müssen den Elektronenstrahl simulieren und daraus virtuell ein digitales Bild bauen, welches sie dann dem Monitor übermitteln. Ja, man muss drauf achten, welchen Converter man sich da holt. Die Meinungen gehen da aber sehr auseinander. Dazu gibt es aktuell gerade wieder eine Diskussion hier. Ich habe mehrere Converter im Bereich von 30-100€ probiert und bin beim RetroScaler hängen geblieben. Der bringt mir das beste Bild. Allerdings kann es da auch Probleme geben. Mit dem C64 ist mir das noch nicht passiert, aber mit dem Plus4. Es gibt Situationen (zum Glück selten), in denen der Chip eine falsche Bildfrequenz erzeugt. Mein TV kommt dann mit dem HDMI-Signal nicht klar und sagt eine angebliche Auflösung von 1280x2 oder so ähnlich. Mein TV in der Küche kommt damit klar. Der billigste Converter hat das Problem nicht, aber das Bild ist absolut grauenvoll und kaum zu erkennen.

    Es gibt auch Scaler für 300-500€. Wie die sind, kann ich nicht sagen. Ich vermute aber durchaus, dass diese noch etwas besser sind. Was die mit meinem Frequenzproblem machen, würde mich tatsächlich auch mal interessieren. Aber dafür kaufe ich mir keinen für so viel Geld.

    3. Im Extremfall wie ich oben schon beschrieben habe, kann es tatsächlich passieren, dass ein schwarzer Bildschirm zu sehen ist. Aber das dürften doch eher die Ausnhame sein. Man merkt die Unterschiede eher in der Bildschärfe und farbigen Rändern an hohen Kontrastübergängen. Wenn ich den DVD-Recorder als Converter nutze, kommt z.B. gar keine Farbe mehr raus (dafür kein Frequenzproblem). Aber mit diesem Bild will man nicht wirklich arbeiten.

    Im Endeffekt muss man scheinbar wirklich probieren, was einem am besten gefällt. Scheinbar ist ein Converter auch nicht an jeder Computer-TV-Kombination genauso gut. Jedes Computerboard unterscheidet sich vom nächsten und die TV sind auch nicht alle gleich.