1. Ein 50Hz-Monitor arbeitet mit einer exakten Bildfrequenz von 50Hz, also 50 Halbbilder pro Sekunde aufbauen, bzw. 25 Vollbilder. Bitte melde dich an, um diesen Link zu sehen. siehst Du eine Erklärung dazu.
Es werden also abwechselnd die ungeraden und dann die geraden Zeilen geschrieben. Das ist halt die Geschwindigkeit, mit der die Computer früher das Bild generiert haben, die ans TV angeschlossen wurden. Das TV-System war so beim analogen System (bei uns, PAL-System).
Es gibt auch Computermonitore, die ein Bild schneller schreiben können. Wenn Du da nen ungeraden Teilerfaktor hast, kann halt mal was verloren gehen, oder nicht richtig dargestellt werden. Ich hatte einen Monitor, mit dem ich immer auf 120Hz geschaut hatte. Das war für die Augen viel entspannter (OK, ich hab auch dei DLP-Krankheit).
Wenn Du jetzt nen Monitor hast, der mit 75Hz arbeitet ist klar, dass dieser 1,5 Bilder schreibt, während der Computer 1 Bild schickt. Der Monitor ist schon am schreiben des zweiten Halbbildes (von Bild2), während der Computer aber schon Bild2 schickt. D.h. Der Computer sendet gerade die ungeraden Zeilen, der Monitor will aber die geraden schreiben. Da ist natürlich ein Konflikt.
Desweiteren dürften Lichtgriffel wohl auch nur mit einem echten 50Hz-Monitor funktonieren, da dieser ja abtastet, wann der Elektronenstrahl gerade vorbei kommt. Arbeitest Du nun mit 100Hz, so stimmt die ermittelte Position nicht, da der Monitor ja schon doppelt so weit ist, wie der Computer "denkt".
Beim Analogmonitor regt der Elektronenstrahl eine Leuchtschicht an, die nachleuchtet. Dadurch bleiben die Punkte bis zum nächsten "Besuch" quasi noch "stehen". Schnellere Monitorröhren leuchten kürzer nach.
2. Heutige Monitore arbeiten nicht mehr nach dem analogen Verfahren. RetroScaler & Co müssen den Elektronenstrahl simulieren und daraus virtuell ein digitales Bild bauen, welches sie dann dem Monitor übermitteln. Ja, man muss drauf achten, welchen Converter man sich da holt. Die Meinungen gehen da aber sehr auseinander. Dazu gibt es aktuell gerade wieder eine Diskussion hier. Ich habe mehrere Converter im Bereich von 30-100€ probiert und bin beim RetroScaler hängen geblieben. Der bringt mir das beste Bild. Allerdings kann es da auch Probleme geben. Mit dem C64 ist mir das noch nicht passiert, aber mit dem Plus4. Es gibt Situationen (zum Glück selten), in denen der Chip eine falsche Bildfrequenz erzeugt. Mein TV kommt dann mit dem HDMI-Signal nicht klar und sagt eine angebliche Auflösung von 1280x2 oder so ähnlich. Mein TV in der Küche kommt damit klar. Der billigste Converter hat das Problem nicht, aber das Bild ist absolut grauenvoll und kaum zu erkennen.
Es gibt auch Scaler für 300-500€. Wie die sind, kann ich nicht sagen. Ich vermute aber durchaus, dass diese noch etwas besser sind. Was die mit meinem Frequenzproblem machen, würde mich tatsächlich auch mal interessieren. Aber dafür kaufe ich mir keinen für so viel Geld.
3. Im Extremfall wie ich oben schon beschrieben habe, kann es tatsächlich passieren, dass ein schwarzer Bildschirm zu sehen ist. Aber das dürften doch eher die Ausnhame sein. Man merkt die Unterschiede eher in der Bildschärfe und farbigen Rändern an hohen Kontrastübergängen. Wenn ich den DVD-Recorder als Converter nutze, kommt z.B. gar keine Farbe mehr raus (dafür kein Frequenzproblem). Aber mit diesem Bild will man nicht wirklich arbeiten.
Im Endeffekt muss man scheinbar wirklich probieren, was einem am besten gefällt. Scheinbar ist ein Converter auch nicht an jeder Computer-TV-Kombination genauso gut. Jedes Computerboard unterscheidet sich vom nächsten und die TV sind auch nicht alle gleich.