Danke für Deine Antworten.
In der Regel arbeite ich beim Konvertieren immer mit meiner eigenen atomcode.vpl/.act/.acb/.aco, auch bei Project One, Multipaint und co. eingepflegt.
Im Prinzip ist es ja für die Farbenerkennung fast egal, solange man durchgängig die gleiche Palette verwendet. Bis auf die durch die "Hires"-Muster entstehenden "MC"-Mischfarben vielleicht.
In diesem Fall hatte ich das EGA-Bild in Photoshop vorbereitet, mehr Klarheit, Dynamik und Sättigung (daher kam auf dem runden Tisch der braune Fleck, der vorher nicht da war; wurde wieder weggepixelt).
Ok, verstehe. Du veränderst also das EGA-Bild im RGB-Modus vorher im Photoshop. Viele Variablen..
Das machst Du vor oder nach dem bilinearen Runterskalieren?
Ich reduziere das EGA Hires-Bild auf die 16-Farben EGA-Palette. Diese tausche ich dann gegen eine mit den C64 Farben. Die EGA Hell/Dunkel-Unterscheidung bei cyan und magenta fällt dabei jedoch leider weg. Mit diesem evtl. noch gestauchten und indizierten Hiresbild gehe ich in den Konverter, der die verwendete Palette "kennt". Durch die Umrechung Hires->MC werden einige der farblich bekannten Pixel teils nicht ganz so gut "erkannt" bzw. zwangsweise "gemischt". Bei Dither-Flächen sind resultierende Mischfarben ja kein Nachteill, bei Details geht schon mal der ursprüngliche Farbeindruck von "Highlights" flöten.
Durch das Palettentauschen und durch den Erhalt einiger im EGA-Original auch vorhandener Dithermuster sieht das Resultat imo mehr nach der EGA-Version aus.
Diese Methode hat aber sicher auch diverse Nachteile:
Die hell/dunkel-Unterscheidung der EGA-Farben cyan und meganta fällt aktuell unter den Tisch.
Die Dither-Muster, hier in MC, mag nicht jeder, besonders vermutlich TFT Benutzer mit großen Bildschirmen.
Die gleichmäßigen Muster werden in manchen Kombinationen Interferenzbalken ergeben, auch in MC. Ist beim C64 einfach so.
Durch das Dithern verbraucht man potentiell eine Farbe in der Kachel, die man für Details besser gebrauchen könnte.
Farben bei Details verschwinden zum Teil, schon pre-Color-Clash.
Das als BMP gespeichert und mit P1 importiert.
Die Importfunktion von Project One habe ich mir gestern kurz angeschaut. Die gibt's ja echt zig Optionen. Für mich zu viele, um damit bei 120 Bildern immer eine individuell beste Einstellung zu suchen.
Nur, um das Bild mit dem korrekten Pixelseitenverhältnis 1,875 darzustellen, also so, wie man es mit PAL sehen würde. Kann man in VICE ja auch einstellen. 2,0 bzw. 2:1 ist eigentlich zu breit. Die tatsächliche Pixelauflösung für ein Vollbild soll natürlich 320(160)x200 bleiben.
Solche Überlegungen würde ich bei gepixelten Bildern grundsätzlich nicht anstellen. Wenn die Vorlage ein Foto von realen Gegenständen ist, dann schon.
Imo haben Amiga und EGA ebenfalls kein PARs von 1.
Beim PAL-C64 werden die 320x200 Pixel mit einen realen Verhältbis von ziemlich genau 3:2 angezeigt. Die Pixel sind etwas höher als breit, das Bild wird also in der Breite etwas zusammengedrückt aussehen, wenn man bei der Vorlage von einem PAR von 1 ausgeht.
Nach meinem Verständnis bewirkt Dein Vorgehen genau das Gegenteil der gewünschten Entzerrung.
Du hast einen 320x96 Bereich ausgeschnitten und ihn auf 300x96 skaliert (das sind doch die gepixelten Bilder und keine Vice-Screenshots, oder?). In der Darstellung am C64 wird das Bild also 2x in der Breite zusammengedrückt. Einmal durch das Skalieren, einmal durch das PAR.
Wenn man das Entzerren möchte, müsste man einen 300x96er Bereich aus dem Original schneiden und diesen dann auf 320x96 in die Breite ziehen. Somit heben sich die Skalierung und das PAR auf.
Oder man schneidet einen 320x102er Bereich aus und staucht diesen dann auf 320x96 zusammen.
Zu lange, wenn man bereits an mehreren Projekten arbeitet und noch vieles vorhat.
Das geht mir leider ähnlich.
Allenfalls inhaltsbasiert, also Bereiche zusammenrücken.
Hab ich gestern kurz ausprobiert und konnte in meinem Beispiel keinen nennenswerten Unterschied feststellen zum stumpfen Skalieren hinsichtlich "sieht weniger gestaucht aus". Vermutlich, weil es gepixelt ist und das Motiv bis zum (über den) Rand geht. Wenn da im Außenbereich ein "Rahmen" aus Himmel, Wiese, Wasser... wäre, könnte das inhaltsbasierte Saklieren natürlich schon was bringen.
Bei dem Beispiel war das normale Skalieren besser, weil durch inhaltsbasiert einige Konturen im Zentrum weginterpoliert wurden.
mfg Tobias