Posts by ZeHa

    Habe gerade von meinem Font, den ich u.a. in FROGS verwendet habe, nun eine "Fat-Version" gemacht:


    Hier die urspruengliche Version:


    Und hier die Fat-Version:


    Eine Besonderheit bei diesem Font ist, sowohl in der alten als auch in der neuen Version, dass alle Buchstaben gleich viel Platz verbrauchen. Das sieht man im Original besonders beim I und T, diese sind nicht ganz symmetrisch, aber es ergibt sich dadurch ein "volles" Schriftbild. In der fetten Version eruebrigt sich das gluecklicherweise. Dafuer gibt es da andere "Problemzonen", besonders beim M und W sowie auch beim N musste ich etwas "kuenstlerisch" taetig werden. Auch das X und V waren anfangsetwas problematisch, das konnte letztendlich aber doch recht simpel und ueberzeugend geloest werden wie ich finde.

    Mancopter. Das motiviert mich irgendwie nicht so richtig das Spiel.

    Aber das Spiel ist doch total cool und spiele ich zwischendurch mal immer wieder.

    Also als erstes is mir die Musik negativ aufgefallen, dann nach Spielstart dachte ich: "Dazu noch die grauenhafte Steuerung, das wird das bestimmt nichts, was ich länger spiele."

    Aber interessanterweise hat's nach ein paar Versuchen immer mehr Spass gemacht und motiviert noch ein bißchen weiter zu kommen. :)

    Ich finde Mancopter irgendwie "kurios". Die Idee ist eigentlich total charmant und hat so ein bisschen was von 18. Jahrhundert; Menschen sitzen in Helikopter-Fahrraedern und ueberqueren damit das Wasser, und dazu eine Musik, die irgendwie nach Grandiosheit, Fortschritt, Hoffnung und Menschheitstraum klingt. Ich weiss nicht ob der Entwickler das genau so im Sinn hatte, aber fuer mich kommt das irgendwie so rueber.

    Die internen GPUs von Intel, wie sie Apple zuvor in vielen Geräten verbaut hatte, konnte der M1 ja an die Wand nageln. Ich bin aber gespannt, wie sich der M1X (oder M2) anstellt, denn er muss gegen dedizierte AMD-Grafikeinheiten antreten, wie sie Apple z.B. in den besseren 16"-MBPs und iMacs verbaut hat. Ich wäre ja schon froh, wenn er da einigermaßen mithalten kann. Bis jetzt hat Apple ja nur die ARM-Einstiegsklasse vorgestellt – jetzt kommt es darauf an, ob Apple auch bei den besseren CPUs und GPUs die Erwartungen erfüllen kann oder ob sie jetzt schon einknicken.

    Mir stellt sich allerdings auch die Frage, in welchen Situationen man die Grafikeinheit auf dem Apple ueberhaupt ausspielt. Er ist ja nicht so der typische Gaming-Rechner, und die Spiele die es so fuer iPad und iPhone gibt, duerften sich halt im typischen 3D-Mobile-Games-Sektor befinden, also nix bahnbrechend anderes als das, was man (ich) von Android so kennt. Von daher denke ich, dass wenn die Grafikeinheit im M1 dem entspricht, was man von typischen Smartphone-SoCs gewohnt ist, sollte es ja eigentlich erstmal keine Probleme geben, oder? Oder nutzen die ganzen Video-Tools usw heftig die GPU? Oder gibt es inzwischen mehr Gaming auf dem Mac?

    Es ist halt auf jeden Fall ein Zusammenspiel aus mehreren Dingen. Allein schon der Fernseher oder Monitor, an den das Raspi angeschlossen war, kann einen grossen Unterschied machen, und es haengt halt auch von den Spielen ab. Ich wuerde auch mal behaupten, bei einem Grossteil der Spiele faellt das nicht so sehr ins Gewicht, aber bei manchen eben schon, und wenn man dann noch einen Fernseher hat, der lagt, kann das schon einen Unterschied machen.


    Ich spiele auch oft emuliert und merke in den allermeisten Faellen nicht wirklich etwas. Allerdings meist am PC (da gibt es zumindest nicht den Lag den viele Fernseher haben) oder per Beamer, und mein Beamer erzeugt ebenfalls keinen Lag.

    Naja ich meinte das jetzt gar nicht so direkt auf ein Geraet bezogen, sondern eher insgesamt, dass Lag eben doch spuerbar ist oder sein kann und dass er das Spielgeschehen durchaus beeintraechtigen kann, weil es eben auch Leute gibt, die gerne behaupten das mit dem Lag sei ein Mythos und diejenigen dann geradezu als "Esoteriker" hinstellen, die den Lag bemerken :)

    Also ich habe mal Boulder Dash auf einem TheC64 Mini angezockt und bin staendig gestorben. Der Lag war immens. Es haengt aber auch davon ab, wie gut man ein Spiel kennt. Wer noch nie zuvor Boulder Dash gespielt hat, kommt damit vielleicht eher zurecht als jemand, der das schon zigmal gespielt hat und die "Reflexe" einfach drin hat sozusagen.

    Ja, das gibt es nicht erst seit gestern, so war das auch nicht gemeint. Aber es ist eben mehr und mehr im Kommen. Frueher hatten das halt hauptsaechlich die "Office-Rechner", waehrend man heute durchaus mit einer CPU-integrierten GPU auch etwas anspruchsvollere 3D-Sachen zocken kann. Und bei Handys, Tablets und anderen Geraeten mit SoC natuerlich genauso.


    Mitte der 90er fing es halt an, dass man eine 3D-Karte "brauchte", deshalb die 2,5 Jahrzehnte. Aber in den letzten 10 Jahren hat sich auch im Bereich der integrierten GPU was getan. Mein letztes Laptop von 2014 mit Intel-GPU konnte Minecraft (zum damaligen Zeitpunkt) absolut fluessig in FullHD laufen lassen. Mein heutiges von 2020 mit AMD Ryzen CPU und darin integrierter GPU kann noch mehr. Es ist halt eine Entwicklung, und mit "vermehrt wieder in der CPU untergebracht" meine ich nicht erst seit dem Apple M1, sondern eigentlich schon die letzten 10 Jahre.

    1986 war ein Grafik-Wettbewerb in der 64er mit einigen ziemlich guten Grafiken

    Hehe, ich kann mich dran erinnern die Bilder auf einer 64er-Disk angeschaut zu haben, speziell dieses hier ist mir im Gedaechtnis geblieben:


    pasted-from-clipboard.png


    Damals (als Kind) war ich total beeindruckt davon, weil es irgendwie so "real" aussah, durch die Schattierungen. Ich hab damals auf dem Dachboden den C64 gehabt und bin ans andere Haus-Ende gegangen, um das Bild aus der Entfernung zu betrachten, um die Pixel nicht mehr zu sehen, aus Neugier, ob es dann wirklich wie ein Foto aussieht.


    Heute muss ich doch irgendwie schmunzeln wenn ich das Bild sehe, das wird halt ein S/W-Scan gewesen sein, der noch durch einen farbigen Hintergrund ergaenzt wurde. Ich glaube ich muss mir das nochmal auf 'nem Roehrenbildschirm ansehen, vielleicht wirkt es dann wieder etwas realer als hier in PNG-Form :D


    Ok das war ein wenig offtopic, aber diese Anekdote musste ich loswerden...



    Nach wie vor beeindruckend finde ich das Bild "Eisvogel" und auch "Fantasy" hat mir damals wie heute gut gefallen. Ich glaube ich muss mir echt mal die gesamte Diashow wieder reinziehen...

    Ist halt mal wieder Definitionssache, was man mit dem Wort "Meilenstein" eigentlich aussagen moechte.


    Ein Meilenstein fuer Apple ist es ohne Zweifel, wenn sie von Fremd-CPUs auf Eigenentwicklungen umsteigen. Ob es ein Meilenstein fuer die PC/Desktop-Geschichte ist, wird sich noch zeigen.

    Naja vielleicht muß man auch bedenken dass wir die letzten 2,5 Jahrzehnte dedizierte Grafikkarten hatten, und nun die Grafiklösung vermehrt wieder in der CPU untergebracht wird. Das ist ja allein schon von der Grundarchitektur ein Unterschied, womöglich hat es damit zu tun, dass inzwischen der "Shared Memory" wieder sinnvoller ist als getrennter Speicher. Mit der Geschwindigkeit der Speicheranbindung könnte es ebenfalls zu tun haben. Bin aber da kein Experte und stelle nur mal mögliche Möglichkeiten in den Raum.

    Also nur mal ins Blaue hinein gesprochen, bei einem richtigen Rechner mit Betriebssystem und allem Pipapo koennte ich mir vorstellen dass USB-maessig weitaus mehr passiert als auf dem ARM-Chip des MiSTer/SiDi-Systems, wo der ARM sich ja ausschliesslich um Kommunikation mit USB-Geraeten und Simulation von Massenspeicher kuemmern muss. Da wird ja kein komplettes Linux drauf laufen oder sowas. Von daher waere es durchaus denkbar, dass die USB-Latenz dort nochmal geringer ist (aber das ist jetzt wie gesagt nur 'ne Vermutung).