Hello, Guest the thread was called107k times and contains 1748 replays

last post from Hoogo at the

Neuer Retro-Computer im 8-Bit Style

  • wenn man Tricks und Hardwarebesonderheiten scheut?

    Das hat so pauschal keiner gesagt. Aber man sollte bei Neuentwicklungen zwischen sinnvollen und total sinnlosen Handicaps unterscheiden. Sinnlose Hürden sind m.E. jene, deren Überwindung nichts mit der eigentlichen Spielentwicklung zu tun haben, sondern einen quasi nur beschäftigen, das System so zu ergänzen, wie man es eigentlich haben wollte. Typisches Beispiel ist ein Schnelllader. Habe ich damals 3-4 Monate mit verbracht, unter anderem, aber Spiele-Projekte wurden nicht fertig. Ich scheue mich keineswegs davor; nur brauche ich dasselbe nicht noch mal mit einem neuen System. Dafür hat man bereits die Originale von damals. Würde ich mich davor scheuen, würde ich mich ja nicht Jahrzehnte lang damit befassen.


    Ein neues System sollte deswegen vornehmlich nur die sinnvollsten Beschränkungen haben, die ein typisches 8bit-System ausmachen, und dann kann man sich auf dieser Basis mit den wirklich wichtigen Tricks und Algorithmen rund ums eigentliche Projekt befassen, Action, Logik, K.I. und Physik anstatt Schnelllader, VSP-Gedöns und Overlay-Gefrickel. Es ist ja nicht so, dass einem auf einem durchdachten System mit bspw. 2Mhz und 128k, das so designt ist, dass man darauf ausschließlich zielorientiert am eigentlichen Spielgeschehen programmieren kann, gleich alles in die Hände fällt. Es wäre lediglich der Schwerpunkt besser ausgerichtet, und der Wettbewerbsfaktor würde genauso bestehen. Es würde der Neuerscheinungs-Frequenz und der Vielfalt der Ergebnisse eher zugute kommen, wenn das System zugänglicher und weniger umständlich zu handhaben wäre.

  • Neuer Retro-Computer im 8-Bit Style


    Das wäre eine sinnvolle Überlegung für ein wirklich neuen 8-bit-Rechner.
    Das wäre nicht nur 8-bit 'Retro', sondern sogar eine Weiterentwicklung was sogar an der Leistung damaliger 16-bit heranschleicht.
    Erst recht wenn man das mit ca. 4 MHz betreiben könnte.

    OT: ich weiß ja nicht, wie das andere handhaben, aber es ist mir in den meisten Fällen zu zeitaufwendig, einen Video von 88 min anzuschauen, nur um zu wissen, um was es darin geht. ;)


    Falls sich einer durchgekämpft hat, wäre ich über eine kurze schriftliche Zusammenfassung dankbar. :)

  • OT: ich weiß ja nicht, wie das andere handhaben, aber es ist mir in den meisten Fällen zu zeitaufwendig, einen Video von 88 min anzuschauen, nur um zu wissen, um was es darin geht. ;)
    Falls sich einer durchgekämpft hat, wäre ich über eine kurze schriftliche Zusammenfassung dankbar. :)

    Es wird da halt sehr anschaulich erklärt wie man locker 2 - 32 MB Arbeitspeicher mit einem 6502 verwalten kann mit eine sehr kostengünstige Hardware hack der sogar einfacher ist als die gängige MMU bzw. Bankswitcher.
    Mit dem System ist sogar Multitasking möglich. Ich weis das das Video lang ist, aber es lohnt sich wirklich.


    Add.:
    Außerdem wäre es ein Schritt vorwärts statt ein Schritt seitwärts, was entwicklung im 8-bit-Bereich angeht.

  • Es wird da halt sehr anschaulich erklärt wie man locker 2 - 32 MB Arbeitspeicher mit einem 6502 verwalten kann mit eine sehr kostengünstige Hardware hack der sogar einfacher ist als die gängige MMU bzw. Bankswitcher.Mit dem System ist sogar Multitasking möglich. Ich weis das das Video lang ist, aber es lohnt sich wirklich.


    Add.:
    Außerdem wäre es ein Schritt vorwärts statt ein Schritt seitwärts, was entwicklung im 8-bit-Bereich angeht.

    Vielen herzlichen Dank für die Beschreibung! :thumbup:


    Da werde ich bei Gelegenheit mal reinschauen, klingt interessant.

  • Mal ehrlich: so eine kleine primitiv-MMU macht das Coden auf dem System doch nur frickliger. Da sind mir ja noch die Segmentregister vom 808x/Realmode lieber.
    Für meinen Geschmack ist 16 Bit schon "retro" genug. Ich glaube, das Problem ist, dass viele mit "16 Bit" die höhere Abstraktion von der Hardware verbinden, die
    mit den 68000er Betriebssystemen möglich wurde (Mac, ST, Amiga). Aber man kann ja ein 16 Bit System auch close to the metal auslegen.


    Ich finde gerade diesen FPGA Bastelrechner interessant: https://hackaday.io/project/162876-lion-fpga-cpucomputer
    Die Specs haben genug Luft für Spielchen über C64 Niveau, ohne dass es schon zu sehr in Reichtung ST/Amiga geht.

  • In einem anderen Thread wurden das Thema auch nochmal aufgegriffen. Die wichtigsten Pro-Statements, die dieses Thema betreffen, habe ich hier mal zusammengefasst:


    Geh davon aus, daß, sobald eine 32-Bit-Architektur auftaucht, jemand versuchen wird, irgendein Linux (notfalls auch ohne MMU) darauf laufen zu lassen. Im Handumdrehen entsteht dadurch ein OS, welches von der Komplexität her sich an modernen Systeme orientiert, so daß die Unterschiede zunehmend verschwinden. Der Raspberry Pi ist so ein Fall. Gedacht war er als Lerncomputer, doch um ihn benutzen zu können, muß man zuerst das moderne Betriebssystem lernen geradeso wie beim PC. Wenn aber die Bedienung prinzipiell gleich ist und auch die gleichen Programmiersprachen erhältlich sind und das Ergebnis sich kaum vom PC unterscheidet... Wozu braucht man dann einen Pi? (Ja, man braucht ihn z. B. für Hardwarebasteleien, aber darum geht es hier nicht.)

    Das Feeling von damals[tm] war ja: Einschalten und loslegen. Aber darüber hinaus auch: Verstehen, was passiert. Wissen, wie der Prozessor funktioniert. Direkt auf die Hardware zugreifen ohne einen Haufen von Abstraktionslayern dazwischen. Heutige PCs mögen wieder schneller starten, so daß man nicht lange warten muß, bis die IDE bereit ist, aber wirklich verstehen, was da genau abläuft, dürfte kaum noch jemand.





    Wie ich schon sagte, soll man den neuen Homecomputer "mögen", wie wir damals unsere Homecomputer "mochten". Dafür ist das "wie" ganau so wichtig, wie das "was". Heute mehr denn je. Ein Auto (ja, ein Auto-Vergleich) verkauft sich auch nur ganz wenig über seine Motorleistung, dafür um so mehr über Emotionen – und die bilden sich aus Optik, Haptik, Marke, Geruch, Sound usw. Die Specs sind heutzutage austauschbar. Deswegen wäre für diesen neuen Homecomputer eine eigene Hardware (Gehäuses mit irgendwas drin) extrem wichtig.


    Natürlich gäbe es auch einen Emulator, den man auf einem beliebigen PC laufen lassen könnte, um Spiele und Mini-Anwendungen FÜR die kleine Kiste zu entwickeln – aber das wäre dann eher für die gedacht, die schon Profis im Programmieren sind.


    Man muss nicht das Ei des Kolumbus erfinden, um ein paar-zehntausend (oder mehr) Stück davon unters Volk zu bekommen. Es verkauft sich noch viel größerer Blödsinn. Nur meine ich, dass mein Vorschlag das Erfolgversprechendste unter den vielen Retro-irgendwas-Geräten/Software-Dingens sein könnte, einfach, weil es ein stimmiges Konzept wäre. Es würde eben nicht nur Retro-Gamer abholen und vor allem nicht nur 80er-Jahre-Nostalgiker (die irgendwann wegsterben werden und auch jetzt schon überversorgt sind mit Retro-Kisten). Die meisten der aktuellen Retro-Geräte (-Konzepte) setzen vorwiegend auf Nostalgie (z.B. Mega65, TheC64 ...) – das wäre mir zu wenig und auch zu wenig nachhaltig.


    Mein Konzept ist auch nicht extrem weit entfernt von dem des 8-Bit-Guys (von dem ich glaube, dass sein Dream-Computer mit Abstand die größten Stückzahlen unter den Retro-Kisten haben wird). Es unterscheidet sich aber in einigen zentralen Punkten: Obwohl beide Ideen den einfachen Einstieg in die Programmierung forcieren wollen, setzt der 8-Bit-Guy auf Commodore BASIC, ich nicht. An der Stelle will ich ein moderneres Konzept, eine Mini-IDE mit moderner Programmiersprache, wie es der PICO-8 vormacht – aber abgespeckt für eine deutlich leistungsschwächere CPU. Dann ist beim Commander X16 das Gehäuse wahrscheinlich eher nebensächlich, bei mir hingegen von größerer Bedeutung – für die wichtigen Emotionen und die Bindung zum Gerät. Und dann setzt der X16 stark auf Legacy-Anschlüsse, ich nicht – ich will u.a. 8 Bluetooth-Controller und Anschluss an moderne TV-Geräte (und damit auch 16:9 (z.B. hochskalierte 360 x 200 px o.ä.) oder notfalls 16:10-Darstellung).


    Geh davon aus, daß ein moderner Laptop in der Lage ist, ein System mit den von mir genannten Eigenschaften (32 Bit, ca. 8 Mhz usw.) zu emulieren, ohne daß ein Kern andauernd unter Vollast steht und die Lüfter aufheulen läßt. (Persönlich liebe ich ruhige PCs...) WinUAE demonstriert, wo die Grenze liegt in der Emulation. Je nach dem, was für einen Rechner Du nimmst, ist dann bei 30 oder 50 MHz Schluß. Mehr geht nicht. Nebenbei: Einen großen Teil der Emulationsleistung verbraucht auch die Grafik. Umso komplizierter die Videoausgabe (viele bunte Farben und Sprites und Copperlisten etc), umso aufwendiger die Emulation. Auch dies wäre ein triftiger Grund, bei der Definition die Eigenschaften der Videoausgabe nicht zu hoch zu schrauben. Man schaue sich nur mal an, wieviel Umstand es macht, in WinVice die Sprites zu emulieren mit ihrer Hintergrund-Priorität sowie der Kollisionserkennung.

    Kurz: Möchte man wirklich eine virtuelle Maschine, die nach Möglichkeit auf mehreren modernen Geräten läuft (PC, Smartphone, Tablet, Pi), ist man bei der von mir genannten Spezifikation einigermaßen auf der sicheren Seite. Zusätzlich wäre eine Umsetzung auf FPGA-Basis kostengünstig möglich (25-30 Euro, wie gesagt).


    Die Sache hat nur einen Haken: Wettbewerb. Kinder und Jugendliche vergleichen sich mit anderen. Das sind zunächst die anderen Kinder. Da kann man dann noch besser sein. "Ich kann besser Klavier spielen als der Willi..." ist ein erreichbares Ziel. Doch dann vergleichen sie sich mit anderen aus der großen weiten Welt, und aus dem Gefühl des Besserseins wird ein "Ich werde niemals so gut spielen können wie der Vladimir Horowitz". Das ist der Punkt, an dem die Ideale zusammenbrechen, das Kind zum Erwachsenen wird und seriös und realistisch und allen Leuten erzählt "Wer Visionen hat, soll zum Arzt gehen."

    Setzt man Jugendliche an eine IDE und sagt ihnen, sie können damit Spiele programmieren für ihr Handy, werden sie zuerst sagen "Oh, wie toll", danach aber erkennen sie sehr schnell, daß sie mit den professionellen Teams aus Programmierern, Grafikern, Musikern etc und deren kommerziellen Produkten, die sie tagtäglich in Massen konsumieren, in keinster Weise mithalten können, und die Motivation sinkt ins Bodenlose.

    Je aufwendiger die Hardware, umso weiter und unerreichbarer ist das Ziel. Einem Jugendlichen solch ein Ziel zu präsentieren, gleicht einem didaktischen Todesstoß. Sind die "Hardware"-Möglichkeiten aber von vornherein beschränkt, bekommt die gleiche Person bei gleicher Leistung doch eher ein Gefühl von "Ich habe was geschafft".


    Also wenn keine Tastatur dabei ist, sondern man eine Bluetooth-Tastatur benoetigt, dann waere das meiner Meinung nach schon wieder keine "sexy"-Loesung sondern eher eine "Frickel"-Loesung... was ist dann der Sinn der externen Hardware, wenn keine Tastatur integriert ist?


    Ich sehe das einfach als guten Kompromiss an. Zum einen verteuert die Tastatur-Gehäuse-Lösung die ganze Sache extrem. Ich spreche hier von Verdoppelung oder Verdreifachung (Commander X16 = 100$, Mega65 = 600$ (größenordnungsmäßig)). Zum anderen ist ein Tastatur-Gehäuse unpraktisch. Ich würde immer versuchen, den Computer in der Nähe des Bildschirms zu platzieren (Funk-Tastatur ist einfacher/lag-ärmer als Funk-Bildausgabe) und im Wohnzimmer wäre das halt nicht der Couch-Tisch (wo ich das Keyboard verorten würde). Zudem müsste man sich keine großen Gedanken bzgl. der Lokalisierung (je Sprache neue Keycaps) machen. Der Computer kann trotzdem cool aussehen – es wäre vielleicht ein grüner Würfel oder ein Plüschtier oder eine beleuchtete Glas-Stele oder was auch immer. Um zusätzlich ein Verstecken der Hardware zu "unterbinden", könnte man sie mit Zusatz-"Funktionen" (z.B. LED-Lichteffekten) versehen. Ich finde z.B. meinen PowerMac G4 Cube oder auch die eine oder andere Spielkonsole sehr cool – auch ohne Keyboard. Und wer noch 39 Euro drauflegen will, bekommt eine optisch passende Tastatur (in grün, Plüsch oder Plexi) dazu. ;) (aber du musst das natürlich nicht gut finden)


    das wäre halt wirklich die alte Homecomputer-Idee mit ein wenig Nostalgie – aber eben nicht zu viel davon. Ich glaube, das würde auch noch in 20 Jahren funktionieren, wenn wir unser Hobby teilweise schon aufgeben mussten. Denn Klötzchen-Grafik hat auch ohne Nostalgie seine Vorteile (schnell erstellt, auch Anfänger/Laien bekommen was hin) und der Rest ist durchaus modern. Und die Homecomputer-Idee des Auspacken/einschalten/loslegen wäre damit nach wie vor gegeben.


    Der kleine Computer könnte statt einiger LEDs ein niedrig auflösendes LC- oder OLED-Display eingebaut haben, das für Status-Anzeigen verwendet werden kann. In einem Spiel wären dort vielleicht Infos zu sehen, die man beim C64 im Border einblenden würde (Leben, Punkte, Zeit ...) oder man wechselt dort z.B. bei einem Shooter die Waffen. Oder es wird die Auslastung des Systems (CPU, RAM, SD-Card-Zugriffe, ...) angezeigt oder was immer man möchte. In einer Art Standby-Modus könnte das Display vielleicht die Uhrzeit anzeigen oder Tamagotchi-mäßig ein Eigenleben vorgaukeln oder zum Einschalten animieren. So eine 2-Bildschirm-Lösung wäre etwas, was man von typischen alten Home-Computern nicht kennt (Nintendo hat sowas z.B. später mal gemacht) – da wären sicherlich ein paar interessante Ideen umsetzbar. Und die Hardware wäre wieder etwas mehr ins Zentrum gerückt.


    Für "meinen" Homecomputer wäre es egal, ob der als Emulation auf einem Raspi oder als FPGA-Hardware liefe (letzteres lieber). Aber er hätte eine festgelegte (emulierte/gebaute) CPU – gerne die von M. J. konzipierte – und weitere feststehende Retro-Specs (vor allem, was die Grafik* angeht). Allerdings müsste seine "Hardware" um externe Lösungen erweitert werden (quasi "Spezialchips"), um HDMI und Bluetooth (und meinetwegen auch WLAN) zu realisieren. Seine "Hardware" (16/32-Bit-CPU mit vielleicht 8 MHz) wäre alleine nicht in der Lage, so moderne Schnittstellen anzusteuern. Ich hingegen würde aber ungern mit PS/2-Kabel-Tastatur und VGA-Bildröhre arbeiten. Gibt es da Ideen, wie man sowas zusammenbringen könnte?


    *) Jetzt käme zu den vielleicht 360 x 200 Pixeln (mit eingeschränkten 16 Farben) Hauptscreen (384 x 216 wären auch schön, HD/5) vielleicht noch 64 x 64 Pixel (monochrom?) für den Sideshow**-Screen.

    **) Sideshow war ein (erfolgloses) Konzept von Microsoft, um externe Anzeigegeräte von Windows aus anzusteuern.


    Aus meiner Sicht sind alle "man müsste doch nur ein XYZ nehmen"-Lösungen zum Scheitern verurteilt, weil es eben keine out-of-the-box-Lösungen sind, sondern man irgendwas "zum Laufen kriegen" muss. Ein Homecomputer war nun mal ein GERÄT, dass man kaufte, auspackte, einschaltete und dann entweder spielte oder programmierte. Und genau das ist es eigentlich, was man haben will, wenn man von einem Retro-Computer spricht. Und das ist es auch, was man grundsätzlich bei einem Mega65 oder Commander X16 bekommen wird. Nur finde ich halt deren restliches Konzept nicht geeignet für Leute, die nicht mit einem C64 aufgewachsen sind.

  • Mir gefallen die Gedanken, die du dir machst sehr, vor allem weil du auch den Punkt der Haptik und Optik in den Mittelpunkt stellst, der in der zweiten Zeit der Homecomputer (etwa 1985 bis 1974) so entscheidend für die Identifikation mit der gekauften Hardware war. Zu oft rekapitulieren Retro-Projekte die erste Zeit der Homecomputer (etwa 1978 bis 1984) wo die Käufer den Lötkolben und Hardwarebasteleien als primäre Anwendung der Homecomputer sahen und Softwareentwicklung und -nutzung erst sekundär. Doch zu der Zeit war der Absatz noch verhalten, die Massenmobilisierung ging erst in der zweiten Phase los. Natürlich auch, weil man mit wilden Softwarexperimenten keinen Schaden anrichten konnte, während ein zerlöteter Rechner dann auf einen Schlag den gesamten Besitz und Stolz zerstört hat (als Schüler konnten wir nicht, wie heute, einfach Ersatz kaufen: In so einem Fall war dann erst mal Schluss mit Computern für lange Zeit).


    Was du da beschreibst, wäre auch der perfekte Rechner für ein Schulfach "Informatik", dass sich damit auf ein Wie-funktioniert-ein-Computer fokussieren könnte. Ohnehin müsste man das Fach splitten, bzw. ein zweites Fach "Digitale Mediennutzung" einführen, das an Schulen dann als Querschnittsfach zwingend wäre: Von Bildbearbeitung im Kunstunterricht bis zur Erstellung von Seminararbeiten mit Erstellung von Formatvorlagen, das dann - im Gegensatz zu "Informatik" - auch gerne auf moderner aber seelenloser Hardware gelehrt werden kann und sollte.


    Ich habe mir als selbsternannter "Retro-Restaurateur" noch genug vorgenommen die kleinen Lücken in der Vergangenheit zu entdecken und zu füllen (vgl. Signatur, aber auch bei der Entwicklung von Labels), bin aber gespannt ob sich aus deiner Mission noch ein Produkt manifestiert. Zu wünschen wäre es, damit auch für nachfolgende Generationen das Prinzip des "Personal Computers" nicht stirbt. Momentan sind da leider zu viele Weichen auf Streaming, XYZ-as-a-Service, Abonnements und Online-Shops mit der immer drohenden Möglichkeit Software auch wieder zu entziehen gesetzt, bei der der Kunde nur noch als Konsument mit "Sichtgerät" agiert, über das er immer weniger Macht besitzt (ChromeBook statt Linux/Windows-Notebook oder bald ARM-Mac ohne alternative OS statt Bootcamp-Intel-Mac).

  • Was du da beschreibst, wäre auch der perfekte Rechner für ein Schulfach "Informatik", dass sich damit auf ein Wie-funktioniert-ein-Computer fokussieren könnte.

    Wieso sollte man dafür extra einen neuen Rechner erstellen müssen? Was spricht dagegen, dafür z.B. einen C64 bzw. eine entsprechende FPGA-Lösung zu verwenden? Den Rechner gibt es schon und dazu Literatur in Hülle und Fülle.

  • Momentan sind da leider zu viele Weichen auf Streaming, XYZ-as-a-Service, Abonnements und Online-Shops mit der immer drohenden Möglichkeit Software auch wieder zu entziehen gesetzt, bei der der Kunde nur noch als Konsument mit "Sichtgerät" agiert, über das er immer weniger Macht besitzt (ChromeBook statt Linux/Windows-Notebook oder bald ARM-Mac ohne alternative OS statt Bootcamp-Intel-Mac).

    Das sehe ich auch als eine Gefahr, obwohl ich einen Gedanken dazu noch hätte: Ich glaube, dass die Virtualisierung per se nicht aufzuhalten ist. Was ich aber glaube, ist, dass die damit verbundene Abhängigkeit irgendwann zurückgedrängt werden kann, indem auch in diesem Bereich Konzepte wie Open Source und Privatsphärenschutz etc. eingesetzt werden. Nur wird es da wieder genauso sein wie immer: Der großen Mehrheit ist es wurscht, die besorgte Minderheit nutzt andere Mittel und schafft sie sich teilweise selbst.

    Physische Hardware ist natürlich auch ein Schutz dagegen, und ein effektiver. Was wird aber die Antwort sein? Vermutlich dieselbe, wie sie gekommen ist, als manche ihre Rechner die meiste Zeit vom Netz genommen haben: Die Infrastruktur wird nach und nach Virtualisierung als Bedingung für viele Features einführen, und der Markt wird das unterm Strich unterstützen.

    Ich glaube daher, dass beides getan werden sollte: Einerseits eine Förderung eigener Hardware, aber andererseits eine proaktive Kampagne zur Absicherung von "Cloud"-Systemen, sowohl im technischen, als auch im rechtlichen Bereich, inklusive breiter Kampagnen, um auf die Problematik aufmerksam zu machen. Ich denke, dass in den nächsten Jahren und Jahrzehnten ohnehin genau das passieren wird, während Saurier wie ich weiter bei ihren privaten Servern und dubiosen Betriebssystemen bleiben. :whistling:

  • Das sehe ich auch als eine Gefahr, obwohl ich einen Gedanken dazu noch hätte: Ich glaube, dass die Virtualisierung per se nicht aufzuhalten ist. Was ich aber glaube, ist, dass die damit verbundene Abhängigkeit irgendwann zurückgedrängt werden kann, indem auch in diesem Bereich Konzepte wie Open Source und Privatsphärenschutz etc. eingesetzt werden. Nur wird es da wieder genauso sein wie immer: Der großen Mehrheit ist es wurscht, die besorgte Minderheit nutzt andere Mittel und schafft sie sich teilweise selbst.

    Physische Hardware ist natürlich auch ein Schutz dagegen, und ein effektiver. Was wird aber die Antwort sein? Vermutlich dieselbe, wie sie gekommen ist, als manche ihre Rechner die meiste Zeit vom Netz genommen haben: Die Infrastruktur wird nach und nach Virtualisierung als Bedingung für viele Features einführen, und der Markt wird das unterm Strich unterstützen.

    Ich glaube daher, dass beides getan werden sollte: Einerseits eine Förderung eigener Hardware, aber andererseits eine proaktive Kampagne zur Absicherung von "Cloud"-Systemen, sowohl im technischen, als auch im rechtlichen Bereich, inklusive breiter Kampagnen, um auf die Problematik aufmerksam zu machen. Ich denke, dass in den nächsten Jahren und Jahrzehnten ohnehin genau das passieren wird, während Saurier wie ich weiter bei ihren privaten Servern und dubiosen Betriebssystemen bleiben. :whistling:

    Also, was dem Cloud (Klaut) angeht: Irgendwann werden die Leute schon merken daß man seine Fotoalben, Liebesbriefe und NOTizen nicht in einer (öffentliche) Cloud ablegen sollte. Fotoalben zeigt man im Freundeskreis und/oder bei Familienzusammenkünfte. Liebesbriefe sollte nur die Liebste lesen usw. usf.

  • Was du da beschreibst, wäre auch der perfekte Rechner für ein Schulfach "Informatik", dass sich damit auf ein Wie-funktioniert-ein-Computer fokussieren könnte.

    Wieso sollte man dafür extra einen neuen Rechner erstellen müssen? Was spricht dagegen, dafür z.B. einen C64 bzw. eine entsprechende FPGA-Lösung zu verwenden? Den Rechner gibt es schon und dazu Literatur in Hülle und Fülle.

    Weiß jemand, wie es da um die Rechte bestellt ist? Ich weiß nicht, ob es legal wäre, einen voll und ganz kompatiblen C64 offiziell herzustellen und zu vertreiben. Die, die es heute tun (gibts ja mit TheC64), haben die Rechte dazu bereits. Dazu kommt aus meiner Sicht, dass der C64 zwar ein Nostalgie-Heiligtum ist, aber ganz sicher aus heutiger Sicht auch seine Nachteile hat. Mir gefällt die Idee viel besser, einen etwas stärkeren Rechner (wie oben skizziert) zu entwerfen.

    Der Vorteil ist nämlich, dass die, die das tun, auf 40 Jahre Erfahrung zurückgreifen können, dass sie keine Steve Jobs oder Jack Tramiel im Genick sitzen haben, dem nur der Termin und der Umsatz heilig ist, und dass sie auf diese Weise sehr bewusst und fachkundig eine wirklich gute Maschinen entwerfen können. Auch sie werden den einen oder anderen Fehler machen (Menschen machen immer Fehler), aber sie sind viel fokussierter auf das, was für die Benutzer wirklich zählt.

    Ich glaube daher, dass der Ansatz, einen Neuen zu bauen, der bessere ist.

  • Das sehe ich auch als eine Gefahr, obwohl ich einen Gedanken dazu noch hätte: Ich glaube, dass die Virtualisierung per se nicht aufzuhalten ist. Was ich aber glaube, ist, dass die damit verbundene Abhängigkeit irgendwann zurückgedrängt werden kann, indem auch in diesem Bereich Konzepte wie Open Source und Privatsphärenschutz etc. eingesetzt werden. Nur wird es da wieder genauso sein wie immer: Der großen Mehrheit ist es wurscht, die besorgte Minderheit nutzt andere Mittel und schafft sie sich teilweise selbst.

    Physische Hardware ist natürlich auch ein Schutz dagegen, und ein effektiver. Was wird aber die Antwort sein? Vermutlich dieselbe, wie sie gekommen ist, als manche ihre Rechner die meiste Zeit vom Netz genommen haben: Die Infrastruktur wird nach und nach Virtualisierung als Bedingung für viele Features einführen, und der Markt wird das unterm Strich unterstützen.

    Ich glaube daher, dass beides getan werden sollte: Einerseits eine Förderung eigener Hardware, aber andererseits eine proaktive Kampagne zur Absicherung von "Cloud"-Systemen, sowohl im technischen, als auch im rechtlichen Bereich, inklusive breiter Kampagnen, um auf die Problematik aufmerksam zu machen. Ich denke, dass in den nächsten Jahren und Jahrzehnten ohnehin genau das passieren wird, während Saurier wie ich weiter bei ihren privaten Servern und dubiosen Betriebssystemen bleiben. :whistling:

    Also, was dem Cloud (Klaut) angeht: Irgendwann werden die Leute schon merken daß man seine Fotoalben, Liebesbriefe und NOTizen nicht in einer (öffentliche) Cloud ablegen sollte. Fotoalben zeigt man im Freundeskreis und/oder bei Familienzusammenkünfte. Liebesbriefe sollte nur die Liebste lesen usw. usf.

    Dein Wort in des DAUs Gehörgang!

  • Weiß jemand, wie es da um die Rechte bestellt ist? Ich weiß nicht, ob es legal wäre, einen voll und ganz kompatiblen C64 offiziell herzustellen und zu vertreiben. Die, die es heute tun (gibts ja mit TheC64), haben die Rechte dazu bereits. Dazu kommt aus meiner Sicht, dass der C64 zwar ein Nostalgie-Heiligtum ist, aber ganz sicher aus heutiger Sicht auch seine Nachteile hat. Mir gefällt die Idee viel besser, einen etwas stärkeren Rechner (wie oben skizziert) zu entwerfen.

    Der Vorteil ist nämlich, dass die, die das tun, auf 40 Jahre Erfahrung zurückgreifen können, dass sie keine Steve Jobs oder Jack Tramiel im Genick sitzen haben, dem nur der Termin und der Umsatz heilig ist, und dass sie auf diese Weise sehr bewusst und fachkundig eine wirklich gute Maschinen entwerfen können. Auch sie werden den einen oder anderen Fehler machen (Menschen machen immer Fehler), aber sie sind viel fokussierter auf das, was für die Benutzer wirklich zählt.

    Ich glaube daher, dass der Ansatz, einen Neuen zu bauen, der bessere ist.

    Genau so sieht's aus.

    Nur sollte man nicht zu hoch greifen.

    z.B. würde ich an einem 4MHz 64er mit StereoSID VIC II +1) und ~256kB Ram, sowie integrierte SD-Karte gefallen finden.

    Also sowas wie ein C65 aber in 'modern'.


    1)Mit Auflösung bis max. 640x400 in 16 Farben und 320x200 in 32/64 Farben...

  • Das "zu hoch greifen" habe ich gestern schon geübt. Hat mir nicht nur Zustimmung eingebracht. :bgdev