Posts by RexRetro

    Nichts fühlt sich so authentisch nach Amiga an, als ein naturbelassener Amiga 500 am CRT.

    MiST(er) ist aber flexibler (AGA/RTG, 68020, mehr RAM, USB Keyboard, Maus, Gamecontroller) und für mich auch fast gefühlsecht.


    Mit Software-Emulator hat man immer ein anderes OS im Hintergrund lauern, und merkt oft, dass der Amiga nur eine Illusion ist.


    Ist aber alles Geschmackssache. Minimig hat halt noch den „echten“ Motorola 68000.

    Statt Mistress kann man auch einen UnAmiga in ein A500 Gehäuse bauen. Oder mit IC Keyrah einen Raspi.


    Würde keine teuren neuen A500/A1200 Gehäuse nehmen, sondern billigsten A500 (kann ja defekt sein) von Ebay oder EKA.


    Und dann reinigen und in Sonne bleichen. Passende Tastatur müsste man zum neurn Gehäuse auch auftreiben.

    Hm, klingt interessant. Ist jetzt bloß die Frage, welchen G4 Mac ich damit beglücken sollte: iBook G4/877 MHz, Mac Mini G4/1.25 GHz, Powerbook G4/1.33 GHz...?

    Muss schauen, aber vermutlich ist auf dem mini und iBook noch Tiger, und auf dem PB 10.5.8 ...

    Das war auch einfach eine Preisfrage: wieviel RAM kann man sich gerade noch leisten? Was sind die aktuellen DRAM-Chip-Kapazitäten, wenn die Maschine rauskommt ?


    Im Buch "Revolution in the Valley: The insanely great story of how the Mac was made" beschreibt Andy Hertzfeld die diesbezüglichen Spannungen im Team und mit dem Management:

    Dazu brauchte Smith wohl noch Rückendeckung von einem anderen Mitinitiator des Mac-Projekts, Brian Howard :

    It was also Brian's idea to defy management and route extra memory address lines on the final PC boards, enabling a simple modification to quadruple the memory to 512K, allowing our early customers to extend the useful life of their machines without having to buy a whole new one.


    And Brian remained at Apple after most of the original team left, teaming up with Bob Bailey to design many of the very best Macintoshes over the years - in fact, whenever there was a particularly good one, you could bet it was designed by Bob and Brian. I think he was Apple's longest continuous employee, working there for over 30 years.

    Mal ehrlich: 8-Bit CPUs waren Spielzeug und nicht für richtige Computer gedacht. Die Leistung reichte eh nur für einen Task, und dass nur mit sehr schlankem oder gar keinem OS.

    Hmm, Deine Meinung in allen Ehren, aber dann stelle ich mir die Frage, was Du in einem Forum wie diesem hier überhaupt machst?

    Dass ich mich für 8 (und 16) Bit Homecomputer interessiere, bedeutet ja noch lange nicht, dass ich sie für ernsthafte Arbeitsgeräte halte. Auch wenn ich die Architektur und das System des IBM-PC/XT/AT nicht mag, und die Geräte für damals sehr überteuert hielt, so würde ich im Zweifelsfall doch lieber an so einen Gerät als an einer 8-Bit Kiste arbeiten wollen.

    ZX81 (1KB), VC20 (5KB), diverse 16KB Rechner, waren schon aufgrund der Speicherausstattung Spielzeug. Mit 64KB konnte man vielleicht kleine Texte und Datenbanken betreiben. Die Software war aber meist wegen Speicher und Geschwindigkeitsmangel in ASM geschrieben. Brauchbare Hochsprachencompiler für C/Pascal waren eher PoCs statt ernsthafte Entwicklungssysteme.

    Und als Unix anno 1970 aus der Taufe gehoben wurde, da wäre man um die Performance eines Z80 mit 4 MHz oder gar eines 6809 mit 2 MHz sehr froh gewesen...

    1970 war Unix noch ein Spielzeug von gelangweilten Bell Lab Forschern, die von einem richtigen OS-Projekt (Multics) abgezogen wurden. Ja, die verwendete PDP-7 hatte auch wenig Speicher und Leistung, aber das System war ja auch noch komplett in ASM gecodet und hatte weder Speicherschutz noch (gleichzeitig) viele User. Und die PDP-7 war immerhin eine 18 Bit CPU und hatte bis 64K Words, also über 128KB RAM. Aber ein richtig (intern produktiv eingesetztes) Arbeitssystem wurde Unix auch erst nach dem Rewrite in C auf die PDP-11 Familie, also einem noch lange Zeit respektablen 16 Bit Minicomputersystem, das einen deutlich mächtigeren Befehlssatz hat, als ein 6502 oder 8080 (und in größeren/späteren Modellen auch FPU und MMU).


    Warum ich diese beiden CPUs erwähne und nicht die 6502? Weil diese beiden 8bit-CPUs bis heute -teils embedded in SoCs in vielen industriellen Anwendungen werkeln, in denen teils harte Echtzeit bis runter in den einstelligen ms-Bereich, teils aber auch zig Tasks und deutlich mehr als 64KB Speicher zu bedienen sind.

    Ich rede nicht von embedded Systemen, da reichen oft 8 Bit und wenige MHz, selbst wenn man in hardwarenahen Hochsprachen wie C programmiert (aber dies auf einem Entwicklungsrechner, nicht der MCU selbst).

    Dafür war der 8008, 8080 und 680x und 6502 ja auch gedacht. Aber eben nicht als "Personal Computer" für richtige Arbeit. Die lief deswegen auch noch bis Mitte-Ende 80er in jedem größeren Unternehmen auf der mittleren Datentechnik, und eben nicht 1974-1984 auf irgendwelchen 8-Bit Personal-/Mikro-/Home-Computern mit 1-64 KB. Das war Spielzeug für Nerds und Kids und brauchte daher kein OS mit memory protection.

    Und die-meist Z80 basierten- CP/M Computer der frühen 1980er hatten mit ebendiesem auch ein "richtiges" Betriebssystem, das intern durchaus mehrere Tasks pseudoparallel laufen hatte, wie übrigens auch der C64 schon im Basic-Prompt 2 Tasks wechselweise bedient, in Spielen mit Scrolling, Sprite-Kollision und Sound sind es teils 5 oder mehr Tasks und das funktioniert wie zig Millionen Spieler seit 40 Jahren wissen, auch mit 1MHz doch ziemlich zackig, ne hochgetaktete 650x CPU wie im Apple GS war gar in der Lage ein OS mit GUI sinnvoll nutzbar anzutreiben, GEOS am C64 war leider etwas durch den seriellen IEC-Bus ausgebremst...

    Ein paar Hintergrund-Aktivitäten in Interrupts sind kein Multitasking-OS und da diese keine eigenständigen Prozesse beschreiben, müssen sie Daten meistens ohne Schutz mit System und Anwendung teilen.

    Und weil sie meist im Interrupt zeitkritisch, sind sie in ASM gecodet. CP/M war sicher ein netter Versuch, auf besseren 8-Bit Kisten wie 4MHz Z80 ernsthaft zu arbeiten. Mit 48-64KB waren einfache Textverarbeitung, Tabellenkalkulation und kleine Datenbanken machbar, Hochsprachen-Compiler (TP) gingen gerade so. Aber nicht umsonst waren das System ratzfatz vom Markt, als es auch nur minimal bessere 8/16Bit Systeme (8088 PC mit DOS) gab.

    Warum? Weil man mit DOS immerhin halbwegs problemlos bis 640KB kam.

    Und auch da war noch viel in ASM, kein richtiges Multitasking, kein Speicherschutz.

    Spiele und Spielzeug sind zwei verschiedene Paar Schuhe, denn Spiele brauchen meist mehr Rechenleistung und geringere Latenzen als "normale" Anwendungen ;-), daran hat sich bis heute wenig geändert.

    Und wurden auf 8 Bit in ASM gecodet und dabei die gesamte HW direkt übernommen, für ein ausgereiftes OS war da kein Bedarf und keine Ressourcen.

    Spielzeug sind eher die Touch-Phones heutzutage, wo die immense Rechenleistung ohne jeglichen Gegenwert/Nutzen versickert...

    Ein modernes Smartphone nutzt sehr wohl die vorhandene Rechneleistung. Echtzeit-Bilderkennung und Optimierung in 12 Megapixel HDR Bildern oder 4K Videos macht man auch nicht mit 8Bit, 1MHz und 64KB.

    Fast fotorealistisches 3D Rendering mit 60 fps in mehr als Full HD im Web-Browser, schafft auch kein Amiga 4000/060 bei noch so optimaler ASM Programmierung.

    Es gab ja alles schon vor 40 Jahren.

    Es wurde halt nur sehr selten genutzt.

    Vermutlich haben die meisten Anwender keinen Bedarf dafür gehabt.


    Wie auch immer, hätten sich MMU und Co durchgesetzt bei 8 Bitter, dann hätte sich die breite Einführung von 16 Bitter stark verzögert.

    Glaube ich nicht. 8 Bitter mit 1-4 MHz waren einfach zu langsam und hatten zu wenig (vernünftig addressierbaren) Speicher, um für ernsthafte Aufgaben eingesetzt zu werden.

    Und MMUs haben sich in der breiten Masse erst mit 32 Bit CPUs durchgesetzt, und wurden teils erst 10 Jahre nach deren Erscheinen ernsthaft für Speicherschutz und virtuellen Speicher richtig genutzt.


    80286 - 1982, segmentorientierte MMU, kaum genutzt ( naja, außer die zwo OS/2 Nutzer halt)

    68020 - 1984, optionalen MMU als CoPro 68851, paging, kaum in 68K Consumer Systemen, eher in Unix Workstations genutzt

    80386 - 1985, Segmente + Paging MMU, erst mit Windows 95 und NT (oder Linux) Mitte der 90er richtig genutzt

    68030 - 1985, integrierte paging MMU, fast nur von Unix Systemen genutzt (Consumer HW bekam eher 68EC030 ohne MMU)


    Also für mich ist die 16 Bit Ära 68000 und 8088/8086/80186/80286, und da ging es erstmal um mehr Rechenleistung und Speicher von 128KB-16MB.

    Ausser dem Amiga waren alle verbreiteten Systeme single-tasking OS mit nur rudimentären Multitasking-Ansätzen (DOS TSRs, Mac OS 6 und TOS accessories).

    Dann kooperatives Multitasking meist erst Anfang der 90er (Win-16 API, Mac OS System 7, Multi-TOS).


    Keines dieser Systeme hatte richtigen Speicherschutz, virt.Speicher nur in Ansätzen. Wer mehr wollte, sollte zu teureren 68020/68030 Varianten mit angepasstem UNIX System V Rel.2-4 greifen

    (Atari TT System V, Amiga 2500UX/3000UX AMIX, Apple Mac II A/UX).


    Aber wie viele Fans von ST, AMIGA und Mac haben das getan. Wie viel bezahlbare Software gab es dafür und wie kompatibel war das mit der alten Software?

    Und wie teuer im Vergleich zu einer "richtigen" Unix-Workstation?

    Mal ehrlich: 8-Bit CPUs waren Spielzeug und nicht für richtige Computer gedacht. Die Leistung reichte eh nur für einen Task, und dass nur mit sehr schlankem oder gar keinem OS.

    Hardware-banging in Assembler war doch nötig, um überhaupt akzeptable Performance für irgendwas zu erreichen.

    Was will man da vor was und wem schützen?

    Entweder die Software läuft oder sie ist buggy und crasht. Dann gibt es ein Reset und die nächste Software wird genommen.

    Eine MMU für einen 1-4 MHz 8-Bit Computer ist so nützlich, wie ein Spoiler am Trabi.

    DOSen-Fetischisten (die den A1000 nahmen, weil er 1000x besser aussah, als damalige PCs, aber es natürlich dem Amiga nicht gönnen

    Retro-Cancel-Culture sozusagen :D

    Wobei die gebührenfinanzierten Schleichwerber von der ARD/NDR hier bei "Extra 3 - Telegym" kein Problem damit haben, ein Macbook in die Kamera zu halten und Siri zu nutzen, um Alexa zu dissen:




    https://www.youtube.com/watch?v=QcmuBN8--4Y oder ARD Mediathek


    Ansonsten ein prima Fitness-Programm ;-)

    OK, jetzt hab' ich es auch gefunden. Frage war nach erstem "Internet-Kriminellem 1981". Warum man dann einen Amiga 1000 von 1985/86 zeigt (und auch noch das Logo abmontiert) bleibt ein Geheimnis der ARD Redakteure.

    Evtl. wollte man mit dem entfernten Logo jeglichen Vorwurf der Schleichwerbung für C= (die ja erst 29 Jahre weg sind vom Markt) vermeiden. Oder es waren übereifrige Atari-ST Fans oder schlimmer:

    DOSen-Fetischisten (die den A1000 nahmen, weil er 1000x besser aussah, als damalige PCs, aber es natürlich dem Amiga nicht gönnen)


    https://www.ardmediathek.de/vi…wMjMtMDEtMjVfMTgtMDAtTUVa

    Mord im Auftrag Gottes [2022] | IMDB)

    Läuft aktuell auf Disney+.
    In Staffel 1 Folge 6 wird ein C64 gezeigt... leider wieder ohne leuchtende LED.


    *Ich musste die "Screenshots" leider vom iPad abfotografieren, deswegen sind die Bilder leider ein wenig "matschig".

    Verhindert die Disney+ App die Screenshot-Funktion des iPads?

    Haben die Angst, dass man ihre Serien in unzähligen Einzelbildern grabbed?

    War nicht alles gut in den 80ern.... gab auch sowas, oder noch Schlimmeres: kann sich noch jemand an "Modern Talking" erinnern? Hoffentlich nicht. Ich warte auch schon auf Alzheimer, um die schrecklichen Bilder und Klänge zu vergessen...