Bitte melde dich an, um dieses Medienelement zu sehen.
"Was Neues, was zum Arbeiten und was zum Spielen!" - Aber... das sind ja gleich DREI Wünsche auf einmal! Kein Problem für den letzten, von Commodore zur Marktreife gebrachten 8-Bitter, den C128.
Es gibt 671 Antworten in diesem Thema, welches 113.130 mal aufgerufen wurde. Der letzte Beitrag (
Bitte melde dich an, um dieses Medienelement zu sehen.
"Was Neues, was zum Arbeiten und was zum Spielen!" - Aber... das sind ja gleich DREI Wünsche auf einmal! Kein Problem für den letzten, von Commodore zur Marktreife gebrachten 8-Bitter, den C128.
Bitte melde dich an, um dieses Medienelement zu sehen.
Er ist wohl der wichtigste Prozessor der 8-Bit-Heimcomputergeschichte: MOS 6502 und all seine Ableger. Wie es zu dem kleinen Wunderding kam und was ihn so berühmt machte steht auf dieser Tafel.
Bitte melde dich an, um dieses Medienelement zu sehen.
Ein digitaler Joystick ist nichts anderes, als eine Ansammlung von fünf elektrischen Schaltelementen in einer gefälligen Form. Ist es wirklich so simpel? Na, schau'n wir mal!
Das neue Jahr startete mit "Space Taxi", auf dem Commodore C64, in eine neue Highscore-Saison. Bereits jetzt ist die Tabelle gut gefüllt. Bei diesem Spiel geht es darum einen Fahrgast möglichst rasch abzuholen und an sein gewünschtes Ziel zu transportieren. Und dies in einem fliegenden Taxi. Gespielt wird "Space Taxi" bis zum 23.03.23. Jeder kann jederzeit in den Wettbewerb einsteigen!
Die Öffnungszeiten des Yesterchips Heimcomputer- und Spielekonsolenmuseums bis April: Immer donnerstags, von 17-21 Uhr (Letzter Einlass: 20 Uhr):
Februar 09., 23., // März 02., 23. // April 06., 13.
Eintritt und Führungen sind kostenlos.
Führungstermine außerhalb der Öffnungszeiten, für Gruppen mit mindestens drei Personen, können individuell vereinbart werden.
Zu erleben gibt es Computer und Konsolen von 1977 bis 2001: Von Apple II und Commodore PET, über C64 und Atari 800XL, Amiga und ST, Nintendo NES und Sony Playstation, bis zu Microsofts erster Xbox. Die meisten Geräte sind eingeschaltet und dürfen benutzt werden. Weitere Infos: Siehe Homepage!
Yesterchips
Heimcomputer- und Spielekonsolenmuseum
Erbacher Straße 1
64750 Haingrund
Tel. (WhatsApp): 01515 0859053
Bitte melde dich an, um diesen Link zu sehen.
MIG!! Respekt vor Deiner Leistung. Wie schafftst Du das bloß nur alles. Ich müsste ungefähr in Deinem Alter sein und habe alle Hände voll zu tun. Chefin, Kinder, Arbeit, Haus und Hof, Hunde, Sport....da hätte ich keine Zeit
den kompletten Samstag freizuschaufeln.
Hut ab!
ie schafftst Du das bloß nur alles. Ich müsste ungefähr in Deinem Alter sein und habe alle Hände voll zu tun. Chefin, Kinder, Arbeit, Haus und Hof, Hunde, Sport....da hätte ich keine Zeit
den kompletten Samstag freizuschaufeln.
Ist doch ganz leicht: Frau vernachlässigen, Geliebte abschaffen und nicht mehr schlafen. ![]()
Wieso denn Samstag? Das sind alles Donnerstagabende ![]()
Samstags bin ich einmal im Monat im Digital Retro Park Museum in Offenbach.
Hunde und Sport schenke ich mir, dafür hab ich noch die Feuerwehr ![]()
Bitte melde dich an, um dieses Medienelement zu sehen.
Info: Der angesprochene erste Macintosh hat 128K RAM, der eingeblentete Macintosh Plus hat 1 MB RAM. ...beißt sich beides mit dem angesprochenen "halben Megabyte"...aber mit dem Macintosh512K gibt es auch eine solche Variante ![]()
Beim Sprung in die 16-Bit Welt war bei den Heimcomputern ein Prozessor maßgeblich: Motorolas 68000er. Namhafte Computerhersteller griffen zu: Apple, Commodore und Atari. Diese Infotafel widmet sich eben diesem Thema und diesem ungleichen Trio.
aber mit dem Macintosh512K gibt es auch eine solche Variante
Und sogar noch aus dem Macintosh-Release-Jahr 1984. Der kam nur wenige Monate nach dem 128K-Modell (und damit noch vor ST und Amiga) auf den Markt, weil man bei Apple schnell erkannte, dass 128K doch etwas wenig für ein GUI-OS sind. Und auch beim ST kann man an der Modellbezeichnung 260ST und beim Amiga 1000 an der mitgelieferten Speicherverdopplung hinter der Frontblende erkennen, dass man anfangs davon ausging, dass 256k für die neuen Systeme ausreichen würden (zumindest, wenn sich viele OS-Routinen im ROM befinden, was damals noch als erstrebenswert galt). Als Apple dann schnell auf 512K wechselte, wollte die Konkurrenz dahinter auch nicht zurückstecken, zumal sie anfangs ihre ROMs noch nicht fertig hatten. Und so ergab sich dann ganz richtig deine Aussage mit den 512K (zumindest für 1985 und nahezu alle Geräte).
Das war schon ein heißes Rennen um den Arbeitsspeicher. Schon krass... da befand man 64KB im C64 als revolutionär und "kurz darauf" reichen 128K nicht mehr aus.
Ich entsinne mich an ein Interview mit einem der Amiga-Entwickler (wer genau ist mir entfallen) der sich erinnerte gen Himmel (und Miner) gefleht zu haben: "Make it 256K, make it 256K! And then... it wasn't enough!" ![]()
Könnte heute gar nicht mehr sagen (ohne nachschauen zu müssen) wie viele GB meine PCs an RAM haben. Ist mir auch egal^^
da befand man 64KB im C64 als revolutionär und "kurz darauf" reichen 128K nicht mehr aus.
"kurz darauf" muss man noch nicht einmal unbedingt in Anführungszeichen setzen. Der C64 kam 1982 heraus, der/die Lisa 1983, der Macintosh 1984 und CPC6128/C128 sowie ST/Amiga 1985. Das ging Schlag auf Schlag – und 8 Bit und 16/32 Bit liefen noch eine ganze Zeit lang parallel.
Das war auch einfach eine Preisfrage: wieviel RAM kann man sich gerade noch leisten? Was sind die aktuellen DRAM-Chip-Kapazitäten, wenn die Maschine rauskommt ?
Im Buch "Bitte melde dich an, um diesen Link zu sehen." beschreibt Andy Hertzfeld die diesbezüglichen Spannungen im Team und mit dem Management:
Alles anzeigen
Expandability, or the lack thereof, was far and away the most controversial aspect of the original Macintosh hardware design. Apple co-founder Steve Wozniak was a strong believer in hardware expandability [...]But Jef Raskin [ursprünglicher Initiator des Macintosh-Projekts] had a very different point of view. He thought that slots were inherently complex, and were one of the obstacles holding back personal computers from reaching a wider audience. [...]
Apple's other co-founder, Steve Jobs, didn't agree with Jef about many things, but they both felt the same way about hardware expandability: it was a bug instead of a feature. Steve was reportedly against having slots in the Apple II back in the days of yore, and felt even stronger about slots for the Mac. [...]
When the Mac digital board was redesigned for the last time in August 1982, the next generation of RAM chips was already on the horizon. The Mac used 16 64Kbit RAM chips, giving it 128K of memory. The next generation chip was 256Kbits, giving us 512K bytes instead, which made a huge difference.
Burrell [Smith - der Mac HW/Motherboard Designer] was afraid the 128Kbyte Mac would seem inadequate soon after launch, and there were no slots for the user to add RAM. He realized that he could support 256Kbit RAM chips simply by routing a few extra lines on the PC board, allowing adventurous people who knew how to wield a soldering gun to replace their RAM chips with the newer generation. The extra lines would only cost pennies to add.
But once again, Steve Jobs objected, because he didn't like the idea of customers mucking with the innards of their computer. He would also rather have them buy a new 512K Mac instead of them buying more RAM from a third-party. But this time Burrell prevailed, because the change was so minimal. He just left it in there and no one bothered to mention it to Steve, much to the eventual benefit of customers, who didn't have to buy a whole new Mac to expand their memory.
Dazu brauchte Smith wohl noch Rückendeckung von einem anderen Mitinitiator des Mac-Projekts, Brian Howard :
It was also Brian's idea to defy management and route extra memory address lines on the final PC boards, enabling a simple modification to quadruple the memory to 512K, allowing our early customers to extend the useful life of their machines without having to buy a whole new one.
And Brian remained at Apple after most of the original team left, teaming up with Bob Bailey to design many of the very best Macintoshes over the years - in fact, whenever there was a particularly good one, you could bet it was designed by Bob and Brian. I think he was Apple's longest continuous employee, working there for over 30 years.
Bitte melde dich an, um dieses Medienelement zu sehen.
Was hat es denn nun mit den "Bits und Bytes" eigentlich auf sich? So lange es die Computerei gibt, scheint auch diese Phrase zu existieren. Schau'n wir doch mal, ob wir der Sache auf die Schliche kommen können.
Bitte melde dich an, um dieses Medienelement zu sehen.
Wie viele Relais bräuchte man wohl, um die Speicherkapazität einer 64 GB SD Karte abbilden zu können? Definitiv mehr, als ins Yesterchips Museum passen würden! Digital, binär, Relais, Röhre, Transistor... wir nähern uns der kleinsten Informationseinheit: Dem Bit.
Bitte melde dich an, um dieses Medienelement zu sehen.
Diese Tafel gibt einen kurzen Einblick in die Entstehungszeit der grafischen Benutzeroberfläche und deren Durchbruch im Sektor der Heimcomputer mitte der 1980er Jahre. Apple Macintoshs, Amiga Workbench und Microsoft Windows treten als Beispiele auf.
Text: Stefan Pitsch
Grafik: Falk Heinzelmann
Druck: satis&fy
Auch wieder kleine Ergänzungen: ![]()
ZitatSchon bald beherrschten die Systeme auch die Darstellung von sich überlappenden Fenstern, welche man in der Größe frei verändern und in den Vorder- und Hintergrund schalten konnte. Die Drag&Drop-Funktionalität hat ebenfalls nicht sonderlich lang auf sich warten lassen.
Beides* war von Anfang an im GUI (und Finder) der Lisa und des Macintoshs vorhanden und ließ überhaupt NICHT auf sich warten.
Bitte melde dich an, um dieses Medienelement zu sehen.
*) Programmübergreifendes D&D dauerte allerdings noch eine kleine Zeit.
ZitatGerne rühmt sich Apple, die GUI erfunden zu haben
So "gerne" nun auch wieder nicht. Meistens sagen sie recht klar, dass es ihr Verdienst war, Maus und GUI in den PC-Markt bzw. in den Blick der Öffentlichkeit getragen zu haben (und damit untertreiben sie eigentlich). Schon Steve Jobs hat frank und frei zugegeben, das GUI, neben anderem*, im PARC gesehen zu haben. Was (an Bill Gates' Aussage u.a.) nicht stimmt, ist, dass Apple das GUI geklaut hätte – sie haben Xerox mit Aktien für die Vorführung (1979) bezahlt.
Bitte melde dich an, um dieses Medienelement zu sehen.
*) das andere war Networking und OOP. Und beides wurde, neben der Weiterentwicklung des GUIs, in Jobs' nächstem Projekt "NeXT" sehr stark fokussiert.
Diese Tafel gibt einen kurzen Einblick in die Entstehungszeit der grafischen Benutzeroberfläche
Was mir bei der Tafel noch auffällt: Dort ist das GUI der Smalltalk'76 Entwicklungs-Umgebung zu sehen. Inwieweit Vorgänger ein GUI hatten, weiß ich nicht (die IDE kam aber erst 1976) – aber die Bildunterzeile mit dem Alto Entstehungsdatum 1973 führt etwas in die Irre. Der Alto war ja kein fertiges Produkt, sondern wurde vor allem intern zur Entwicklung verwendet. Der hatte also nicht unbedingt schon 1973 ein (fertiges) GUI und schon gar nicht das gezeigte.
Wenn man sich Videos und Bilder ansieht, stellt man ohnehin fest, dass das Smalltalk-GUI von dem, was das Alto-GUI selbst oder in Programmen nutzt, komplett abweicht. Das Alto-GUI kennt keinen Desktop, verwendet nicht wirklich Fenster (schon gar nicht die Smalltalk-typischen), ist oft tastaturgesteuert. Ich glaube, dass Steve Jobs und Co. eher das GUI der Smalltalk'76-IDE bewundert haben als das, was sonst so auf dem Alto lief. Leider sind viele Quellen da sehr ungenau.
Was mich auch etwas irritiert, ist der Screenshot vom Lisa-OS. Lisa hatte eine Grafikauflösung von 720 × 364 (also einen Hauch mehr als Hercules-Grafik) aber der Bildschirm war natürlich nicht Widescreen 2:1, sondern 4:3, wie damals die meisten CRTs. Die Pixel waren also nicht quadratisch und sollten mE so auch nicht gezeigt/gedruckt werden.
Bitte melde dich an, um diesen Anhang zu sehen.
LOAD"$",8,1
Viel Spaß damit, falls sich der BASIC-Speicher nicht an $0401 befindet. In der Regel ist das nämlich nicht der Fall.
Daß sich die GUI nur so schleppend durchgesetzt hat, dürfte an die höheren Hardwareanforderungen liegen.
Und guckt man sich mal die Daten vom wegweisenden Alto an, sieht man schon, daß das für den Hausgebrauch 1973 völlig utopisch war.
Wer mehr zur Alto-GUI wissen möchte, wird bei der GUI Gallery fündig: Bitte melde dich an, um diesen Link zu sehen.
Dort sind auf dem letzten Bild sogar auch schon überlappende Fenster zu sehen. Und es steht auch dabei, daß es sich da um eine eigene GUI von Smalltalk handelt.
Und es steht auch dabei, daß es sich da um eine eigene GUI von Smalltalk handelt.
Hier komplett zitiert: "Another example of Smalltalk running on a later model Alto or Star. Smalltalk provided its own GUI environment that included pop-up menus, windows, and images later referred to as icons. This is what Steve Jobs saw when he visited PARC. Apple went back and implemented a more robust system and added pull down menus, desktop drag and drop, the menu bar, the Apple system menu, and modern copy and paste.
Das ist so ziemlich das, was ich auch darüber zu wissen glaube bzw. vermutet habe. Das Alto-GUI selbst war ziemlich rudimentär – der wirkliche "Schocker" war das GUI der Smalltalk'76-IDE. Und von da war es trotzdem noch ein recht weiter Weg (4 Jahre) bis zum Lisa/Macintosh System.
Das hier ist das, was man auf dem Alto statt eines Desktops zu sehen bekam (wenn man nicht gerade mit Smalltalk arbeitete): Den Filemanager.
Bitte melde dich an, um diesen Anhang zu sehen.
Nichts mit Fenstern, Pulldown-Menüs oder Icons.
Was in Smalltalk-Screenshots nicht zu sehen ist – aber in Videos: Die Fenster wurden nicht automatisch neu gezeichnet, wenn ein darüber liegendes verschoben wurde. Einen Redraw musste man manuell ausführen. Das hat Apple also auch in Eigenregie hinzugefügt.
Daß sich die GUI nur so schleppend durchgesetzt hat, dürfte an die höheren Hardwareanforderungen liegen.
Und guckt man sich mal die Daten vom wegweisenden Alto an, sieht man schon, daß das für den Hausgebrauch 1973 völlig utopisch war.
Alto und Star waren ja sog. Mini-Computer und von der Leistung und dem Preis her deutlich oberhalb von PCs (ab ca. 1977) oder Mikro-Computern allgemein angesiedelt. Diese Hardware-Anforderungen ließen sicherlich das GUI einige Jahre bei Xerox "verstauben" – ein anderer Faktor war das Management, das mit dem, was im PARC vor sich ging, offensichtlich nur wenig anfangen konnten. Toll natürlich, dass Xerox den Entwicklern dort freie Hand ließ – blöd, dass niemand in der Führungs-Etage eine Idee hatte, auf was für einem Schatz man da saß. Das waren halt Toner-Heads.
Und dann kommen ein paar Jungs von Apple und erkennen nach wenigen Minuten das Potential der GUI-Idee. Es müssen halt immer mal wieder die richtigen Personen zur richtigen Zeit am richtigen Ort sein, damit ein Funke zündet und die Geschichte weitergehen kann.