Hallo Besucher, der Thread wurde 209k mal aufgerufen und enthält 1626 Antworten

letzter Beitrag von Retrofan am

Apple Macs mit ARM-Prozessoren

  • Ich denke einer der Hauptgründe für den Umstieg für Apple ist es, ihre mobilen und Desktop/Serverplattformen zusammenzuführen. Schon jetzt werben sie ja damit, dass man nun mobile Apps auch auf den Notebooks und dem Mac Mini ausführen kann. Diese Motivation hat z.B. MS nicht, daher wäre ich nicht so sicher, dass die auch einen Umstieg anstreben.


    Ich glaube übrigens, dass Apple auch bei Servern den Umstieg planen wird, denn einer der Haupteinsatzzwecke für die ist die Virtualisierung von macOS in der Cloud. Und es gibt heute schon leistungsfähige ARM-Server, in der Amazon-Cloud sind die schon lange vorhanden.

  • Vorab: Ich freue mich über die rege Beteiligung an der Diskussion! Und ich bin fast etwas überrascht (und erfreut) über den geringen Bashing-Anteil.


    Hatten die tatsächlich gegen die Vorgänger (in welcher Ausstattung?) gebenchmarkt?

    Ja, auch. Viele Angaben im Video beziehen sich auf die direkten Mac-Vorgänger.


    Nö, so schnell sicherlich nicht. Es gibt noch viel alte Software da draussen, die weiter in Benutzung ist und gerade Apple ist ja nicht für Kompatibilität bekannt.

    Wie meinst du das? Gerade die Transitions von einer CPU zu anderen hat Apple besser gemanaged als jede andere Firma. Es wurde immer dafür gesorgt, das Bestandssoftware auch auf der neuen Plattform läuft. Und heutzutage ist Apple dafür besser gerüstet denn je, weil sie die entsprechenden Entwicklungswerkzeuge für ihre Plattform liefern. In vielen Fällen ist nichts weiter nötig als ein erneuter Compiler-Durchlauf. Trotzdem gab und gibt es immer einen mitgelieferten Kompatibilitäts-Layer, der Alt-Software laufen lässt.


    Allerdings hat Microsoft die Erfahrung machen müssen, dass "ihre" Software-Entwickler nicht so einfach Plattformen und APIs wechseln möchten und sich gegen Neuerungen eher wehren.


    Das könnte einen Schub für ARM-Windows bedeuten. Parrallels verkündet, eine Apple Silicon Version von Parallels Desktop sei in Arbeit. Da liegt die Vermutung nahe, da könne die ARM-Version von Windows drauf laufen

    Ja, das wäre halt ein denkbarer Weg. Der, dass Apple letztendlich dafür sorgt, dass auch Microsoft den Sprung auf ARM hinbekommt, der ja bisher wegen Altlasten (Win32-API) gescheitert ist. Microsoft hat in der Vergangenheit schon öfters versucht, die Plattform zu wechseln bzw. zu erweitern und ist jedesmal gescheitert. Bei PReP/CHRP haben sie Windows NT auf PPC umgesetzt, NT ist sogar für diverse Fremd-CPUs erschienen – doch sind die 3rd-Party-Entwickler den Weg nie mitgegangen und Emus zur Überbrückung waren Mangelware. Auch Windows RT (WoA = Windows on ARM) ist quasi gescheitert – weil man wichtige 3rd-Party-Software nicht zum Laufen bekam.


    Man muss gestehen, dass Microsoft bislang eine lausige Erfolgsquote hat, was versuchte CPU-Wechsel angeht. Vielleicht klappt es ja jetzt – mit dem Rückenwind durch Apple und dem Wunsch einiger Anwender, Windows (inkl. Software) auch auf ARM zu virtualisieren.


    Also ARM auf mehr als Smartphones ist wahrlich nichts neues.

    Das habe ich ja nicht behauptet. Allerdings steht ARM nach wie vor eher für Mobile-Technik, wie auch bei Apple seit Anfang der 90er im Einsatz. Für ganz normale PCs werden ARMs bislang ja eher selten verwendet. Und als direkte Konkurrenz zu Intel/AMD-PCs eigentlich noch nie.


    Funktioniert eigentlich die „alte“ Intel-Software auf den neuen ARM Mac?

    Ja, dank Rosetta 2.


    ich denke Apple zieht das durch und hat das auch schon länger geplant (5 Jahre?)

    Auch der PPC-zu-Intel-Umstieg war schon einige Jahre zuvor als Ausstiegs-Szenario geplant. MacOS ist von NextStep/OpenStep abgeleitet und das lief schon von Anfang an auf Intel. Und iOS (naturgemäß für ARM gedacht) ist quasi nur ein macOS mit anderer Oberfläche.


    sie wollen weg von der proprietären x86 Plattform hin zur offenen ARM Plattform, die sie selber gestalten können um sich dadurch zu differenzieren

    Ich denke auch, Differenzierung ist ein wichtiger Aspekt. Ein Problem für Apple in den letzten Jahren war ja, dass sich die Hardware-Plattform kaum von Windows-PCs unterschied, weil alle den gleichen CPU-Lieferanten hatten. Nur das OS (und vielleicht noch das Gehäuse) konnte dann den Unterschied machen. Im Gegensatz zu früher, wo man mit 68K und PPC auch von der Hardware her einen Unterschied machen konnte, war das natürlich nur die halbe Miete. Jetzt hat Apple wieder einen weiteren Unterscheidungs-Faktor – bis halt auch Microsoft (ernsthaft) den Weg Richtung ARM gehen würde.


    na ja, ein etwas unfairer Vergleich!

    Wieso? Es wurden real verfügbare Rechner miteinander verglichen. Es ging nur darum, die Spannweite heutiger ARM-Lösungen aufzuzeigen. Der M1 ist (laut Benchmark) 12 Mal schneller als der Pi4-Prozesssor und die GPU sogar 80 Mal so schnell, vom Video encodieren (oder Machine-Learning) will man wahrscheinlich gar nicht erst reden. Das gibt einen ungefähren Eindruck, in wie weit sich ein Raspi-Homecomputer von einem mehr oder weniger professionellen ARM-PC unterscheidet. Der Preisunterschied ist natürlich ähnlich brutal.


    Das heißt wahrscheinlich auch: Natürlich werden es findige Hacker hinbekommen, macOS auf einem Raspi zum Laufen zu bekommen – nur ob das in der Benutzung wirklich Spaß macht, steht auf einem anderen Blatt.


    ...andere wiederum mögen heute noch die Tatsache, dass man neben Windows, LInux etc. auch noch macOS mit diverser PC hardware ausführen kann

    Ja, das ist ein Aspekt, den ich auch sehe. Bislang gab es für mich immer die (bislang nicht gewählte) Option, aus Billig-PC-Teilen einen Hackintosh zu bauen. Das wird in Zukunft wahrscheinlich schwieriger werden – und das finde ich natürlich schade.


    Meine These: der iMac kommt noch mit ins ARM-Boot (klar), und der Mac Pro wird dann iwann endgültig eingestellt (Gerüchte kamen ja früher VOR dem

    schwarzen Zylinder Mac Pro schon auf...)

    Man weiß es nicht. Vielleicht wird der Mac Pro obsolet, weil auch der iMac genügend Power haben wird. Vielleicht überrascht Apple aber auch die Fachwelt z.B. mit einer 64-Core-Maschine, die alles wegfegt (preislich natürlich auch). Wer weiß?


    Ich kann mir also nicht vorstellen, dass der PC ein Intel X86-PC bleibt. Er wird früher oder später ebenfalls dem ARM-Trail folgen. Offen bleibt nur, wer solche ARM-Chips wie die von Apple bauen kann. Qualcomm ist es jedenfalls nicht. Ihre ARM-Chips hinken Apples Versionen um bis zu 2 Jahre hinterher. Vielleicht ist das die künftige Aufgabe von Intel. ARM Chips zu entwickeln und zu fertigen. Insoferne hätte man dann wieder einen Intel-PC, aber statt auf X86 auf ARM-Basis.

    Stimmt, niemand hindert Intel daran, auch die offene ARM-Architektur zu übernehmen. Beim 64-Bit-Umstieg haben sie sich ja auch kräftig von AMD helfen lassen.


    Mal von einer anderen Seite betrachtet: Seit der Einführung von Ryzen liegt AMD doch technisch vor Intel? Ungeachtet dessen konnte Intel offenbar den Gewinn in den letzten Jahren immer weiter steigern. Sicher müsste das genauer betrachtet werden, in welchen Segmenten das passiert ist. Aber das deutet doch vielleicht darauf hin, dass Intel eben nicht so schnell passé ist.

    Bei Intel ist auch vieles der Markenbildung zu verdanken. Intel ist halt in vielen Köpfen DER Prozessor-Hersteller – viele glauben wahrscheinlich sogar, dass sie den Mikroprozessor erfunden haben.


    Natürlich sind 350% schon eine ganz andere Liga.

    Gegenüber den Vorgänger-Macs – nicht gegenüber aktuellen Spitzen-Systemen. Vergleichs-Benchmarks habe ich ja angegeben bzw. verlinkt. Trotzdem, für teils passiv gekühlte Rechner (MacBook Air) schon eine Hausnummer, gegen aktuelle, schwierig zu kühlende, Core-i7 bestehen zu können.


    Gibt es denn Hinweise/Prognosen, wie die Entwicklung bei x64 künftig aussehen könnte?

    Intel gibt Roadmaps heraus, deswegen wird Apple wissen, was voraussichtlich kommen wird. In den letzten Jahren waren die Entwicklungen ja eher mau. Intel hat momentan große Probleme, die Strukturbreiten zu verringern (aktuell 10 nm, von 14 nm kommend). Apple/TSMC ist hingegen schon jetzt bei 5 nm angekommen (zuvor 7 nm).


    Und wie schmerzfrei liefen die CPU-Umstellungen z.B. bei Apple bisher?

    Eigentlich recht gut. Ich habe ja alle mitgemacht und gut überstanden. Es wurde zur Überbrückung immer eine Emulation des Vorgänger-Prozessors mitgeliefert und gemeinsame APIs haben den Übergang vereinfacht. Beim aktuellen Umstieg gibt es (gegenüber dem ersten Wechsel) zudem den Vorteil, dass eigentlich alle Entwickler auf Apples Xcode-Umgebung setzen, die natürlich schon seit der Sommer-WWDC auch für ARM kompiliert und dass Rosetta 2 beim ersten Start einer Legacy-Anwendung einmalig in aktuellen Code übersetzt und dann quasi nativ ausführt. Wichtig ist noch, dass Apple für diese Umstiegs-Szenarien ein Fat-Binary-Format ersonnen hat, sodass Anwendungen mehrere CPU-spezifische Codes enthalten können. Es ist also eine Mischung aus guten Tools und einer aktiven/motivierten Entwickler-Gemeinde (mit geringer Anzahl von Karteileichen), die die Schmerzen für die User recht gering ausfallen lässt.


    Schön ist so ein Wechsel nie aber er wird ja auch nicht aus Spaß gemacht, sondern weil die eine CPU-Plattform stagniert und eine andere bessere Zukunfts-Aussichten hat.

  • Und wie schmerzfrei liefen die CPU-Umstellungen z.B. bei Apple bisher?

    So wie es Retrofan schon gesagt hat: Relativ schmerzfrei. Ich habe die PPC/Intel-Transition mitgemacht und die MacOS 9 auf MacOS X-Transition, die keine CPU-Umstellung, aber eine Betriebssystem-Umstellung war. Wenn ich beides miteinander vergleiche, war die CPU-Transition sogar deutlich schmerzfreier, weil nicht wirklich merkbar. Die damaligen Intel-CPUs waren im Vergleich zu den PowerPCs ziemlich stark. Das bedeutete, dass für PowerPC kompilierte Software unter dem Einsatz von Rosetta unwesentlich langsamer auf Intel gelaufen ist. In manchen Fällen sogar schneller (kommt darauf an, mit welchem PowerPC man vergleicht). Rosetta war einfach genial. Als User bekommt man gar nicht mit, ob das Programm jetzt ein PowerPC-Programm oder ein Universal Binary (also auch ein für Intel kompiliertes Binary) ist. Man startet es einfach und benutzt es. Ärgerlich wurde es erst, also sie mit der Transition fertig waren und nach einiger Zeit dann den Kompatibilitätslayer Rosetta entfernt haben. Dann gingen ältere Programme, die in all den Jahren kein Update erfahren haben, nicht mehr. Aber Apple ist da ziemlich radikal, wenn es darum geht, alte Zöpfe abzuschneiden. Hat man ja jetzt mit macOS Catalina gesehen, wo der Support für 32 Bit Apps (mit langer Vorankündigung) abgedreht worden ist.


    Wenn der Umstieg mit Rosetta 2 unter ARM ähnlich zu der Umstellung von PowerPC auf Intel ist, und der Geschwindigkeitsüberschuss des M1 deutet darauf hin, dann wird es ziemlich schmerzfrei vonstattengehen.

  • Von den IT-Abteilungen, die ich bisher so kennenlernen durfte, werden wohl die wenigsten einfach so auf Mac/ARM umswitchen. Das kostet nämlich Geld und bedeutet Arbeit für den Admin. Manche schaffen ja nicht mal das Update von Windows 7 auf Windows 10.

    Die Privatnutzer, die am meisten von einer höheren Leistung profitieren würden, sind die Gamer und Macs sind jetzt nicht so als Spielemaschinen bekannt. Ob sich Leute, die ein bisschen im Web surfen wollen und einmal im Jahr ihre Steuererklärung machen, einen Mac kaufen wird sich zeigen.

    Ob Apple ihr Prozessordesign an andere Firmen lizenziert oder gar MacOS an andere Firmen lizenziert, halte ich für höchst fraglich. Sollte es mal ARM-Laptops von Dell geben, wird wahrscheinlich ChromOS drauf laufen. Auch Microsoft wird sich anpassen. Es gibt doch schon ein Windows 10 für RasPi.

    Ich glaube, dass sich im kommerziellen Bereich, was Server und Arbeitsplatzrechner betrifft, sich in den nächsten 10 Jahren nicht viel ändern wird. Im privaten Bereich werden "normale" Computer immer mehr verschwinden und durch Handies und Tablets ersetzt. In dem Bereich wird Apple allerdings erfolgreich bleiben.

  • Von den IT-Abteilungen, die ich bisher so kennenlernen durfte, werden wohl die wenigsten einfach so auf Mac/ARM umswitchen.

    Gerade da hätte ich gedacht, dass der Umstieg quasi automatisch kommt. In dem Umfeld werden Rechner ja nach wenigen Jahren ausgetauscht und die neuen kommen ohnehin mit aktuellem macOS. Zumindest bei uns wird da nichts auf alte Versionen downgegraded oder ähnliches (im Gegensatz zu Windows und Linux, wo typischerweise die gleichen Images für alle eingespielt werden).

  • Ich hatte ja auch vermutet Apple könnte wieder in den Konsolenmarkt mit den neuen Chips einsteigen, aber das wäre jetzt - wo Microsoft und Sony mit viel Anlauf vorlegen - natürlich nur unter ferner liefen. Vorstellen kann ich mir den Schritt aber immer noch, vor allem, weil eine Konsolengeneration schließlich für etwa sieben Jahre konzipiert ist. Im Umkehrschluss bedeutet das ja, dass dann meist nach der Hälfte der Zeit von den Herstellern ein Faxelift mit Geräteverkleinerung kommt, aber nicht mehr Rechenleistung. Genau das passt zu Apples Strategie mit dem M1 nun als Erstes die leichten und ultramobilen Geräte zu bedienen. Ende nächsten Jahres gibt's dann wohl den M2 für eher stationäre Brocken (wie den iMac) und erst danach wird die Workstation mit multiplen M3 bedient.


    Genau mit dieser dritten Generation kommt dann Apples leistungsfähigster Chip und zeitgleich werden die aktuellen Konsolen schon etwas angestaubt sein. Das wäre doch der richtige Zeitpunkt für ein "Apple TV Play" und dem Versuch den Markt neu aufzurollen.



    Ich recycle hier mal ein Rendering, dass in der Diskussion ein Kontakt erzeugt hatte, als man auf den Mac-mini-Nachfolger (zu Zeiten des iPhone 5C) spekulierte. Ich finde den Mac mini nämlich für ein Zöpfe-abschneiden-Unternehmen wie Apple unangenehm unzeitgemäß in der Form, die immer noch scheint als wäre sie aus der Notwendigkeit entstanden ein optisches Laufwerk unter zu bringen. Das Modell hier lehnt sich an der damaligen Time Capsule an, vielleicht geht's in 3,5 Jahren aber auch in eine andere Designrichtung, wer weiß.

    Vorab: Ich freue mich über die rege Beteiligung an der Diskussion! Und ich bin fast etwas überrascht (und erfreut) über den geringen Bashing-Anteil.

    Na, dann will ich mal vorlegen. Ich fand den x86-Switch so nämlich so richtig schlecht. Von G5 (64-Bit) zurück auf 32-Bit und einem Prozessorkern mit Core Solo? Das war doch unsauberer Quatsch, um den Kunden dann ein einige Jahre Mischmaschsystem mit Notwendigkeit einer erneuten Migration und schneller Aussonderung dieser ersten Intel-Macs zu bescheren.


    Das kreide ich Apple immer noch an und hätte gehofft, sie wären bei den Notebooks und dem Mac mini auf den AMD Turion 64 umgestiegen und hätten das Mac OS X gleich ausschließlich als x86-64 kompiliert (natürlich mit Rosetta). Im iMac wär's dann der damals schon 64-Bit-unterstützende Pentium und im Mac Pro ein 64-Bit-Xeon geworden. Mit Erscheinen des Core 2 Duo hätte man ja gerne komplett zu Intel switchen können, aber so war der betriebssystemseitige Umstieg einfach Mist.


    Mir hat der Mac mini (also der erste noch mit G4) im Prinzip gefallen, aber als der Kaufwunsch dann konkreter wurde kam der Intel-32-Bit-Switch und auf so etwas wollte ich dann 2006 definitiv nicht mehr umsteigen und so hatte ich den Kauf dann noch ein paar Jahre aufgeschoben. Ich frage mich nun wie das wohl mit den ersten ARM-Macs sein wird. Wird das laufen wie mit der ersten iPad-Generation, wo es auch DRAMATISCH (zwei Jahre) kürzer Updatesupport gab als mit der Zweiten (fünf Jahre)?


    Und ganz abgesehen davon, bei iPhones gibt's ja inzwischen über sechs Jahre Systemupdates und das ist auch wirklich gut im Branchenvergleich. Die Frage ist nur, nähren sich die Macs dann dieser Zeit an? Das wäre für uns schon eine dramatische Verschlechterung und - da sollten wir uns die Abgeschlossenheit der Systemumgebung klar machen - so etwas wie heute, wo man einen iMac von 2009 mit RAM und SSD selber aufrüsten und heute noch (mit DosDude1 Hilfe) mit dem aktuellen macOS für Office-Anwendungen sicher betreiben kann (oder einfach nach Update-Ende von Apple ein BootCamp-Windows installiert, das noch Updates erhällt) wird es zukünftig nicht mehr geben.


    Vielleicht verlängert Apple sogar den Updatessupport bei den Smartphones auf acht Jahre und lässt sich dafür feiern und rollt die Zeit auch auf die ARM-Macs aus. Im Vergleich zum besagten iMac von 2009 ist das für den Kunden dann aber trotzdem eine Reduktion der - über Tricks - installierbaren Sicherupdates um gut fünf Jahre. Also ich finde die Aussicht nur so mäßig, denn die ARM-Macs werden keine Raspis sein und das EFI den Boot alternativer OS "aus Sicherheitsgründen" aller Wahrscheinlichkeit nach nicht zulassen.


    Nachtrag:


    Ich sehe gerade, so etwas wie EFI/UEFI gibt's mit den ARM-Macs nicht mehr: EFI entfällt, der Boot-Prozess basiert auf iOS und iPadOS: Es startet das Boot ROM, dann der Bootloader und dann macOS. Das bestätigt genau meine Befürchtung. Überlegt euch mal wie viele CFW es auf aktuellen iPhones gibt und wie viele LineageOS-Portierungen von Hackern, die Linux just-for-fun überall sonst hin portieren. Genau diese "OS-Vielfalt vom iPhone" droht zukünftig auch dem Mac. Da gibt's dann keine sinnvolle Nachnutzung mehr, wenn Apple den Update-Stecker zieht. So etwas wie Mac mini G4 mit AmigaOS (oder war der Name da ein anderer?) kann man sich für alte Macs der Zukunft dann abschminken.

  • Gerade da hätte ich gedacht, dass der Umstieg quasi automatisch kommt. In dem Umfeld werden Rechner ja nach wenigen Jahren ausgetauscht und die neuen kommen ohnehin mit aktuellem macOS. Zumindest bei uns wird da nichts auf alte Versionen downgegraded oder ähnliches (im Gegensatz zu Windows und Linux, wo typischerweise die gleichen Images für alle eingespielt werden).

    Wenn man auf andere Rechner wechselt, die andere Hardware und ein anderes Betriebssystem haben, dann muss man viele Dinge beachten:

    - Wenn es Individualsoftware gibt, muss diese angepasst werden. (Hoffentlich arbeitet der Praktikant, der die Software erstellt hat, noch in der Firma)

    - Workflows, wie verteilte Installation oder Updates, müssen angepasst werden.

    - Datenbanken, mit riesigen Datenmengen müssen migriert werden.

    - Backup ändert sich dann auch. Funktioniert der Taperoboter noch unter MacOS?


    Nach meiner Erfahrung vermeiden IT-Abteilungen alles, was zusätzliche Arbeit macht und was Geld kostet. Eine solche Umstellung kostet Geld. Nicht nur neue Hardware, auch Downtime, externe Techniker, Ausfälle, weil irgendetwas bei der Umstellung nicht berücksichtigt wurde, kostet Geld. Und Arbeit macht es sowieso.

    Wenn dann alles läuft und du nach zwei Jahren auf die Idee kommst, dass es noch besser laufen würden, wenn du ein paar GB mehr Speicher hättest, dann sagt dir Apple, dass du die Rechner leider nicht erweitern kannst, sondern neue kaufen musst...

  • Ob sich Leute, die ein bisschen im Web surfen wollen und einmal im Jahr ihre Steuererklärung machen, einen Mac kaufen wird sich zeigen.

    Nein, ich denke, das wird kein Markt für Apple sein. Apple wird mit den neuen Geräten weiterhin den Markt bedienen wollen, den sie bisher auch bedient haben: Studenten, Wissenschaftler, Freiberufler, Ärzte, Musiker, Designer, Fotografen, Filmschaffende, Autoren, YouTuber, Manager, Programmierer, Sportler usw. Darunter gibt es durchaus auch Leute, die mit der Leistungssteigerung etwas anfangen können, vor allem natürlich im Medienbereich (Video, DAW, 3D ...). Ich glaube, Apple ist zufrieden, wenn sie weiterhin ihre 15 – 20 Mio. Macs im Jahr verkaufen und viertgrößter PC-Hersteller weltweit bleiben – die werden nicht mit großen Zuwachszahlen rechnen. In den letzten 10 Jahren hat es Apple schon gereicht, dass sie ihre Verkäufe einigermaßen stabil hielten, während der PC-Markt um sie herum schrumpfte.


    Ob Apple ihr Prozessordesign an andere Firmen lizenziert oder gar MacOS an andere Firmen lizenziert, halte ich für höchst fraglich.

    Das werden sie nicht tun. Beides ist ja ein Alleinstellungsmerkmal, über das man Kunden generieren kann – das werden sie nicht leichtfertig aufgeben.


    Aber Apple kann natürlich niemanden daran hindern, kräftig Geld in die Hand zu nehmen und ähnlich gute ARM-SoCs zu bauen oder das eigene OS ähnlich konsequent auf ARM zu portieren und die eigene Entwickler-Gemeinde mit auf die Reise zu nehmen. Die Sache ist ja die: Eine Transition ist nie leicht – wenn man also einfach alles nur parallel anbietet und keinen klaren Weg vorgibt, dann nutzen alle weiter den alten Kram, weil das am wenigsten wehtut. Oft genug hat Apple durch konsequente Entscheidungen dafür gesorgt, dass sich bestimmte Technologien (USB, DVD-Brenner, mobiles Web, HTML5, kommerzielle Musikdownloads, App Stores, private Smartphones, MP4/H264, kabellose Kopfhörer, Hi-DPI-Screens, USB-C/Thunderbolt ...) relativ schnell durchgesetzt haben oder Altlasten (WAP, Flash, MMS, PDAs, Dumbphones, Disketten, CD/DVD ...) verschwanden.


    Im privaten Bereich werden "normale" Computer immer mehr verschwinden und durch Handies und Tablets ersetzt. In dem Bereich wird Apple allerdings erfolgreich bleiben.

    Ich denke auch, dass das langsame Verschwinden klassischer PCs im privaten Alltag ein Trend ist, den auch Apple nicht umkehren kann oder will. Sie bedienen den Markt, solange es ihn gibt und bieten ausreichend früh Alternativen (Smartphone, Tablet, Mediacenter, digitaler Assistent, Wearable ...) an. Man muss sich halt trauen, sich selbst Konkurrenz zu machen und damit zu leben, dass Vorgänger-Technologien von anderen Dingen abgelöst werden. Das macht natürlich nur Sinn, wenn man selbst diese Technologien anbietet, nicht wie Microsoft, die den ultramobilen Markt ja quasi aufgegeben haben. Ok, sie suchen ihr Heil außerhalb von Dingen und Betriebssystemen – in der Cloud und in Abo-Diensten. Das sind natürlich auch Zukunftsmärkte.

  • Wie meinst du das? Gerade die Transitions von einer CPU zu anderen hat Apple besser gemanaged als jede andere Firma. Es wurde immer dafür gesorgt, das Bestandssoftware auch auf der neuen Plattform läuft.

    Auf einem aktuellen Windows kann man immer noch 32-Bit-Windows-Binaries aus den 90ern laufen lassen und auf einem 32-Bit-Windows sogar noch DOS-Software aus den 1980ern. Bei Apple wird der Nutzer da im Regen stehen gelassen: Das PPC-Rosetta gabs nur in einer einzigen OSX-Version, die virtualisierte Classic-Umgebung funktionierte ausschliesslich auf PPC-Macs und flog im letzten PPC-OSX-Release auch raus, 32-Bit-OSX-Software wurde mit 10.15 getötet und ich bin skeptisch, dass die ARM-Version noch lange x86-Binaries ausführen kann sobald Apple offiziell keine x86-Macs mehr verkauft.


    Ich habe mal vor einiger Zeit einen Podcast gehört, wo jemand von seinem Job als DVD-Mastering-Engineer erzählt hat: Er hat noch einen alten Mac (Pro oder G5, müsste ich erst nachhören) mit einer alten OSX-Version herumstehen, weil manche der für den Prozess nötigen Tools nur darauf laufen und es keine neuere Version dieser Tools gibt. Würde Apple diese Wechsel wirklich so gut managen, könnte er einfach einen aktuellen Mac mit der alten Software verwenden.


    Und heutzutage ist Apple dafür besser gerüstet denn je, weil sie die entsprechenden Entwicklungswerkzeuge für ihre Plattform liefern.

    Das ist nun wirklich nichts besonderes, Microsoft hatte schon eigene Compiler als man für die Mac-Entwicklung noch bei Metrowerks und anderen einkaufen musste.


    Der, dass Apple letztendlich dafür sorgt, dass auch Microsoft den Sprung auf ARM hinbekommt, der ja bisher wegen Altlasten (Win32-API) gescheitert ist.

    Warum sollte Microsoft das API wechseln, nur weil sie eine andere CPU-Architektur verwenden? Wie du schon geschrieben hast lief Windows NT auf mehreren CPU-Architekturen und da war das API immer das gleiche.


    Vielleicht wird der Mac Pro obsolet, weil auch der iMac genügend Power haben wird.

    Unwahrscheinlich - ein wichtiges Argument für den aktuellen Mac Pro (und ein grosser Kritikpunkt an der Tonne) sind die Steckplätze und die Möglichkeit, weitere interne Festplatten zu verbauen.

    viele glauben wahrscheinlich sogar, dass sie den Mikroprozessor erfunden haben.

    "The Intel 4004 is a 4-bit central processing unit (CPU) released by Intel Corporation in 1971. It was the first commercially produced microprocessor" (Quelle: Wikipedia, mit Verweis auf Intels Seite zu ihrer eigenen Geschichte)


    Wichtig ist noch, dass Apple für diese Umstiegs-Szenarien ein Fat-Binary-Format ersonnen hat, sodass Anwendungen mehrere CPU-spezifische Codes enthalten können.

    Das Format wurde einfach von NeXTstep übernommen.

  • Erstmal: Die ARM-Architektur ist nicht frei. Im Gegensatz zu x86/AMD64 kann man sie jedoch (sehr teuer) lizensieren. Sowohl fertige Designs vom ARM oder eben eine Architektur-Lizenz für eigene Entwürfe.


    Ja, die neue Apple ARM CPU kann bei der single-core Leistung mit AMDs Zen3 mithalten und ist etwas schneller als aktuelle Intel Chips.

    Aber Intel hinkt halt bei der Fertigungstechnologie (ihrer früheren Stärke) nun hinter TMSC hinterher. Aber auch Intel kann wie Apple, AMD oder Nividia bei TMSC fertigen lassen,

    wenn sie es irgendwann nicht mit 7 oder 5 nm hinbekommen.


    Multicore ist nun schwer abzuschätzen, weil der big-little Ansatz bei 4+4 Kernen so nicht von Intel/AMD gefahren wird. Da sind alle Kerne gleich schnell.

    Und der Preis (Herstellungskosten) ist auch schwer zu bestimmen. Apple lässt ja auch nur für den Eigenbedarf fertigen und wird die nicht an andere PC Hersteller verkaufen.


    Effizienz pro Watt und Effizienz pro Euro können als nicht verglichen werden. Vielleicht hat Apple da Vorteile, aber was beim Kunden ankommt steht auf einem anderen Blatt.


    Und nun zu Windows: das gab und gibt es in verschiedenen Varianten immer mal wieder für ARM. Es gab MS Surface mit ARM und Windows 8 für ARM und so weiter.

    Von alten CE/Mobile/Phone Varianten für ARM ganz zu schweigen. Hat bloß keiner kaufen wollen, weil die meiste die meiste Windows Software halt x86/AMD64 ist.


    Linux für ARM sollte auch kein Problem sein, aber Linux auf dem Desktop kann sich seit 25 Jahren nicht man auf x86 etablieren, warum soll es jetzt mit ARM passieren?


    Von ARM64 in Servern wird seit 10 Jahren fantasiert und es gibt ARMv8 CPUs für Servereinsatz seit Jahren. Kauft bloss keiner, weil Effizient/(Watt*Preis) doch immer schlechter war als AMD64.

    Sicher, irgendwo bei AWS gammeln auch ein paar ARM Server rum, die man mieten kann, so wie Tesla-GPUs, fette FPGAs von Xilix oder Intel oder irgendwelche selbstgestrickten DeepLearning-CPUs.

    Aber ein Massenmarkt ist das alles nicht.


    8086/88-80286 war unglaublicher Schrott. Alle anderen CPUs waren besser. Trotzdem hat es sich durchgesetzt. Weil alle die schrottige PC-Architektur von IBM (oder Clone) mit der

    schrottigen Disk-Routinensammlung und CPM-Clone namens MS-DOS wollten. Weil darauf ein paar brauchbare Programme laufen konnten. Mehr schlecht als recht aber gut

    genug für "big business" und "professionelle" Nutzer.


    Mit 386/486 wurden die Dinger dann halbwegs brauchbar, nicht toll aber ok. Nur die Betriebssystem und die System-Architektur des 08/15-PCs hinkte weiterhin ewig hinterher.

    Trotzdem hat man Amiga, Atari ST, Sharp X68000, Archimedes, RiscPC, NeXT, BeBox und fast den Mac damit platt gemacht. Alles bessere Systeme mit besseren Prozessoren und mit besserem OS.


    In den 90ern warteten dann alle, welche UNIX Workstation mit welchem superduper RISC die vermurksten x86-Kisten platt machen würden, zumindest im Profi-Bereich:

    • MIPS (SGI, DEC, etc, erste 64Bit CPUs Ende 1991...)
    • SPARC (offenes Lizenzmodell von SUN, viele Designs und Hersteller, UltraSparc 64Bit 1994)
    • weniger erfolgreiche: HP PA-RISC, AMD AM29000, Motorola 88000, Intel i860/960
    • IBM POWER, PowerPC (große Allianz Apple, IBM, Motorola, Massenmarkt mot PPC-Mac und Mac-Clones)
    • DEC Alpha APX (gleich 64Bit, 500 MHz als andere bei 200 MHz waren...)

    Selbst Intel glaubte nicht an die Zukunft von i86 (der ja nur als zusammengeschlamperte 8/16-Bit Zwischenlösung gedacht war, während man jahrelang an einer "fortschrittlichen" 32Bit Architektur arbeitete (iAPX 432)) im 64Bit high-end Bereich und entwickelte mit HP (PA-RISC) den Itanium als fortschrittlichen 64-Bit RISC mit (lahmer x86 HW-Emulation). Eigentlich hätte man schon aus der 8080->8088/86->...->80386 Entwicklung schon erkennen können, dass Kompatibilität und Weiterentwicklung in kleinen Schritten bei Beachtung der Performance-Bedürfnisse am PC-Massenmarkt der eigentlich bessere Weg ist.


    Der Itanium ist untergegangen wie die Titanic auf der Jungfernfahrt und AMD hat jahrelang den Job übernommen, die x86 Architektur zu modernisieren:

    • superpipelined, superscalar, out-of-order: K5, K6, K6-2/3, Athlon
    • brauchbare SIMD Extensions: 3Dnow! (-> hat zu Intel SSE geführt und den MMX Irrweg beendet)
    • 64Bit, mehr Register, mehr Orthogonalität im Befehlssatz: AMD64 (Athlon64 -> Intel iA64 ab Core2)
    • Multicore (Athlon64 X2/X4)

    Aber auch Intel hat irgendwann nach Pentium4 und Itanium das Ruder rumgerissen und wieder versucht, x86/x64 richtig schnell und effizient zu machen.

    Und alle RISC Systeme starben aus und Workstations wurden Anfang der 2000er bis Mitte 2000er auf x86/AMD64 mit NT/Win2k oder Linux umgestellt.

    Ok, SUN/Oracle und Fujitsu haben immer noch irgendwelche Sparcs und Solaris und IBM verkauft sicher auch noch was mit POWER9 und AIX usw.

    Gibt ja auch noch Mainframes und tausend Sachen im embedded Bereich.


    Langer Rede und Historie schwacher Sinn: ich glaube der Umstieg des Desktop-PC und auch Notebook von x64+Windows10 wird nicht passieren, nur weil Apple eine schnelle CPU für sich gebastelt hat.

    Der Anteil des Mac am Desktop/Workstation-Markt ist vernachlässigbar. Die MacBooks (Airs) sind life-style Produkte für Leute, denen ein iPad Pro nicht reicht. Das ist nicht der Massenmarkt

    der Arbeits-PCs/Laptops/Workstations.


    Immer wenn ich mal in freier Wildbahn in letzter Zeit einen Mac sah, lief darauf: Windows.

    Warum wohl? Weil es dafür Software gibt, die es für MacOS X-x64 nicht gibt.

    Und die wird es auch nicht für OS-X-ARM geben. Und wohl auch nicht für Win10-ARM.


    Wenn die Geschichte irgendwas gezeigt hat, dann dass Eleganz und Leistung bei CPUs nicht alles sind. Der Befehlssatz und CISC/RISC ist nebensächlich.

    Was zählt sind Betriebssysteme, Compiler, Tools und Software, Software, Software und dafür KOMPATIBILITÄT.


    Ob einem x86/AMD64 gefällt oder nicht, ob es ein paar Watt mehr zieht als ein vergleichbarer RISC ist egal: am Ende entscheidet ob 99% der User 99% ihrer Software laufen lassen kann.

    Jedes % weniger macht einen Systemwechsel massiv unwahrscheinlicher.

  • Und noch ein Nachsatz: maximale Performance/Watt ist heute eh ganz woanders. Wer wirklich große Aufgaben hat die man gut parallelisieren kann, der tut das seit über 10 Jahren auf (GP)GPUs.

    Da ist einem dann der native Befehlssatz eh wurscht, weil man mit CUDA C++/PTX oder OpenCL (oder DX/OpenGL/Vulkan Compute Shadern) programmiert und es

    entsprechende ahead-of-time/just-in-time Compiler im Treiber gibt.

  • Das wäre doch der richtige Zeitpunkt für ein "Apple TV Play" und dem Versuch den Markt neu aufzurollen.

    Ich kann mir gut vorstellen, dass so etwas kommt. Der Grundstein dafür ist ja gelegt: Das aktuelle Apple-TV wird ja über iOS schon sehr gut mit (casual-) Games versorgt, die Kompatibilität zu BT-Game-Controllern von PlayStation und Xbox wurde nachgereicht. Man müsste der Kiste jetzt nur noch etwas Feuer unter dem CPU-Hintern machen, dann könnte das eine alternative Spielkonsole werden – allerdings wird Apple sich wahrscheinlich nicht gegen MS und Sony positionieren, sondern eher versuchen, Nintendo das Leben schwer zu machen. Es wird gemunkelt, dass es von der zukünftigen Apple-TV-Generation 2 Modelle geben wird – einer davon könnte die von dir genannte Spielkonsole sein. Das einfachere Modell wird dann nur für Video-Streams, AirPlay und als Smart-Home-Zentrale vermarktet werden.


    Ich fand den x86-Switch so nämlich so richtig schlecht. Von G5 (64-Bit) zurück auf 32-Bit und einem Prozessorkern mit Core Solo? Das war doch unsauberer Quatsch

    Das war sicherlich nicht optimal. Aber zum einen konnte Apple damals den Zeitpunkt nicht frei wählen (der von IBM versprochene mobile G5 kam einfach nicht und die PowerBook-Verkäufe drohten einzubrechen), zum anderen wollten sie sich wahrscheinlich an einen der beiden X86/X64-Anbieter exklusiv binden. Apple suchte ja Unterstützung durch den CPU-Hersteller und da hat wahrscheinlich Intel (gegenüber AMD) das bessere Angebot gemacht. Für den unbedarften User war das aber nicht so tragisch – der kannte damals den Unterschied zwischen 32 und 64 Bit ohnehin nicht (die 4 GB-RAM-Grenze schien noch in weiter Entfernung) und solange seine Software so schnell, wie vorher oder schneller lief (und das war der Fall), waren ihm die technischen Details relativ wurscht.


    Ich frage mich nun wie das wohl mit den ersten ARM-Macs sein wird. Wird das laufen wie mit der ersten iPad-Generation, wo es auch DRAMATISCH (zwei Jahre) kürzer Updatesupport gab als mit der Zweiten (fünf Jahre)?

    Das kann mit etwas Pech so sein. Die erste Version einer neuen Technologie (egal ob von Apple oder einem anderen Hersteller) würde ich mir auch nicht unbedingt kaufen – außer ich muss halt unbedingt etwas neues haben. ;)


    Und ganz abgesehen davon, bei iPhones gibt's ja inzwischen über sechs Jahre Systemupdates und das ist auch wirklich gut im Branchenvergleich. Die Frage ist nur, nähren sich die Macs dann dieser Zeit an? Das wäre für uns schon eine dramatische Verschlechterung und - da sollten wir uns die Abgeschlossenheit der Systemumgebung klar machen - so etwas wie heute, wo man einen iMac von 2009 mit RAM und SSD selber aufrüsten und [...] sicher betreiben kann [...] wird es zukünftig nicht mehr geben.

    Das stimmt natürlich. Allerdings hatte ich persönlich noch nie den Drang, meine ausgemusterten Macs mit alternativen Betriebssystemen zu bespielen. Ich glaube, das betrifft nur die wenigsten User. Die Mehrheit nutzt das Gerät einfach mit dem letzten verfügbaren Update weiter (das habe ich auch schon vorher so gemacht) und lebt mit dem sehr geringen Restrisiko auf dem Mac, doch mal gehackt zu werden (notfalls werden die Kisten aus Produktiv-Umgebungen irgendwo hin versetzt, wo es relativ egal ist, ob sie "sicher" sind). Und wer eine wirklich sichere Umgebung benötigt, der kauft halt alle 8 Jahre einen neuen PC.


    Und dann kommt einem ja durchaus eine Entwicklung zugute, die auch irgendwann die tollsten ARM-PCs treffen wird – eine gewisse Stagnation bei der Leistungssteigerung. Als ich mir vor 20 Jahren einen neuen Mac gekauft habe, musste ich ihn schon bei 5-jähriger Nutzung mehrfach mit mehr Speicher (RAM und HDD) ausstatten. Das ist heute weniger problematisch. Mein 8 Jahre alter Arbeits-Mac hat schnell die maximal möglichen 16 GB RAM bekommen und damit kommt man auch heute noch einigermaßen über die Runden (wenn man damit das gleiche tut, wie damals). OK, Massenspeicher kann man natürlich nie genug haben – aber den kann man halt notfalls auch extern (die M1-Macs haben USB-4) anbinden. Will sagen, vielleicht ist es in Zukunft noch unwichtiger, den Speicher intern erweitern zu können als momentan oder damals™.

  • Ich habe mal vor einiger Zeit einen Podcast gehört, wo jemand von seinem Job als DVD-Mastering-Engineer erzählt hat: Er hat noch einen alten Mac (Pro oder G5, müsste ich erst nachhören) mit einer alten OSX-Version herumstehen, weil manche der für den Prozess nötigen Tools nur darauf laufen und es keine neuere Version dieser Tools gibt. Würde Apple diese Wechsel wirklich so gut managen, könnte er einfach einen aktuellen Mac mit der alten Software verwenden.

    Ich gebe dir einseits recht. Das Tool ist übrigens DVD Studio Pro und das habe ich auch selbst verwendet, um für Kunden die DVD-Menüs zu bauen. Und ja, das geht nicht mehr. Das gab es bis 2009, also bis weit nach den Switch auf Intel und ich selber habe das auf einem Intel Mac verwendet. Aber Apple hat das eingestellt und ein oder zwei OS-Versionen später hat es auch nicht mehr funktioniert. Das stimmt.


    Und hier kommen wir auf das "andererseits": Auch wenn es für den einen oder anderen ärgerlich ist, genau dieses Verhalten, nicht ständig abwärts kompatibel zu sein, Zöpfe einfach nach einer gewissen Vorwarnzeit (die gab es auch bei DVD Studio Pro) abzuschneiden, unterscheidet Apple von Microsoft. Mit allen Vor- und Nachteilen. Einen der Nachteile haben wir ja gerade besprochen. Der Vorteil: Man schleppt nicht mehr oder weniger obsoleten Ballast mit sich rum (zum Thema DVD: Wie gefragt ist das heute noch? Das ist SD 4:3 bzw. 16:9 in anamorphen Pixeln, immer interlaced, furchtbares MPEG-2, bei dem man die Grafik absichtlich unscharf machen muss, damit der Codec sie nicht ruiniert, etc.). Ohne Ballast tust du dir leicht, einen Switch vorzunehmen. Sei es von 32 Bit auf ausschließlich 64 Bit oder auf gleich auf eine andere CPU. Und das ist etwas, das Retrofan schon erwähnt hat: Deswegen hat Apple auch diesen Track Record, Transitions immer gut hinzukriegen und Microsoft hat diesen Track Record eben nicht. Und ja, die schleppen viel altes Zeug rum. Und das macht es so schwierig, wenn man auf jede Nische Rücksicht nehmen will.


    Soll jetzt nicht heißen, dass das gut oder schlecht ist, ich sehe es einfach als strategische Entscheidung von Apple es so zu machen und dann den Benefit, auf den sie es absehen, zu lukrieren.

  • Mein 8 Jahre alter Arbeits-Mac hat schnell die maximal möglichen 16 GB RAM bekommen und damit kommt man auch heute noch einigermaßen über die Runden (wenn man damit das gleiche tut, wie damals). OK, Massenspeicher kann man natürlich nie genug haben – aber den kann man halt notfalls auch extern (die M1-Macs haben USB-4) anbinden. Will sagen, vielleicht ist es in Zukunft noch unwichtiger, den Speicher intern erweitern zu können als momentan oder damals™.

    Ich würde da sogar noch einen Schritt weitergehen. Auch hier ist Apple radikal. Als der erste Mac mit verlötetem RAM rausgekommen ist, war der Aufschrei groß. Als das erste iPhone rausgekommen ist und man gesehen hat, dass der Akku fix verbaut ist, war der Aufschrei ebenfalls groß (übrigens wie beim iPod). Ganz zu schweigen beim ersten fix verbauten Akku eines MacBooks.


    Und jetzt? Fast alle Hersteller machen es mit ein paar Jahren Verspätung nun genauso. Egal ob am Handy oder am "Ultrabook". Es hat Gründe. Das Ding ist hochintegriert. Man will keinen Millimeter Platz mehr verschwenden. Und so musst du das auch in Sachen RAM und Massenspeicher sehen. Auch wenn jetzt wieder mal der Aufschrei (zurecht) groß ist: Das ist der langfristige Weg. Wer ein ultradünnes Notebook haben will, wird keine RAM-Riegel installieren können. Wer maximale Akkulaufzeit will, wird keinen Akku-Wechselslot haben können. Wenn du die hohen Geschwindigkeiten des M1 auch deshalb erzielst, weil es Unified Memory gibt, dann ist das wieder so eine hochoptimierte und -integrierte Sache, die man mit externen RAM-Riegeln einfach nicht hinbekommt. Funktioniert das gut, wird die ganze Industrie diesen Weg gehen und das RAM im Chip integrieren.

  • Warum sollte Microsoft das API wechseln, nur weil sie eine andere CPU-Architektur verwenden? Wie du schon geschrieben hast lief Windows NT auf mehreren CPU-Architekturen und da war das API immer das gleiche.

    Auf Microsofts ARM-Rechnern mit Windows-RT liefen, soweit ich weiß, nur Programme, die mit dem neuen, aus Windows Phone hergeleiteten, API (komme gerade nicht auf den Namen) erstellt wurden. Das Win32-API wurde nicht (oder spät?) portiert und damit waren die Win-RT-Geräte von der typischen Windows-Programm-Vielfalt abgeschnitten. Dieser Ansatz war also murks. Bei Apple werden nahezu alle Bestands-Programme (bis auf Kernel-Extensions und Virtualisierungs-Lösungen) auch auf den ARM-Geräten laufen.


    ein wichtiges Argument für den aktuellen Mac Pro (und ein grosser Kritikpunkt an der Tonne) sind die Steckplätze und die Möglichkeit, weitere interne Festplatten zu verbauen.

    Das stimmt. Allerdings ist der Mac Pro von seinen Stückzahlen her fast schon vernachlässigbar. Apple hat ihn halt nochmal neu aufgelegt, weil vor allem die Video-Pros so laut herumgeweint haben. Die Frage ist, was für Karten man denn überhaupt in irgendwelche Steckplätze stecken könnte, wenn da eine komplett andere Architektur auf dem Mainboard werkelt.


    "The Intel 4004 is a 4-bit central processing unit (CPU) released by Intel Corporation in 1971. It was the first commercially produced microprocessor" (Quelle: Wikipedia, mit Verweis auf Intels Seite zu ihrer eigenen Geschichte)

    Komisch. Ich hatte aus der Wikipedia die Info, dass der Erfinder des Mikroprozessors Texas Instruments (TI) sei. Vielleicht liegt der Unterschied zwischen "erfinden" und "kommerziell produzieren"?


    Und nun zu Windows: das gab und gibt es in verschiedenen Varianten immer mal wieder für ARM. Es gab MS Surface mit ARM und Windows 8 für ARM und so weiter.

    Von alten CE/Mobile/Phone Varianten für ARM ganz zu schweigen. Hat bloß keiner kaufen wollen, weil die meiste die meiste Windows Software halt x86/AMD64 ist.

    Genau das ist halt das Problem bei Windows. Was nützt ein portiertes OS, wenn die 3rd-Party-Software nicht folgt.


    Die MacBooks (Airs) sind life-style Produkte für Leute, denen ein iPad Pro nicht reicht. Das ist nicht der Massenmarkt der Arbeits-PCs/Laptops/Workstations.

    Naja, das ist schon ein bisschen stark aufgetragen. Guck mal in Hochschulen rein – da ist der MacBook-Anteil (vor allem natürlich in den USA, bei uns nur in bestimmten Studiengängen) schon sehr hoch. Rund 20 Mio. Rechner pro Jahr verkauft man ja auch nicht nur an Hipster. IBM hat z.B. massiv seine Mitarbeiter auf Apple-Rechner umgestellt und hat damit sehr gute Erfahrungen gemacht. Vor allem rechnet es sich langfristig – die TCO (Total cost of ownership) sind aufgrund von macOS wesentlich günstiger als bei Windows-PCs.


    Immer wenn ich mal in freier Wildbahn in letzter Zeit einen Mac sah, lief darauf: Windows.

    Da habe ich ganz andere Erfahrungen gemacht.


    Die Zukunft von ARM steht mit dem Kauf durch Nvidia eh in den Sternen.

    ARM wurde von Nvidia gekauft, weil Samsung, Qualcomm, Apple und Co. Befürchtungen hatten, dass ein möglicher Kauf durch einen von ihnen Probleme wegen Monopol-Gesetzen gegeben hätte. Ohnehin ist Apple von ARM nicht sehr abhängig. Dank ihrer Lizenz können sie ja quasi unabhängig von ARM ihren SoC weiterentwickeln (was sie ja z.B. beim 64 Bit-Umstieg getan haben), man ist also nicht unbedingt auf Innovationen des Lizenzgebers angewiesen. Apple hat jetzt selbst die Verantwortung – im Guten wie im Schlechten. Man kann sich nicht mehr mit "Intel liefert nicht" herausreden.

  • Mich wundert immer noch, dass Apple sich so gegen Java gesträubt hat. Mit dem Konzept hätten sie eine neue JVM erstellt und gut ist.


    Aber ich stimme RexRetro zu, dass RiscV für viele die bessere ARM Alternative ist. Die Patente machen einen Nachbau einfach zu teuer.

  • Mich wundert immer noch, dass Apple sich so gegen Java gesträubt hat. Mit dem Konzept hätten sie eine neue JVM erstellt und gut ist.


    Aber ich stimme RexRetro zu, dass RiscV für viele die bessere ARM Alternative ist. Die Patente machen einen Nachbau einfach zu teuer.

    Java: Apple hatte zu PPC Zeiten und in der frühen ARM iOS Phase einfach nicht genug Rechenleistung, um es mit einer JVM zu verpulvern.

    Und Java ist ja auch nicht frei. Hat Google nach den Oracle klagen ja auch auf die harte Tour lernen müssen.


    Und zu RISC-V: da sieht man auch nach einigen Jahren, dass man mit viel Idealismus und guten Argumenten alleine auch nicht weit kommt,

    weder gegen ARM und noch weniger gegen Intel x86/AMD64. RISC-V ist noch ewig vom Linux-Desktop entfernt.


    Vielleicht gibt es ja mal in ein paar Jahren einen Bastelrechner mit RISC-V der es wenigstens mit Raspi und Co aufnehmen kann. Aber Massenmarkt....

    forget it!