Hallo Besucher, der Thread wurde 129k mal aufgerufen und enthält 1379 Antworten

letzter Beitrag von Retrofan am

Apple Macs mit ARM-Prozessoren

  • Dienstliches SE 2016, wie auch mein privates 6s Plus bekommen noch ein Jahr Updates

    Ich verwende ja auch noch ein 6S und freue mich natürlich, überraschend auch noch iOS 15 zu bekommen. (Plus wahrscheinlich weitere 2 Jahre Sicherheits-Updates, also ab jetzt noch 3 Jahre).


    Ich bin jetzt echt mal gespannt, wann die MacBook Pros kommen werden. Ich hoffe ja auf einen überraschenden Sommer-Event für die Ankündigung der Geräte. Mal gucken.

  • Im Augenblick scheint es aber gar keine von Apple unterstützte Methode zu geben, um auf dem iMac-Display irgendwas anzeigen zu lassen was nicht vom Mac selbst stammt, nicht mal die hauseigenen Airplay- oder Sidecar-Features werden mit dem iMac-Display als Ziel angeboten.

    Neben der von mir beschriebenen, reichlich versteckten, Möglichkeit, einen bewegten iOS-Screen auf den Mac zu holen, liefert Apple jetzt mit dem neuen macOS-Release "Monterey" vernünftig nach:


    (ab 1:22:12, schon als Start voreingestellt)


    Und Airplay zieht jetzt auch (auf neueren Macs) als Ziel, nicht nur als Quelle, in macOS ein. (Im Video direkt nach "Universal Control" zu sehen)


    Hier ist ein entsprechender Artikel, in dem auch erwähnt wird, dass die Verbindung zum "Display-Mac" nicht nur per WLAN, sondern auch über ein USB-Kabel erfolgen kann, um Latenzen zu minimieren)

  • MS geht also auch Richtung ARM.

    Das finde ich gut. Wobei immer noch nicht klar ist, wie man in Zukunft an ein ARM-Windows herankommt, oder? Hat sich MS dazu schon geäußert? Bisher ist es ja so, dass es nicht frei lizenziert wird, sondern nur als OEM-Version auf geeigneter Hardware geliefert wird. Auf ARM-Macs (oder anderer ARM-Hardware) kann man Windows 10 für ARM ja nur als Entwickler-Version installieren, was bei den meisten Usern wahrscheinlich gegen die Lizenzbestimmungen verstößt (und auf gar keinen Fall Support-fähig ist).


    Andere ARM/M1-News der letzten Tage/Wochen:

    List of Compatible Games for Apple M1 chip-powered Macs

    Qualcomm will den M1-Chip schlagen – Dank ehemaliger Apple-Ingenieure

    macOS Monterey: Einige Features gibt es nur für M1-Macs

    Apple Silicon is The New iPhone (Apple’s next big innovation has been hiding in plain sight)

    Ampere Will Launch 128-Core ARM CPUs by the End of 2021

  • Tom’s Guide Awards 2021: The best breakthroughs, brands and products of the year

    Breakthrough Award: Apple M1 chip

    "The Apple M1 chip is the kind of breakthrough that redefines what a computer can do. And this piece of Apple Silicon — which delivers stellar performance along with record-breaking battery life — was years in the making."


    Wie in einem Link im letzten Posting schon angesprochen: Viele warten darauf, dass Apple alle paar Jahre etwas ganz neues bringt, das Märkte umkrempelt oder neue schafft. Angefangen Beim Apple I und II und Macintosh, ARM/Newton und PPC (und einer gefährlichen Innovation-Pause Mitte der 90er) über iMac, Mac OS X, WebKit/Safari, iPod, Music Store, iPhone, App Store, iPad, A7/64Bit-ARM, Airpods bis zur Apple Watch (die Aufzählung wird immer länger) ;) – alle paar Jahre muss etwas Neues her. Auch heutzutage warten einige auf "the next big thing" und merken nicht, dass es "gerade erst" vorgestellt wurde: Der M1, Apples Desktop-CPU auf ARM-Basis (und alles, was darauf basiert und folgt – auch von der Konkurrenz).


    Mehr ARM News:

    Oracle debuts its first Arm-based cloud instances

    It's Happening. Arm Server CPUs are Coming to the Data Center

    The foundation of Total Compute: First Armv9 Cortex CPUs

    BusinessInsider: Apple's new iMac is slim and colorful, but the humble Mac Mini is a better Apple desktop for half the price

  • Nun ja, soooo begeistert bin ich auch nicht. Schöner wäre es auf alle Fälle gewesen, wenn in den 1990ern NeXT und Acorn fusioniert hätten. Dann hätten wir NeXTStep (aka das heutige macOS) auf ARM schon viel eher gehabt, ohne den Apple-Habitus on top. Aber besser spät als nie. Vielleicht bricht der Wettlauf zwischen Qualcom und Apple auf ARM-Basis nun endlich die Dominanz des x86-Gemurkses. Das hatte ich schon mal erhofft, als nach dem PowerMac G5 auch eine Konsolengeneration auf PPC setzte, aber wie wir wissen wurde daraus damals ann doch nichts (und Sonys Cell-Prozessor war den Entwicklern zu schwer zu programmieren).


    Was dann die Innovation anbetrifft, fühlt sich das heute an, wie damals mit den Compaq iPaqs. Diese PDAs hatten auch enorm viel Hardwareleistung (in jeder Hinsicht: Prozessor, Display, Akku, etc.) aber darauf lief nur ein grausiges Windows CE. Die Hardware war Jahre früher da, es fehlte nur die Software. Eine Software, wie sie Apple dann mit iOS brachte.


    Heute steckt im Mac der gleiche Prozessor wie im iPhone (gibt's eigentlich Chromebooks auch mit ARM oder steckt in denen überall Intel?) aber, genau wie damals beim iPaq, ist die Hardware längst reif doch die Hersteller enthalten uns die Software mutwillig vor. Einen Ausblick, wie das funktionieren würde, gab es ja vor fünf Jahren schon mit Continuum für Windows Phone 10. Mich kotzt es heutzutage jeden Tag an, wenn ich das Dienstnotebook im Rucksack zur Firma fahre, weil ich weiß, dass das eigentlich nicht nötig wäre und man nur sein Smartphone (bzw. das der Firma) vom HomeOffice zum Büro transportieren müsste. Für den elektronischen Arbeitsplatz, der aus SAPGUI, Office 365 (mit seinen Tools) und einigen Webanwendungen besteht, reicht die Rechenleistung der Mobilprozessoren nämlich längst aus (und der Speicher auch, wenn alles in der Cloud oder auf Netzlaufwerken liegt).


    Kurzum, ich kann Apple da absolut nicht feiern, nur weil sie ihre ARM-Ableger hochoptimiert haben, während Intel komplett schlief, so lange sie uns als Kunden die daraus möglichen Synergien vorenthalten und weiter iPhone, iPad und Mac gesondert verkaufen wollen, statt eines iPhones, das auch "Mac kann", wenn man es braucht. Das wäre nämlich wirklich die Innovation, die längst überfällig ist.


    Wir haben doch bald jetzt eine Jugendgeneration, die schon die Konsole mit 4K-Flat-TV im Zimmer stehen hat. Dann ein Notebook anzuschaffen, nur für Seminar-Arbeiten ist doch archaisch. So wie teilweise heute die grafischen Taschenrechner, die für Schulen vorgeschrieben sind, und ein Display mit einer Auflösung haben, wie der Casio FX-8000G, den mir mein Onkel 1988 schenkte. Da wäre es doch viel sinnvoller, die Power-Smartphones, die die Jugendlichen eh haben, würden bei Verbindung mit dem vorhandenen 4K-TV einfach einen Desktop aufspannen, für den es dann nur noch Bluetooth-Maus und -Tastatur zur Bedienung bräuchte. Dafür kommt aber leider weder Google (keine Integration von ChromeOS in Android) noch Apple aus dem Knick.

  • Schöner wäre es auf alle Fälle gewesen, wenn in den 1990ern NeXT und Acorn fusioniert hätten.

    War das denn mal im Gespräch?


    In die Richtung ging ja die Gründung von ARM durch Acorn und Apple. Nur wollte Apple damals noch keine Desktop-Chips aus der gemeinsamen Firma, sondern nur welche für den Newton.


    Vielleicht bricht der Wettlauf zwischen Qualcom und Apple auf ARM-Basis nun endlich die Dominanz des x86-Gemurkses.

    Das ist ja auch eine meiner Hoffnungen.


    Das hatte ich schon mal erhofft, als nach dem PowerMac G5 auch eine Konsolengeneration auf PPC setzte, aber wie wir wissen wurde daraus damals ann doch nichts

    Damals hatte Apple den ersten Anlauf unternommen, eine wirkliche Konkurrenz zu Intel aufzubauen – aber Motorola hat nicht wirklich seine Hausaufgaben gemacht und IBM hat es nicht geschafft, den G5 auf energiesparend zu trimmen. Als weiterer Sargnagel erwies sich die mangelnde Unterstützung durch Microsoft, von denen sich die Allianz eine PPC-Windows-Version erhoffte.


    gibt's eigentlich Chromebooks auch mit ARM oder steckt in denen überall Intel?

    All Chromebooks with ARM Processors in 2021


    Mich kotzt es heutzutage jeden Tag an, wenn ich das Dienstnotebook im Rucksack zur Firma fahre, weil ich weiß, dass das eigentlich nicht nötig wäre und man nur sein Smartphone (bzw. das der Firma) vom HomeOffice zum Büro transportieren müsste. Für den elektronischen Arbeitsplatz, der aus SAPGUI, Office 365 (mit seinen Tools) und einigen Webanwendungen besteht, reicht die Rechenleistung der Mobilprozessoren nämlich längst aus (und der Speicher auch, wenn alles in der Cloud oder auf Netzlaufwerken liegt).

    Nun ja – man kann sich ja auch fragen, warum man den ganzen Desktop und die Desktop-Apps auf einem Gerät in der Gegend herum tragen soll, das ohne zusätzlichen Bildschirm damit nichts anfangen kann. Und wenn man zuhause eh schon Bildschirme, Massenspeicher, Drucker etc. herumstehen hat, kommt es auf eine CPU, die das antreibt, auch nicht mehr an – höchstens finanziell. ;)


    Kurzum, ich kann Apple da absolut nicht feiern, nur weil sie ihre ARM-Ableger hochoptimiert haben, während Intel komplett schlief

    Naja, wenigstens hat Apple nicht geschlafen. Und mit dem M1 einen Weckruf aller erster Güte ertönen lassen. Intel feuert seinen CEO und kauft sich evtl. sehr teuer externes Fertigungs-KnowHow ein, Qualcomm holt sich Ex-Apple-CPU-Leute ins Haus usw. Insgesamt kam jetzt sehr viel Bewegung in die Szene. Ich hoffe, das bleibt so ...


    so lange sie uns als Kunden die daraus möglichen Synergien vorenthalten und weiter iPhone, iPad und Mac gesondert verkaufen wollen, statt eines iPhones, das auch "Mac kann", wenn man es braucht.

    Wie gesagt, ich weiß nicht, ob das wirklich der Königsweg ist bzw. der, den die Industrie als solchen sieht. Ich denke, man sieht die Zukunft eher so, dass man keine Programme und Daten mit sich herumschleppt, die man fast nie braucht, sondern überall Spezialgeräte hat (die auf die jeweilige Umgebung angepasst sind) und sich da die Sachen über die Cloud draufzieht, die man gerade benötigt. Das wäre also noch ein Schritt weiter als der von dir favorisierte (zumal der z.B. für Microsoft gescheitert ist). Warum also Daten in der Cloud und die nötigen Desktop-Programme auf dem Handy mit sich herumschleppen, wenn man notfalls auch die aus der Cloud oder in der Cloud nutzen kann. Wie du schon sagst, hat fast jeder zuhause doch ohnehin irgend eine CPU in Form einer Konsole oder eines TV-Sticks/Box oder Smart-TVs.


    Das Handy kann dann weiterhin das tun, was es gut kann – mit seinem kleinen Screen und Touchbedienung gut umgehen.

  • Nochmal 2 Antworten, obwohl ich schon darauf geantwortet habe:

    Da wäre es doch viel sinnvoller, die Power-Smartphones, die die Jugendlichen eh haben, würden bei Verbindung mit dem vorhandenen 4K-TV einfach einen Desktop aufspannen

    Ich sagte ja schon, dass ich mir das anders vorstelle. Aber ich denke, dass deine Vorstellung in noch weiterer Ferne vielleicht doch realistisch wird – aber nicht mit dem Smartphone als "Zentrale", sondern mit kommenden AR-Brillen, wenn sie mal "richtig" funktionieren. Denn dann brauchst du keinen weiteren lokalen Bildschirm – du blendest dir einfach, wo du willst, auch im Wald oder Park, einen 30-Zöller oder 100-Zöller oder 500-Zöller oder was auch immer ein, wo du ihn haben willst und arbeitest dort (auf dem Desktop der Zukunft). Dann macht es auch Sinn, dass das mobile Gerät (das dann eine Brille ist) zur Zentrale wird (wenn auch in dieser Zukunft Dokumente etc. wohl alle in irgendwelchen Clouds liegen und nicht herumgetragen werden).


    Heutzutage macht es aber meines Erachtens mehr Sinn, wenn es einfach mehrere intelligente Geräte (mit unterschiedlich großen Displays und unterschiedlichen Eingabe-Einheiten) gibt und man sich die Arbeit (oder den Spaß) einfach auf das jeweilige Gerät holt.


    gibt's eigentlich Chromebooks auch mit ARM oder steckt in denen überall Intel?

    Ich hatte eine Liste verlinkt, sie mir aber eben erst richtig angeguckt. Es sind ja überraschend viele Devices – aber die sind doch eher Low-Level von der Technik her. Die meisten haben 4 GB RAM und 32 GB SSD. Da merkt man, dass Google will, dass man damit (ausschließlich) im Netz (in der Google-Cloud) arbeitet – bei so wenig SSD. Ich finde ja schon Apples Einstiegsgröße von 256 GB arg knapp – aber 32 GB ist nochmal eine ganz andere Hausnummer. (Die Apple Watch hat z.B. so "viel" Speicher) ;)


    Und die Performance? Gerne wird in den Geräten der MediaTek MT8173C oder ähnliches verbaut.


    MediaTek MT8173C

    Geekbench 4.0 64 Bit Multi-Core: 2570 Punkte (neuer gibt's nicht auf Notebookcheck)


    MediaTek MT8183

    Geekbench 4.0 64 Bit Multi-Core: 4968 Punkte

    Geekbench 5.1-5.4 64 Bit Multi-Core: 1293 Punkte


    M1 (zum Vergleich)

    Geekbench 5.3 64 Bit Multi-Core: 7574 Punkte (älter gibt's nicht auf Notebookcheck)


    Also, obwohl der MT8183 schon doppelt so schnell ist, wie der MT8173C, so ist der M1 nochmal fast 6 Mal so schnell, wie der schnellere von beiden. Für den Preis und den angedachten Zweck (Schularbeiten) sind die Geräte sicherlich ok – aber man sollte jetzt wohl eher nicht davon träumen, da ein Windows 11 für ARM drauf laufen zu lassen oder damit machen zu können was man mit einem MacBook M1 tun kann. Das ist dann doch eine ganz andere Geräteklasse.


    Einige der Chromebooks haben sogar einen 11.6"-Screens mit nur 1366 x 768 Pixeln Auflösung. Das ist auch nicht mehr zeitgemäß.

  • Hier wird die M1-RAM-Anbindung "Unified Memory" (vor allem auch der Unterschied zu "Shared Memory") erklärt:


    XDA-Developers: What is Unified Memory and how does it work on Apple Silicon?


    Das zeigt ein wenig, dass UMA einer der Gründe für die M1-Performance (und auch RAM-Genügsamkeit) ist. Es zeigt aber auch, dass dedizierte Grafikkarten dieses Prinzip stören würden, weswegen auch nachvollziehbar ist, weswegen Apple die Thunderbolt-Anbindung von externen Grafikkarten (vorerst?) auf Eis gelegt hat.

  • Das zeigt ein wenig, dass UMA einer der Gründe für die M1-Performance (und auch RAM-Genügsamkeit) ist.

    Aber das macht Intels integrierte Grafikhardware schon seit Jahren... (und AMD natürlich auch)

  • Aber das macht Intels integrierte Grafikhardware schon seit Jahren

    Meines Wissens nicht. Soweit mir geschrieben wurde, knappst sich die "integrierte" Intel-GPU einen Teils des RAMs ab (wobei der seit ein paar Jahren flexibel aber nach wie vor für die CPU "verschwunden" ist) und bearbeitet ihn. Wenn aber CPU und GPU gemeinsam (bzw. abwechselnd) auf ein und den gleichen Bereich zugreifen wollen, dann wird der immer hin- und her-kopiert (was natürlich langsam ist) – genau wie bei einer dedizierten Grafikkarte. Die M1-GPU kann hingegen auf jeden Speicherbereich im RAM zugreifen und diesen bearbeiten und darstellen. Wenn du andere Infos hast, würde ich mich sehr über entsprechende (und für "Normalos" verständliche) Quellen freuen.


    Ich würde mich auch wundern, wenn XDA-Developers (sicherlich keine Apple-Fans) das Verfahren besonders hervorheben würden, wenn das seit Jahren bei der Konkurrenz Gang und Gäbe wäre.

  • Meines Wissens nicht.

    Das älteste Dokument mit Architekturbeschreibung das ich finden konne beschreibt die Gen 7.5-Grafikeinheit, die bei Haswell-Prozessoren eingebaut wurde. In Kapitel 5.6.1 heisst es da:



    (und der Abschnitt findet sich fast unverändert in der Dokumentation von Gen11 wieder)


    Ich würde mich auch wundern, wenn XDA-Developers (sicherlich keine Apple-Fans) das Verfahren besonders hervorheben würden, wenn das seit Jahren bei der Konkurrenz Gang und Gäbe wäre.

    Apple-Fanboyism ;)

  • Es gab (oder gibt?) von Intel CPUs, bei denen die GPU ohne Umkopieren direkt auf den CPU Speicher zugreifen konnte. Ich hab das mal bei Java Code gesehen, der dann z. B. per GPU beschleunigt wurde.


    Weiss aber nicht, ob das in neueren Implementierungen wie TornadoVM noch unterstützt wird. Dort liegt wohl der Fokus auch mehr auf FPGAs.

  • die bei Haswell-Prozessoren eingebaut wurde

    Schade, das ist knapp nach "meiner Zeit". Der i7 in meinem MacBook hat noch (neben der GeForce) eine HD 4000-Grafik drin – und dieses moderne "unified Memory" gibt es wohl erst ab HD 4200. Anscheinend wusste der XDA-Developer-Autor wohl auch nichts von diesen Intel-Errungenschaften.


    Danke für die Aktualisierung meines Wissens.


    Apple-Fanboyism ;)

    Bei den XDA-Developers? Kann ich mir nicht vorstellen – da wird man doch gleich exkommuniziert. ;)

  • Retrofan


    die schreiben in dem Artikel ...


    The unified memory approach truly revolutionizes performance by allowing all components access to the same memory at the same place.

    komisch beim Commodore 64 greift der VIC und die CPU doch auch auf den gleichen Speicher zu, also das gleiche UMA Prinzip ... der VIC liest die Sprites aus und stellt sie dar und die CPU kann die Sprites dabei abändern...


    Beim Amiga ebenso ... Denise, Blitter und Paula Copper und CPU alle auf den gleichen CHIP-RAM ... man könnte UMA also auch CHIP-RAM nennen... also nicht etwa nur SHARED also das Blitter, Copper, CPU ihre eigenen isolierten reservierten RAM Bereiche hätten, nein das ist beim Amiga truly UNIFORM, alle können überall zusammen zugreifen, kein kopieren erforderlich... revolutionär



    oder habe ich da was übersehen, was da so groundbreaking neu ist ? Würde ich gerne verstehen weil ich auch ein absoluter Fan von dem M1 bin (habe mittlerweile 2 Geräte davon)... aber hier sehe ich nicht was da neu und revolutionär dran sein soll...

  • Es ist mehr oder weniger neu im Vergleich zu den üblichen Architekturen der letzten Jahr(zehnt)e, bei denen es vorteilhaft war, getrenntes RAM für die Grafikkarte zu verwenden. Das wiederum war neu und revolutionär im Vergleich zu den Architekturen von C64 und Amiga. Zeiten ändern sich, und Fortschritt kann manchmal auch bedeuten, dass vergangene Konzepte wieder relevant werden.

  • Fortschritt kann manchmal auch bedeuten, dass vergangene Konzepte wieder relevant werden


    stimmt jetzt realisiere ich das erst so richtig ...


    vor einigen Jahren ... Apple produziert eigene Custom-Chips


    Das ist etwas was man aus den Zeiten der Commodore Computer gut kennt... was aber irgendwie aus der Mode gekommen zu sein scheint ... also ich meine die Firmen wie ASUS, DELL, ACER oder so bauen ja keine CustomChips mehr ein sondern nur welche von der Stange... Apple orientiert sich hier an Amiga und Co. krasse Kiste ...


    und jetzt der M1 mit CHIP-Ram a la Amiga


    das sie jetzt aber auch noch die Speicherarchitektur des Amigas hier 8GB Chip-Ram nachbauen ist echt krass... der M1 MacBookAir ist der Amiga den Commodore in 2021 wohl auch so gebaut hätte... cool ... ich liebe die M1 MacBookAirs ...


    und soviele Parallelen ^^ ...


    der Amiga500 hatte auch

    + keinen Lüfter,

    + eine Menge CustomChips für spezielle Aufgaben wie Graphic und Sound, Diskette etc...

    + die revolutionäre UMA Speicher Technologie mit seinen 0,5MB ChipRAM

    + hatte auch preemptives Multitasking ...


    (https://de.wikipedia.org/wiki/Chip-RAM_und_Fast-RAM , sucht mal nach UMA in dem Artikel :rolleyes:)


    der M2 kriegt dann bestimmt noch etwas extra FASTRAM neben seinen on-CHIP-RAM spendiert...:D

  • Naja vielleicht muß man auch bedenken dass wir die letzten 2,5 Jahrzehnte dedizierte Grafikkarten hatten, und nun die Grafiklösung vermehrt wieder in der CPU untergebracht wird. Das ist ja allein schon von der Grundarchitektur ein Unterschied, womöglich hat es damit zu tun, dass inzwischen der "Shared Memory" wieder sinnvoller ist als getrennter Speicher. Mit der Geschwindigkeit der Speicheranbindung könnte es ebenfalls zu tun haben. Bin aber da kein Experte und stelle nur mal mögliche Möglichkeiten in den Raum.

  • Mit der Geschwindigkeit der Speicheranbindung könnte es ebenfalls zu tun haben.

    Wenn ich mich recht entsinne hatten frühe integrierte Grafiklösungen wie zB Cyrix MediaGX noch Funktionen drin, um den 2D-Framebuffer komprimiert im RAM abzulegen. Das war nötig, damit das regelmässige Auslesen zur Bilddarstellung nicht so viel RAM-Bandbreite benötigt und dadurch die CPU nicht so sehr bremst - 3D-Beschleunigung war damals überhaupt nicht drin.


    RAM-Bandbreite ist nur schwer durch etwas anderes als RAM-Bandbreite zu ersetzen, wenn man Intel- oder AMD-CPU-Grafik mit nur einem Speicherkanal betreibt sind die Ergebnisse deutlich schlechter als mit zweien. Aus dem gleichen Grund verwenden die aktuellen (und vorherigen) Konsolen von Sony und Microsoft, die ja im Prinzip auch eine CPU-integrierte Grafikeinheit verwenden, auch kein reguläres DDR4-RAM sondern setzen auf breit angebundenes GDDR6. Die PS5 kommt dabei mit ihrem 256 Bit breit angebundenen RAM auf 448 GByte/s, die Xbox Series X verteilt ihren Speicher auf Datenbusse mit insgesamt 320 Bit und kann je nach Region daraus mit 560 oder 336 GByte/s lesen. In regulären PCs findet man derzeit maximal zweikanaliges DDR4-3200(*), damit erreicht man nur 51,2 GByte/s und Apples M1 ist mit 68,25 GByte/s auch nicht viel besser aufgestellt.


    (alle Zahlen theoretische Spitzenwerte)


    (*) Es gibt zwar auch Intel- und AMD-CPUs, die einen Controller für mehr als zwei Speicherkanäle besitzen, aber ich meine die hätten alle keine integrierte Grafikeinheit.