Apple Macs mit ARM-Prozessoren
-
Retrofan -
November 11, 2020 at 8:10 PM -
Thread is Unresolved
There are 1,653 replies in this Thread which has previously been viewed 251,549 times. The latest Post (
-
-
- Official Post
Oh Schreck!
Ja, sind teuer. Waren sie vorher aber auch schon. Wer weniger Geld für einen Mac ausgeben will, soll halt zum Mac Mini, iMac oder MacBook Air greifen. Wie der Name "Studio" schon andeutet, ist das kein Produkt für Privatkunden oder zum daddeln. Man findet aber im Internet problemlos Kunden, die sich diese Geräte (teils in Vollausstattung) für professionelle Video-Bearbeitung etc. zulegen. Und da kommt das Geld dann wahrscheinlich auch schnell wieder rein.
-
- Official Post
Erste CPU-Benchmarks: M3 Ultra nicht viel schneller als M4 Max
Auszug: Natürlich handelt es sich noch frühe Benchmarks, doch die Ergebnisse liegen am unteren Ende des Erwartbaren. Sicherlich stimmt die Marketingaussage, der M3 Ultra sei der schnellste jemals gebaute Apple-Chip, allerdings hätten sich viele bei den CPU-Ergebnissen wohl mehr erhofft. Folgendermaßen schneiden die Chips ab:
Man erkennt deutlich, was das Problem an der Performance des M3 Ultra bei diesem Testablauf ist. Der M4 bringt so eindeutig mehr Leistung pro Kern mit, dass der M3 mit doppelt so vielen Cores gerade einmal 8 Prozent besser in der Disziplin "Multicore" abschneidet. Dies war teilweise zu erwarten, wenngleich die Multicore-Ergebnisse dennoch überraschend schwach aussehen. Im Vergleich zum M2 Ultra und dessen 24 Kernen legte die Gesamtperformance übrigens um ca. 30 Prozent zu.
In Geekbench werden ausschließlich die CPUs getestet, gleichsam handelt es sich um synthetische Benchmarks und nicht um tatsächliche Szenarios. Zudem spielt der M3 Ultra seine Stärken an anderer Stelle aus. Mit bis zu 80 GPU-Kernen (M4 Max: 40) und der Speicherbandbreite von 800 GB/s (M4 Max 500 GB/s) dürfte der M3 Ultra in grafikintensiven Aufgaben alles mit Abstand in den Schatten stellen, was es bislang in Apples Chip-Regal gab. Wer allerdings nicht das Maximum an GPU-Leistung benötigt, wird mit dem M4 Max in den meisten Fällen besser beraten sein.
Also bringt das (in der Grundkonfiguration) doppelt so teure Ultra-Modell nur etwas für Kunden, die die wahrscheinlich deutlich höhere GPU-Leistung benötigen, also vorwiegend bei 3D-Grafik und KI. Alle anderen (z.B. Video-Bearbeiter und allgemeine Software-Entwickler) können getrost auf das Max-Modell setzen. Der CPU-Benchmark zeigt aber auch sehr gut, was der M4 gegenüber dem M3 kann: mit der Hälfte der CPU-Kerne fast gleich schnell sein.
Qualcomm: C1 von Apple macht uns keine Sorgen – Kunden werden nach Qualcomm-Chips verlangen
Auszug: Auch vom Marktführer Qualcomm gibt es inzwischen Reaktionen, was eindeutig demonstriert, inwieweit Apple den Markt aufmischt. Anstatt Apples eigenen Versuch des Mobilfunkmodems schlicht zu ignorieren, gab es auf dem Mobile World Congress 2025 in Barcelona nämlich eine klare Ansage. Qualcomm-CEO Cristiano Amon sprach dort in einem Interview über den neuen X85-Chip, den man als Meilenstein sieht. Die Branche werde große Unterschiede zwischen Android-Devices aus dem Premium-Lager sowie iOS-Geräten sehen – vergleiche man, was Qualcomm zur Verfügung stellen könne und was Apple anbiete. Damit ist selbstverständlich das C1-Modem gemeint, welches mit sehr hoher Wahrscheinlichkeit bald in weiteren Apple-Geräten seinen Dienst verrichten wird.
Kunden achten auf das Modem, sagt Qualcomm
Laut Cristiano Amon komme man nicht an Qualcomm vorbei, wenn das Modem eine wichtige Komponente des Systems darstelle. Er zeigt sich überzeugt, dass dies die Verbraucherpräferenz beeinflusse – weil Kunden nämlich das bestmögliche Modem in jenem Computer haben möchten, den sie ständig in der Hand halten. Ob Nutzer davon allerdings etwas bemerken, sei einmal dahingestellt, kaum ein Besitzer des iPhone 16e dürfte die hohen Akkulaufzeiten mit dem neuen Mobilfunkchip in Verbindung bringen. Außerdem dokumentierten zahlreiche Benchmarks, dass Apple keinesfalls Rückstand bei den Durchsatzraten hat, wohl aber Effizienzvorteile.
Ich glaube, hier überschätzt Qualcomm eindeutig die Wichtigkeit des Modems beim Kunden. Ich denke eher, die meisten Kunden wissen noch nicht einmal, dass ein Bauteil dieses Namens in ihrem Smartphone steckt, geschweige denn irgendwas über die Features oder den Hersteller. Hauptsache, es funktioniert.
-
-
- Official Post
M3 Ultra: Erste Tests zur Grafikperformance und Vergleich mit M4 Max
Auszug: Der M4 Max bringt es auf bis zu 40 GPU-Kerne, beim M3 Ultra sind es jedoch bis zu 80. Nun gibt es erste Benchmarktests, welche unter die Lupe nehmen, was der Mac Studio in Maximalausstattung im Grafikbereich auf die Beine stellt. Das ist erwartungsgemäß sehr viel, ganz eindeutig und mit Abstand handelte es sich beim M3 Ultra um den potentesten Chip.
Während der M4 Max einen Metal-Score von 187.460 Punkten erreicht, sind es beim M3 Ultra stolze 259.668 Zähler – also fast 40 Prozent mehr. Einen M2 Ultra (76 GPU-Kerne) übertrifft der neue Chip immerhin noch um 16 Prozent. Wer also auf grafikintensive Aufgaben angewiesen ist, erhält mit dem M3 Ultra somit einen deutlichen Mehrwert gegenüber dem M4 Max. Zielt man nur auf CPU-Leistung, so sollte man sich sehr gut überlegen, ob es den Aufpreis wert ist.
Der M3 Ultra bietet Vorteile, welche sich nicht unbedingt direkt in Tests wie Geekbench ablesen lassen. Dazu zählen die Speicherbandbreite von 800 GB/s (M4 Max 500 GB/s) sowie bis zu 512 GB Unified Memory. Wer 16 TB SSD-Speicher verbaut haben möchte, muss übrigens ebenfalls zu einer Konfiguration mit M3 Ultra greifen – selbiges gilt für sechs statt vier Anschlüsse vom Typ Thunderbolt 5.
-
macOS 16 mit völlig neuem GUI? Evtl. dann zwingend Metal? Könnte daher der Cut zu Intel doch schon nach macOS 15 erfolgen? Es wird spannend im Juni!
-
- Official Post
Evtl. dann zwingend Metal?
Metal kann mein 13 Jahre altes MacBook Pro bzw. dessen Grafikkarte auch (und ist trotzdem bei offiziellen OS-Updates raus).
-
- Official Post
Alex Ziskind (Software-Entwickler) testet das MacBook Pro M4 Max gegen ein aktuelles Razer Blade 18 [Core i9 14th Gen. (24 Cores) + Nvidia Geforce RTX 4090 Mobile]:
Please login to see this media element.
Er testet viele Entwickler-relevante Sachen, wie Compiler, LLMs usw. und neben der CPU auch die GPU und die SSD-Performance. Also ein ganz gutes Rundum-Paket.
-
- Official Post
Hohe Auszeichnung für Apples Chip-Chef
Mit dem A4-Chip leitete Apple eine Chip-Offensive ein, die den Weg für den Apple Silicon bereitete. Hardware-Technik-Chef Johny Srouji erhält dafür einen Preis.
Please login to see this attachment.
Auszug: Es ist in gewisser Weise ein Preis für sein Lebenswerk: Johny Srouji, Senior Vice President of Hardware Technologies bei Apple, wird von dem belgischen Forschungsverbund Imec mit dem diesjährigen Innovation Award ausgezeichnet. Die Ehrung soll Sroujis bahnbrechenden Beitrag zur Halbleiterindustrie und seine zentrale Rolle bei der Entwicklung des Apple Silicon würdigen. Srouji wird den Preis im Mai in Antwerpen entgegennehmen, teilte der Verbund in einer Pressemitteilung mit.
Srouji begleitete Apples Eigenentwicklung von Chips von Anbeginn. Nach seinem Eintritt in das Unternehmen im Jahr 2008 übernahm er bei der Entwicklung des A4-Chips die Leitung, mit dem sich Apple von anderen Chipherstellern unabhängig machte und die weitere Entwicklung bis hin zum Apple Silicon einleitete. Srouji war vor Apple in leitenden Funktionen bei Intel und IBM tätig gewesen.
Etliche Meilensteine gesetzt
Im Jahr 2013 brachte Apple mit dem A7-Chip im iPhone 5s den weltweit ersten 64-bit-Mobilprozessor heraus. Im Jahr 2020 erfolgte dann der Sprung auf den Mac: Im November 2020 debütierte der M1 in MacBook Air, MacBook Pro und Mac mini und zerstreute Zweifel, dass die Leistung der Smartphoneprozessoren nicht so leicht auf den Mac zu übertragen sei. Mit M1 Pro, M1 Max und dem M1 Ultra folgten rasch weitere Prozessoren für höhere Anforderungen.
Parallel dazu entwickelte Srouji mit seinen Teams auch maßgeschneiderte Chips für die AirPods (H1 und H2), die S-Chips für die Apple Watch und jüngst das erste Mobilfunkmodem Apples, den C1.
Ein Augenmerk bei der Auszeichnung liegt auf die jüngsten Anstrengungen Apples, KI zu unterstützen: "Johnys Vision, Halbleitertechnologien mit hoher Skalierbarkeit einzusetzen, um dies zu erreichen, treibt die nächste Welle von Chiparchitekturen voran, die die Unterhaltungselektronik und das Edge Computing revolutionieren werden", zeigt sich Imec-Chef Luc Van den hove überzeugt. Das 1984 gegründete Imec ist das weltweit größte unabhängige Forschungs- und Innovationszentrum für Nanoelektronik und Digitaltechnik.
-
Etliche Meilensteine gesetzt
Im Jahr 2013 brachte Apple mit dem A7-Chip im iPhone 5s den weltweit ersten 64-bit-Mobilprozessor heraus.
Das doch sehr schwammig ausgedrückt. Da sollte eher stehen das erste Mobiletelefon mit 64-Bit SOC.
Mobile 64-Bit Prozessoren gab es schon viel eher. Siehe alleine Intel mit seinen 64-Bit Atom Prozessoren. (z.B. Atom N450) Da wurden schon im Jahre 2010 Tablets auf den Markt gebracht. Ob diese nun gut waren ist eine andere Sache.
-
- Official Post
Das doch sehr schwammig ausgedrückt. Da sollte eher stehen das erste Mobiletelefon mit 64-Bit SOC.
Mobile 64-Bit Prozessoren gab es schon viel eher.
Ich nehme an, der Autor meinte damit Handys/Smartphones/PDAs und keine Notebooks/Tablets. Vielleicht sollte man es Ultra-Mobile nennen? Oder auf die CPU-Plattform eingrenzen, also vom ersten mobilen 64-Bit-ARM-Chip sprechen – oder eben, wie du sagst, den gemeinten Gerätetyp nennen.
-
Please login to see this media element.
Test von diesem 17000,- Studio Mac
-
Etliche Meilensteine gesetzt
Im Jahr 2013 brachte Apple mit dem A7-Chip im iPhone 5s den weltweit ersten 64-bit-Mobilprozessor heraus.
Das doch sehr schwammig ausgedrückt. Da sollte eher stehen das erste Mobiletelefon mit 64-Bit SOC.
Mobile 64-Bit Prozessoren gab es schon viel eher. Siehe alleine Intel mit seinen 64-Bit Atom Prozessoren. (z.B. Atom N450) Da wurden schon im Jahre 2010 Tablets auf den Markt gebracht. Ob diese nun gut waren ist eine andere Sache.
Schwammig? Eigentlich falsch. Richtig wäre gewesen, der erste Mobile ARM 64-Bit Prozessor. Zu denen hat es sich ja konsolidiert, aber vorher fand man ja unterschiedlichstes in den PDAs. Waren die mobilen MIPS zu dem Zeitpunkt nicht auch schon 64-Bit? Aber natürlich nicht so leistungseffizient wie ARM.
-
Waren die mobilen MIPS zu dem Zeitpunkt nicht auch schon 64-Bit? Aber natürlich nicht so leistungseffizient wie ARM.
https://www.openpa.net/risc/ibm_mips_workpad_z50.html
Anscheinend gab es schon 1999 die ersten 64Bit MIPS. Aber weit verbreitet waren die wohl nicht.
Schwammig? Eigentlich falsch.
Das ist leider oft so in den "neuen" technischen Medien. Da wird es nicht so genau genommen und Details ausgeblendet oder wissentlich weggelassen um dem Artikel mehr Wirkung zu verleihen.
-
- Official Post
Das ist leider oft so in den "neuen" technischen Medien. Da wird es nicht so genau genommen
Ich würde da jetzt nicht in allgemeine Medienkritik verfallen, auch klassische Printmedien haben schon Fehlerhaftes veröffentlicht (ärgerlich z.B. bei Abtipp-Listings) – vielleicht weniger, weil man im Monatsturnus dann doch mehr Zeit hat, an Inhalt und Form zu feilen.
Ich denke, dass der Autor mit "Mobile" einfach nur Handys meinte (wie wahrscheinlich viele Leser des Artikels auch), während andere da auch Laptops mit einbeziehen. leider gibt es da auch keine klare sprachliche Trennung, beides kann man als mobile Geräte bezeichnen. Es kann aber auch sein, dass der Autor einfach nach 2000 geboren ist und Unix-Laptop-Chips von 1999 gar nicht auf dem Plan hat. Geht mir mit mancher Technik aus den 50ern ähnlich – interessiert mich einfach nicht sonderlich. Und auch hier: die meisten Leser wahrscheinlich auch nicht und damit gibt es dann auch kein Missverständnis. Der eine sagt "Mobile" und meint damit Handy und der andere hört Mobile und denkt an Handy – passt.
Und die paar, die das anders verstehen, sind halt Erbsenzähler und i-Tüpfelchen-Scheißer.
Wie gesagt, ein einfaches "ARM" oder "Phone" hätte gereicht, damit die Aussage auch unseren strengen Maßstäben genügen würde. Aber ich gehe mal davon aus, dass die Laudatio bei der Preisverleihung genauer sein wird als der Artikel, schließlich sind da Techniker unter sich. -
Ich würde da jetzt nicht in allgemeine Medienkritik verfallen, auch klassische Printmedien haben schon Fehlerhaftes veröffentlicht (ärgerlich z.B. bei Abtipp-Listings) – vielleicht weniger, weil man im Monatsturnus dann doch mehr Zeit hat, an Inhalt und Form zu feilen.
Na wenn alle Menschen ihre bezahlten Jobs so genau nehmen würden wie viele Autoren von Nachrichten (Egal was für welche), wäre die Welt noch ein größeres Chaos. (Den nicht jede Nachricht ist so "unbedeutend" wie diese hier)
Klar können Fehler passieren, aber wenn ich über ein Thema Schreibe, Rede oder Videos produziere und das mein bezahlter Job ist, dann muss man auch ordentlich recherchieren. Wofür sonst werden die den Bezahlt? Da gibt es keine Ausrede wie: "Da war ich noch ein Kind, das kenne ich nicht..."
Wenn ein YouTuber oder ein Blogger bei seinem Hobby ungenauer ist, ist das zwar ärgerlich, aber das kann man eher verstehen. Ich sehe es halt so: die Quantität steigt (weil der Druck was zu veröffentlichen steigt) darunter leidet aber auch die Qualität. Und das betrifft alle Medientypen.
Das ist zumindest meine persönliche Meinung. Was aber die Leistung vom Herr Srouji natürlich nicht schmälern soll, der hat seinen Job da sicher viel besser gemacht, als der Kollege der den Artikel geschrieben hat.

-
- Official Post
Weil in einem anderen Thread (schon länger her) mal jemand meinte, Apple würde keine guten Laptops bauen, interessierte mich, wie Apple Laptops von Personen eingeschätzt werden, die eine gewisse Markt-Übersicht haben (die mir persönlich in dem Umfang fehlt). Daher interessierte mich das folgende, von YouTube vorgeschlagene, Video – immerhin hat der Kanal nach eigenen Angaben schon über 300 Laptops getestet. Ich war nicht sicher, ob Apple überhaupt vorkommt, manch einer kennt außer Wintel ja nichts.
Please login to see this media element.
-
Zahlreiche M5-Ankündigungen schon zur WWDC im Sommer?

Heise: "M5: Neuer Apple-Silicon-Chip bald in Mac und iPad", Quelle: https://www.heise.de/news/M5-Neuer-…d-10333582.html
-
- Official Post
Naja, dass es in der 2. Jahreshälfte MacBook Pros mit M5 geben wird, würde einem sogar eine angestoßene und eingetrübte Glaskugel offenbaren.
Der Gurman weiß aber auch immer Sachen!Das Gute (oder Schlechte, je nach Sichtweise) an Apples hoher SoC-Schlagzahl ist, dass die Vorgänger einen schnelleren Preisverfall haben (zumindest haben müssten) als zu späten Intel-Mac-Zeiten. Das könnte Gebraucht-Geräte recht interessant werden lassen, zumindest wenn man nicht unbedingt absolute Höchstleistungen benötigt.
Hier hat Alex Ziskind die 4 MacBook Airs der letzten 3 Jahre gegeneinander antreten lassen. Je nachdem, was man damit machen möchte, könnten Geräte mit M3 oder sogar M2 (vielleicht in höheren Ausbaustufen) interessant sein.
Please login to see this media element.
-
- Official Post
Der einzige (?) Grund für einen Mac Studio M3 Ultra mit bis zu 512 GB Unified Memory scheinen große LLMs zu sein. Die RTX 5090 kann nur auf 32 GB VRAM zurückgreifen – benötigt also ein lokales LLM mehr Speicher (und das kann schnell passieren), muss auf (CPU-)RAM ausgewichen werden (was kräftig auf die Performance drückt) oder man muss Cluster bauen:
Please login to see this media element.
-