Hello, Guest the thread was called7.3k times and contains 295 replays

last post from Retrofan at the

Erste Apple Macs mit ARM-Prozessoren

  • Der Geekbench sieht nicht nach einem Benchmark aus, der leere Schleifen misst.

    Bei A1K gibt's zum Thema Benchmark und JIT eine ausführliche Diskussion:

    https://www.a1k.org/forum/inde…reads/71139/#post-1296016

    Der Geekbench ist sicherlich deutlich besser als Sysinfo. Aber auch Apple wird deutlich mehr Ressourcen in Rosetta2 versenkt haben, als je in UAE fließen werden.

  • Geekbench ist in der Tat kein synthetischer Benchmark, der nur sinnlos Instruktionen in Schleifen ausführt, sondern er besteht aus vielen real-world use-cases die Ergebnisse produzieren, die mit Referenzwerten abgeglichen werden.

    Da kann kein noch so schlauer Compiler was weglassen.


    Aber dass Recompilation schnell sein kann, ist seit FX!32 auf dem Alpha bekannt. Der war damals in der Emulation von x86 Code auch jedem echten x86 überlegen.

  • Und noch was allgemein zum diesjährigen Vorpreschen der ARM-basierten Rechner:


    Weltweit stärkster Supercomputer ist ARM-basiert

    "Die Top 500 der weltweit stärksten Supercomputer hat einen neuen Spitzenreiter. Der von RIKEN und Fujitsu entwickelte HPC Fugaku stützt sich auf eine ARMv8-A-Prozessorarchitektur und bringt es auf 415,53 Petaflops Rechenleistung." (2,8 Mal so schnell wie der jetzt zweitplatzierte IBM Summit mit Power9-CPUs + Nvidia Tesla GPUs)

    Fujitsu hat seit Jahrzehnten Erfahrung mit HPC Prozessoren und Vektor-Prozessoren. Lange auf Basis der SUN/Oracle SPARC Architekturen. Deren ARM dürfte auf Mikroarchitekturebene wenig mit Apples M1 zu tun haben.

    Er bezieht die nötige Leistung (vor allem Throughput) aus massiver Parallelität, ähnlich den GPUs oder Intels Versuche mit Knights Corner/AVX512.

    Jeder A64FX Chip hat 48 Compute Kerne mit 512 Bit SIMD Vektoreinheiten und noch 4 "normale" Kerne für das OS und Verwaltungsarbeiten. Wie high-end GPUs hat er auch massig Speicherbandbreite durch HBM2.


    Was beim M1 beeindruckt ist eher die single-threaded Leistung; der ist eher auf low-latency für eine handvoll Threads optimiert, statt massiv parallel auf maximalen throughput von hunderten Threads.

  • Schau dir mal die Grafik Benchmarks an:

    Ich glaube, das sind noch Punkte, wo die meisten (und ich auch) sagen werden: das will ich erst einmal in Echt sehen!!! Dass der M1 bei der CPU-Performance und dem Stromverbrauch gut abliefert, damit haben sich viele nach ersten Benchmarks ja durchaus angefreundet. Aber dass so ein Newcomer auf einmal das Feld von hinten aufrollen soll, wo sich die Grafik-Spezialisten Nvidia und AMD seit Jahrzehnten Battles liefern und die Plätze unter sich ausmachen – das scheint noch sehr "unrealistisch" zu sein (augenreib). Ich frage mich auch (sollten die Werte stimmen), ob Apple das einfach hochskalieren kann, indem sie z.B. für die größeren Maschinen statt der 8 GPU-Cores einfach 16 einbauen oder anderweitig die Performance erhöhen.

  • Der M1 ist die LowCost-EinstiegsCPU bei Apple ... man davon ausgehen, dass ein M1XXX 48 CPU Cores sowie 48 GPU Cores und mehr besitzt ... dies wird durch die geringe DTP und hervorragende Fertigungmethodik bei TSMC ermöglicht. Damit wird der Multicore-Score im Geekbench5 bei ca. 42000 liegen.

  • [...] Aber dass so ein Newcomer auf einmal das Feld von hinten aufrollen soll, wo sich die Grafik-Spezialisten Nvidia und AMD seit Jahrzehnten Battles liefern und die Plätze unter sich ausmachen – das scheint noch sehr "unrealistisch" zu sein (augenreib).

    Erstaunlich schon, aber nicht unmöglich. Bei der CPU Leistung spielt man ja auch ganz vorne mit. Wann hat Apple Imagination Tech. den Laufpass gegeben. Seit wann entwickelt man an eigenen GPUs (für die Mobilgeräte)?

    Auf jeden Fall schon eine ganze Weile und auch AMD, Intel und Nvidia kochen nur mit Wasser. OK Intel kocht bei Grafik mit Wasser, und AMD mit Frittenöl und Nvidia mit Schweröl ;-)


    Man kann es ja auch mal von einer anderen Seite aus betrachten: Welche "man power" (politisch-korrekt Deutsch ist dann vielleicht "MännInnenkraft" haben die Unternehmen?


    UnternehmenMitarbeiterzahl
    Apple139.000
    Intel110.800
    AMD11.400
    Nvidia13.775


    Apple macht natürlich mehr als alle drei anderen Zusammen: Mobilgeräte, PCs, Betriebssystem(e), Anwendungssoftware, CPU, GPU, Endkundenvertrieb... Im Grunde können da aber trotzdem noch riesige Entwicklungsabteilungen sitzen, nur um AMD und Nvidia bzgl. GPU ordentlich Konkurrenz zu machen. Wahrscheinlich ist es auch so, dass man nur ein paar Top-Experten zusammenbekommen muss, um die richtige Stossrichtung vorzugeben und dann

    ein paar Dutzend guter Entwickler und Ingenieure, um das produktreif zu bekommen und nochmal einige hundert Leute, um es richtig gut zu polieren und supporten.


    Man denke an die "Janitor-Memo" bei IBM, als sich der damalige IBM Chef aufregte, dass ein Unternehmen wie Cyber mit einer handvoll Leute "inklusive Hausmeister" einen schnelleren Supercomputer bauen konnte, als die damals schon riesige IBM.

  • Lies mal in der C't Spezial IBM PC die Geschichte der Prozessoren. Da ist es oft so, dass ein Mann geholt wird, der noch paar Kumpels mitbringt. Die entwickeln dann eine CPU. Nein, nicht allein. Aber die paar Leute machen den Unterschied.

    Klar, und ich behaupte sogar: hätte Intel damals nicht Federico Faggin angestellt, wären sie heute nur eine Randnote in der IT Geschichte. Trotzdem habe ich noch zuletzt in einem Kinderbuch, dass meine Söhne aus der Bibo ausgeliehen haben ("DK Alles über Computer, Games, Internet" oder so) lesen dürfen, Ted Hoff von Intel hätte den Mikroprozessor erfunden.


    Ich will ja nur sagen: bei Apples Mitarbeiterzahl und dem Geld ist es nicht völlig unwahrscheinlich, dass die sehr schnell das Know-How aufbauen, wie eine performante GPU aussehen muss.

    Und genügend Leute für Treiber und Support sollten auch da sein.

  • Apropos Supercomputer (wenn auch nicht ARM): Apple hatte auch mal einen Supercomputer in der Top 500 Liste. 2003 baute die Virginia Tech aus 1.100 Apple Power Mac G5 Rechnern (PPC) mit 12,25 Teraflops einen Hochleistungsrechner, der in der Liste auf Platz 3 einstieg.[...]

    Und heute kann man mit einer Nvidia A100 Karte schon 19 TFlops FP64 Leistung bekommen (bei Nutzung der TensorCores, 9,7 mit SMs). Oder bei AMD mit "Instinct MI100" 11,5 F64-TFlops.

    ( siehe auch heise.de/news/Server-Beschleuniger-AMD-Instinct-MI100)


    OK, das sind die theoretischen Peak-Performances, während das bei dem Apple Ding damals evtl. mit Linpack gemessene reale Werte waren. Trotzdem krass, was man heute unter seinen Schreibtisch stellen kann,

    wenn man es denn braucht.


    Nvidias eigener Supercomputer erreicht wohl fast 24 GFlops/Watt mit der Epyc+A100 Combo (siehe heise.de/news/Top500-Supercomputer), d.h. mit grob 550W ist man auf dem Leistungsniveau eines PPC-Supercomputers von 2003.

  • Der M1 ist die LowCost-EinstiegsCPU bei Apple ...

    Richtig. Meine "Traummaschine" hätte im Prinzip die Fähigkeiten von zwei M1-Chips, also 8 Performance-Cores, 16 GPU-Cores, 32 GB RAM, 4 Thunderbolt-Ports usw. Nur ob ich die bezahlen will – das weiß ich noch nicht. ;)


    Apple macht natürlich mehr als alle drei anderen Zusammen: Mobilgeräte, PCs, Betriebssystem(e), Anwendungssoftware, CPU, GPU, Endkundenvertrieb... Im Grunde können da aber trotzdem noch riesige Entwicklungsabteilungen sitzen

    Huch, als ich das letzte Mal nach Unternehmenszahlen geguckt hatte, war Apple noch bei unter 100.000 Mitarbeitern – jetzt bei knapp 140.000. Die haben in kurzer Zeit mehr Leute eingestellt als Microsoft durch den verpatzten Nokia-Deal gefeuert hat. ;) Ich weiß aber, dass rund die Hälfte der Apple-Mitarbeiter eigentlich (weltweite) Apple-Store-Mitarbeiter sind, also mit Entwicklung etc. nix am Hut haben. Trotzdem ist Apple natürlich keine kleine Firma mehr – aber Größe kann ja auch schnell zum Hindernis werden.


    Ich habe mal gelesen, dass Apple interne Abteilungen, z.B. für die Entwicklung von AR-Brillen oder Autos oder Chips wie kleine Start-Ups gründet, also mit sehr wenigen, hochkarätigen, eingekauften Mitarbeitern, die sich dann ihre Leute zusammensuchen. Diese internen, themenspezifischen Abteilungen können dann allerdings auch wieder schnell auf 1.000 Mitarbeiter anwachsen, wenn das Thema für Apple spruchreif wird. Solche Größen, wie 1.000 Mitarbeiter, habe ich, meine ich, auch im Zusammenhang mit der ARM-Chip-Entwicklung mal gelesen.

  • dass die sehr schnell das Know-How aufbauen, wie eine performante GPU aussehen muss.

    Aber irgend etwas wissen und irgend etwas machen sind immer noch zwei Paar Schuhe. Sonst würde Intel jetzt ja auch einfach mal im 5 nm-Prozess ihre CPUs herstellen – man weiß ja, wie das geht (bzw. kann es sich bei anderen abgucken). Und VW könnte theoretisch auch Marktführer bei Elektroautos sein – so eine Kiste zusammenzukleben ist (nachdem es Tesla mal gezeigt hat) kein Hexenwerk und da muss auch nichts mehr neu erfunden werden. Trotzdem gibt es immer wieder "Details", die im Wege stehen, wenn man (bildlich gesprochen) von Null auf 300 beschleunigen will, um alle anderen zu überholen.

  • Allein aus meiner Firma wurden zwei Leute von Apple für das GPU Projekt (software-seitig) abgeworben. Die haben da unglaublich viel Kohle reingesteckt um das Know-How zu bekommen.

    Sowas hilft aber auch nicht immer - Intel hatte damals, als Larrabee noch eine Grafikkarte werden sollte auch einige bekannte Namen aus der High-Performance-x86-Entwicklung abgeworben und die haben wohl auch konsequent längere Zeit die Performance jede Woche um 1% oder mehr verbessert, aber der Chip wurde dann doch nur als Rechenbeschleuniger statt als Grafikkarte veröffentlicht - obwohl angeblich die erste Xeon Phi-Generation immer noch die nicht mehr benutzten Texture-Units und Grafikanschlüsse auf dem Chip hatte.

  • Die haben da unglaublich viel Kohle reingesteckt um das Know-How zu bekommen.

    In Forschung und Entwicklung sind die hohen Gewinne ja auch sehr viel besser aufgehoben als bei den Aktionären (die bei Apple seit Tim Cook sehr viel mehr abbekommen als noch unter Steve Jobs).


    Hier wird auch auf Apples "explodierte" Forschungsausgaben eingegangen.


    Und darüber hinaus ist Apple jetzt praktisch wie Commodore in the 80ern.

    In einem C64-zentrierten Forum mit Commodore verglichen zu werden, gleicht ja fast einem Ritterschlag. ;) Wenn ich Verbindungen zu Apple hätte, würde ich denen das stecken ...


    alles von Jack gelernt...

    Was den wirtschaftlichen Teil angeht, war Tramiel wirklich nicht schlecht – zumindest eine Zeit lang. Und sich mit MOS eine eigene Chip-Schmiede zuzulegen, war sicherlich eine der besten Entscheidungen von Tramiel.

  • Und sich mit MOS eine eigene Chip-Schmiede zuzulegen, war sicherlich eine der besten Entscheidungen von Tramiel.

    Wobei MOS auch eine eigene Herstellung hatte, das erlaubte sehr schnellen Turnaround bei Änderungen am Design. Apple hat das nicht, die benutzen Auftragsfertiger für die Chips. Aber heute gibt es gute Simulationssoftware, man muss nicht jede kleine Änderung gleich in Silizium giessen damit man sie testen kann.

  • Wobei MOS auch eine eigene Herstellung hatte, das erlaubte sehr schnellen Turnaround bei Änderungen am Design. Apple hat das nicht, die benutzen Auftragsfertiger für die Chips. Aber heute gibt es gute Simulationssoftware, man muss nicht jede kleine Änderung gleich in Silizium giessen damit man sie testen kann.

    Ja, und das gibt ihnen auch mehr Flexibilität, wenn ein anderer Fertiger mit einem effizienteren Prozess rauskommt können sie wechseln.


    Ach ja, und seit heute gibts es auch die ersten harten Zahlen: https://www.anandtech.com/prin…/mac-mini-apple-m1-tested

  • Ach ja, und seit heute gibts es auch die ersten harten Zahlen: https://www.anandtech.com/prin…/mac-mini-apple-m1-tested

    Nach vielen Benchmarks kam man zu folgendem Urteil:


    Today’s piece was less of a review on the new Mac mini as it was testing out Apple’s new M1 chip. We’ve had very little time with the device but hopefully were able to manage to showcase the key aspects of the new chip, and boy, it’s impressive.


    For years now we’ve seen Apple’s custom CPU microarchitecture in A-series phone SoCs post impressive and repeated performance jumps generation after generation, and it today’s new Apple Silicon devices are essentially the culmination of the inevitable trajectory that Apple has been on. [...]


    The M1 undisputedly outperforms the core performance of everything Intel has to offer, and battles it with AMD’s new Zen3, winning some, losing some. And in the mobile space in particular, there doesn’t seem to be an equivalent in either ST or MT performance – at least within the same power budgets.


    What’s really important for the general public and Apple’s success is the fact that the performance of the M1 doesn’t feel any different than if you were using a very high-end Intel or AMD CPU. Apple achieving this in-house with their own design is a paradigm shift, and in the future will allow them to achieve a certain level of software-hardware vertical integration that just hasn’t been seen before and isn’t achieved yet by anybody else.


    The software side of things already look good on day 1 due to Apple’s Rosetta2. Whilst the software doesn’t offer the best the hardware can offer, with time, as developers migrate their applications to native Apple Silicon support, the ecosystem will flourish. And in the meantime, the M1 is fast enough that it can absorb the performance hit from Rosetta2 and still deliver solid performance for all but the most CPU-critical x86 applications.


    For developers, the Apple Silicon Macs also represent the very first full-fledged Arm machines on the market that have few-to-no compromises. This is a massive boost not just for Apple, but for the larger Arm ecosystem and the growing Arm cloud-computing business.

  • Ach und noch was, CUPS, Gutenprint und SANE muss es natürlich auch geben, sonst bin ich nicht dabei. Wenn man auf Herstellertreiber angewiesen ist, kauft man am Ende jährlich einen neuen Drucker und einen neuen Scanner (mit technisch unverbesserter Hardware), nur weil es keine Treiber mehr gibt.

    Da das alles OpenSource ist, gehe ich davon aus, dass das irgendwer für ARM kompilieren wird. Ich persönlich sehe das allerdings zunehmend entspannter.


    Einen Scanner habe ich z.B. gar nicht mehr (außer retro an alten Geräten), weil ich ihn beruflich nicht mehr benötige. Ich bekomme von meinen Kunden alles digital und das letzte Mal, dass ich ein Foto digitalisieren musste, ist Jahre her. Und wenn ich doch mal was "einscannen" muss, dann mache ich das mit dem iPhone – mit einer Scanner-App, die automatisch die Seiten-Ecken findet, entzerrt und mehrseitige Scans zu PDFs zusammenfasst. Bei Fotos kann ich auf eine Scanner-App von Google zurückgreifen, die automatisch Reflexionen bei glänzenden Abzügen heraus rechnet.


    Und bei Druckern wird man wahrscheinlich in Zukunft auf druckerspezifische Treiber verzichten können. Wir drucken hier im Haus von den iPhones und dem iPad auf einem Airprint-kompatiblen Drucker. Dafür musste nach Anschaffung nichts eingerichtet o.ä. werden. Mittels einer Taste wurde der Drucker dem WLAN bekannt gemacht und danach erschien er in der Druckauswahl der iOS-Geräte. "Drucken" bedeutet für diese letztlich nur, ein PDF an die Drucker-IP-Adresse zu schicken – alles andere muss die Smartys nichts angehen, die sind quasi Druckertreiber-frei. Ich glaube, dass das auch in 10 oder 20 Jahren noch funktionieren wird.


    Also, ich finde natürlich klasse, dass ich mit den von dir genanten Treibersammlungen noch Uralt-Scanner ansteuern kann (und habe das auch schon gemacht – mit Geräten die ihren letzten kompatiblen Windows-Treiber zu XP-Zeiten bekamen) aber zukünftig sehe ich da immer weniger Bedarf.


    Was habe ich denn groß mit dem OS zu tun

    Ich hatte gestern erst wieder "mit dem OS zu tun". Und zwar gab es mal wieder den Fall, dass ich ein Bild suchte, von dem ich weder wusste, wie es heißt (irgendwas generisches), noch wo ich es abgelegt hatte (es war keinem Projekt zugeordnet). Ich wusste halt nur, dass ich es noch letzte Woche gesehen hatte. Vielleicht geht es nur mir so – aber ich kann mir gut vorstellen, dass andere dieses Problem auch kennen, dieses "da war doch mal was ...". Ich habe es per "Spotlight" (macOS-Suche) dann doch wiedergefunden.


    Um das Problem zukünftig abzuschwächen, habe ich mir jetzt (endlich) einen "virtuellen intelligenten Ordner" erzeugt, in dem (per voreingestellter Suche) alle Dokumente (nicht beliebige Daten) von allen angeschlossenen Medien (nicht nur dem eigenen Dokumenten-Ordner) landen, die ich in den letzten 2 Wochen angesehen/geöffnet (nicht erzeugt oder geändert!) habe. Das Ganze ging direkt in der Such-Maske und war nach 1 Minute fertig. Wenn ich also demnächst mal wieder nach einem Dokument suche, von dem ich nichts weiß, außer dass ich es in den letzten Tagen auf dem Bildschirm hatte, kann ich meinen neuen Ordner aus der Seitenleiste bemühen.


    Ich habe einen mit mir befreundeten Windows-Programmierer gefragt, ob er so etwas auch für Windows erzeugen könnte (weil die Suche dort ohnehin traurig ist) und er sagte mir: Weder für Geld noch für gute Worte – da Windows das Datei-Attribut "zuletzt geöffnet" nicht kennt (nur "erstellt" und "zuletzt geändert"). WTF ...


    komplette Ordner in /Applications ziehen bzw. von da in den Trash ist keine Paketverwaltung - da wird zB beim Löschen nur genau dieser Ordner entfernt, aber nicht die restlichen Daten, die die App im Dateisystem verstreut hat.

    Das ist natürlich komplett richtig – eine Paketverwaltung ersetzt das nicht. Aber übers Terminal kann man ja trotzdem Anwendungen installieren. Ich habe das heute mit "homebrew" gemacht und mir damit "youtube-dl" heruntergeladen/installiert (alte Weihnachtslieder saugen).


    Das "normale" Installieren (außerhalb des App Stores) ist aber auch unproblematisch. Üblicherweise wirft man ja nur ein Programm-Icon (welches in Wirklichkeit ein Ordner/Bundle ist, was aber Otto Normalverbraucher nicht weiß) in den App-Ordner. Fertig. Und löschen geht halt, wie von dir erklärt, per "Datei-Icon in den Papierkorb". Was dann noch übrig bleibt, das ist in 99% der Fälle eine 2K große Einstellungen-Datei im Preference-Ordner. Die tut weder vom Speicherplatz, noch von der Anzahl her (bei hunderttausenden von Dateien) weh. Sie beeinflusst auch in keiner Weise den Betrieb, also was soll's? Ich finde die Vorgehensweise sogar gut, denn wenn ich nach Jahren doch mal wieder eine neue Version des gelöschten Programms installiere, dann kennt es sogar noch die alten Einstellungen. Wen es stört, der kann kostenlose Tools drüberlaufen lassen, um "Karteileichen" zu entsorgen und hat dann "ein gutes Gefühl".


    "Größere" Suiten, die "überall" im System Dateien ablegen, haben einen "richtigen" Installer und auch einen De-Installer, der den ganzen Kram wieder entfernt, wenn man das wünscht. Nur ist es so, dass man solche Programme ja meistens für teuer Geld gekauft hat und sie dann auch behält. Richtig Deinstalliert habe ich in Dekaden vielleicht 5 Programme.

  • Weitere Praxis-Tests:


    MacTechNews: Unser Test ist denkbar einfach: In einer leicht angepassten Version von Logoist 4.1 messen wir, wie lange ein Mac benötigt, um alle 150 mitgelieferten Beispieldokumente zehnmal zu rendern.



    Ergebnis: Mac Mini M1 einiges schneller als iMac Pro Xeon 10 Kerner @ 3GHz, vom Rest gar nicht zu reden.



    Techcrunch: Yeah, Apple’s M1 MacBook Pro is powerful, but it’s the battery life that will blow you away. Apple's new M1 powered MacBook shows impressive performance gains that make Intel's chips obsolete overnight.


    Here are the machines I used for testing:

    2020 13” M1 MacBook Pro 8-core 16GB

    2019 16” Macbook Pro 8-core 2.4GHz 32GB w/5500M

    2019 13” MacBook Pro 4-core 2.8GHz 16GB

    2019 Mac Pro 12-Core 3.3GHz 48GB w/AMD Radeon Pro Vega II 32GB



    Ergebnis: Mac Mini M1 beim Kompilieren schneller als Mac Pro Xeon 12-Kerner @3,3GHz.


    But, the big deal here is really this second chart. After a single build of WebKit, the M1 MacBook Pro had a massive 91% of its battery left. I tried multiple tests here and I could have easily run a full build of WebKit 8-9 times on one charge of the M1 MacBook’s battery. In comparison, I could have gotten through about 3 on the 16” and the 13” 2020 model only had one go in it.


    This insane performance per watt of power is the M1’s secret weapon. The battery performance is simply off the chart.


    Ich finde, das liest sich insgesamt auf jeden Fall schon sehr gut.