Hello, Guest the thread was called31k times and contains 743 replays

last post from daybyter at the

Erste Apple Macs mit ARM-Prozessoren

  • Auf mich wirkt es eher wie ein 'alles arbeitet zusammen damit es als Desktop system flutscht und wenig Latenzen gibt'.

    Also keine einzelne Komponente oder kein einzelne Neuheit aber eben alles Mal sinnig zusammen. Ergibt sich intuitiv Sinn, dass soetwas dann von Apple kommt. Nur die liefern ja ein entsprechendes Gesamtpaket UND haben das nötige Kleingeld bzw Know-how oder Abteilungen auf all den Teilgebieten zu wurschteln. Ob das ein konkreter Meilenstein ist? Den Eindruck habe ich persönlich eher nicht.

  • Den Eindruck habe ich persönlich eher nicht.

    Das kommt halt auch stark auf den Usecase an.


    Bei mir halten die beiden MacBookAirs mit dem M1 deutlich!! länger durch als die mit den Intelprozessoren... Meilenstein, ja würde ich sagen...


    Geschwindigkeitstechnisch mach ich aber nicht ständig Aufgaben die Last ziehen, so dass ich auch nicht wirklich merke ob der M1 im SIngleCore sehr viel schneller ist ....

    aber das die Lüfter nicht mehr hochdrehen ist auch echt genial...


    UseCase stationärer iMac oder MacMini:

    keine Ahnung, wahrscheinlich merkt man da nicht so gleich einen Unterschied und es ist so wie enthusi sagt das man von einem Meilenstein erstmal nichts direkt merkt...

  • Ob das ein konkreter Meilenstein ist?

    Was Apple neu gemacht hat, war ja zum einen, für die eigenen PCs einen SoC selbst zu entwickeln (und nicht einfach von der Intel/AMD-Stange zu kaufen) und zum anderen das ARM-CPU-Design auf Desktop-PC-Level zu hieven (die oben angesprochenen Chromebooks und auch Surfaces sind davon ja noch meilenweit entfernt und die Server-Chips sind dafür auch nicht geeignet).


    Ein Meilenstein oder eine Zäsur KÖNNTE der M1 für die PC-Industrie sein. Es könnte einen Trend auslösen – weg von X64 hin zu ARM (und anderen RISC-Architekturen). Es KÖNNTE auch einen Trend (bei anderen Herstellern) auslösen, sich eigene CPUs auf den Leib zu schneidern (was mit einer ARM-Architektur-Lizenz möglich ist) oder schneidern zu lassen. Der M1 könnte für Intel der entscheidende Sargnagel sein oder aber Intel aus seinem Dornröschen-Schlaf aufwecken und ihr Potential neu entfalten. Es sind mehrere Szenarien denkbar – manche vielleicht wünschenswerter als andere – aber auf jeden Fall ist schonmal Bewegung in einen etwas vor sich hin dämmernden Markt gekommen. Vieles wird von Microsoft abhängen – z.B. ob sie ARM-Windows gleichwertig mit X64-Windows positionieren und wie gut sie die Portierung bestehender X64-Software (z.B. von SAP oder AutoDesk) unterstützen.


    Gut für alle PC-Hersteller und unabhängig von Apple und dem M1 war der Corona-bedingte Trend zu Home-Schooling und -Working und damit gestiegene Bedarf an (mobilen) PC-Lösungen. Ohne diesen Schub wäre der schon ca. 10 Jahre andauernde Niedergang der PC-Stückzahlen evtl. weitergegangen. Ohne Corona hätte man noch viel stärker bemerkt, wie sehr die PC-Industrie einen Arschtritt benötigt. Nun können sich die Entwicklungen gegenseitig befruchten.

  • Ist halt mal wieder Definitionssache, was man mit dem Wort "Meilenstein" eigentlich aussagen moechte.


    Ein Meilenstein fuer Apple ist es ohne Zweifel, wenn sie von Fremd-CPUs auf Eigenentwicklungen umsteigen. Ob es ein Meilenstein fuer die PC/Desktop-Geschichte ist, wird sich noch zeigen.

  • Naja vielleicht muß man auch bedenken dass wir die letzten 2,5 Jahrzehnte dedizierte Grafikkarten hatten, und nun die Grafiklösung vermehrt wieder in der CPU untergebracht wird. Das ist ja allein schon von der Grundarchitektur ein Unterschied, womöglich hat es damit zu tun, dass inzwischen der "Shared Memory" wieder sinnvoller ist als getrennter Speicher. Mit der Geschwindigkeit der Speicheranbindung könnte es ebenfalls zu tun haben. Bin aber da kein Experte und stelle nur mal mögliche Möglichkeiten in den Raum.

    Es gab die letzten 15 Jahre aber auch CPUs mit integrierter Grafikeinheit. Die Dinger sind halt einfach bisher lahm gewesen.

    Mit höherer Taktrate der RAMs hat sich das in den letzten, sagen wir mal 5 Jahren aber geändert. Siehe Apple Intel Retina MacBooks usw. AMD Ryzen, ...

    Und Apple hat das ganze noch weiter optimiert, und das RAM direkt neben die CPUs/GPUs gebaut, daher ist der Datendurchsatz erheblich größer.

    Kombiniert mit dem schnellen FLASH ergibt sich dadurch diese gute Geschwindigkeit.


    Der Meilenstein, den ich sehe, steckt aber im SoC. Ich denke Apple hat hier sehr gute Arbeit geleistet, die benötigten Funktionen in Silicon zu gießen.

    Ich denke genau hier wird nochmal eine Stärke. Und für Anwendungen wird hier, laut Aussagen diverser Firmen, von Apple auch ein sehr gutes API geliefert, das die Umsetzung einfach macht.

  • Ja, das gibt es nicht erst seit gestern, so war das auch nicht gemeint. Aber es ist eben mehr und mehr im Kommen. Frueher hatten das halt hauptsaechlich die "Office-Rechner", waehrend man heute durchaus mit einer CPU-integrierten GPU auch etwas anspruchsvollere 3D-Sachen zocken kann. Und bei Handys, Tablets und anderen Geraeten mit SoC natuerlich genauso.


    Mitte der 90er fing es halt an, dass man eine 3D-Karte "brauchte", deshalb die 2,5 Jahrzehnte. Aber in den letzten 10 Jahren hat sich auch im Bereich der integrierten GPU was getan. Mein letztes Laptop von 2014 mit Intel-GPU konnte Minecraft (zum damaligen Zeitpunkt) absolut fluessig in FullHD laufen lassen. Mein heutiges von 2020 mit AMD Ryzen CPU und darin integrierter GPU kann noch mehr. Es ist halt eine Entwicklung, und mit "vermehrt wieder in der CPU untergebracht" meine ich nicht erst seit dem Apple M1, sondern eigentlich schon die letzten 10 Jahre.

  • Es ist halt eine Entwicklung, und mit "vermehrt wieder in der CPU untergebracht" meine ich nicht erst seit dem Apple M1, sondern eigentlich schon die letzten 10 Jahre.

    Die internen GPUs von Intel, wie sie Apple zuvor in vielen Geräten verbaut hatte, konnte der M1 ja an die Wand nageln. Ich bin aber gespannt, wie sich der M1X (oder M2) anstellt, denn er muss gegen dedizierte AMD-Grafikeinheiten antreten, wie sie Apple z.B. in den besseren 16"-MBPs und iMacs verbaut hat. Ich wäre ja schon froh, wenn er da einigermaßen mithalten kann. Bis jetzt hat Apple ja nur die ARM-Einstiegsklasse vorgestellt – jetzt kommt es darauf an, ob Apple auch bei den besseren CPUs und GPUs die Erwartungen erfüllen kann oder ob sie jetzt schon einknicken.


    Die Corona-bedingte Chipknappheit auf dem Markt führt ja schon jetzt zu zeitlichen Verzögerungen, wodurch sich das Ganze ein wenig zieht, was wahrscheinlich als Feuerwerk der neuen ARM-Modelle geplant war.


    ----


    Trotzdem gibt es noch ein paar frische News:


    ZDNet: Apple makes its M1 Mac case to enterprises

    Apple is making its M1 Mac pitch to enterprises, with a commissioned Forrester report looking at the economic impact of the Mac and more cost savings over three years.The new findings from Forrester, which was published Monday, found that organizations can realize a $843 cost savings per Mac over its lifetime with the M1 chip.


    Engadget: Adobe Premiere Pro now runs natively on M1 Macs

    Following a beta release in December, Premiere Pro now officially supports M1 Macs. “From launch times to export, everything is faster, and editing is buttery smooth,” Adobe says of the native Apple Silicon version of its video editing software.


    Tom’s Hardware: Debian Linux Running Bare Metal on Apple's M1 SoC

  • Die internen GPUs von Intel, wie sie Apple zuvor in vielen Geräten verbaut hatte, konnte der M1 ja an die Wand nageln. Ich bin aber gespannt, wie sich der M1X (oder M2) anstellt, denn er muss gegen dedizierte AMD-Grafikeinheiten antreten, wie sie Apple z.B. in den besseren 16"-MBPs und iMacs verbaut hat. Ich wäre ja schon froh, wenn er da einigermaßen mithalten kann. Bis jetzt hat Apple ja nur die ARM-Einstiegsklasse vorgestellt – jetzt kommt es darauf an, ob Apple auch bei den besseren CPUs und GPUs die Erwartungen erfüllen kann oder ob sie jetzt schon einknicken.

    Mir stellt sich allerdings auch die Frage, in welchen Situationen man die Grafikeinheit auf dem Apple ueberhaupt ausspielt. Er ist ja nicht so der typische Gaming-Rechner, und die Spiele die es so fuer iPad und iPhone gibt, duerften sich halt im typischen 3D-Mobile-Games-Sektor befinden, also nix bahnbrechend anderes als das, was man (ich) von Android so kennt. Von daher denke ich, dass wenn die Grafikeinheit im M1 dem entspricht, was man von typischen Smartphone-SoCs gewohnt ist, sollte es ja eigentlich erstmal keine Probleme geben, oder? Oder nutzen die ganzen Video-Tools usw heftig die GPU? Oder gibt es inzwischen mehr Gaming auf dem Mac?

  • Mir stellt sich allerdings auch die Frage, in welchen Situationen man die Grafikeinheit auf dem Apple ueberhaupt ausspielt.

    Nun ja – auch beim Video-Editing, 3D-Grafik-Erstellung und Bildbearbeitung kommt die GPU zum Einsatz, nicht nur bei Spielen.


    Was das Spielen angeht, so gab es immer von den Top-20-PC-Spielen auch ein paar Umsetzungen für den Mac und Valve/Steam unterstützen den Mac ja auch ganz gut – es gibt dort deutlich mehr Games für Mac als für Linux (welches Valve ja selbst für eigene Hardware nutzt).


    Was Mobile Games angeht, muss man bedenken, dass das iPhone seit Jahren mit die beste Grafikperformance unter den Smartphones hat und die iOS-Spiele das als Minimum annehmen können (bei Android muss man als Entwickler ja auch die schwächeren 150€-Geräte "mitnehmen"). Die Games sind grafisch natürlich nicht auf PS5- oder Gamer-PC-Level aber in den letzten Jahren schon ganz ordentlich geworden. Also spielemäßig werden die M1-Macs von 2 Seiten her bedient – ausgewählte Titel aus der PC/Konsolen-Welt und ein Gutteil der gehobenen iOS-Games (an den Mac angepasst/aufgewertet oder aber auf dem M1 die Binaries direkt).


    Wenn man für 5€ im Monat Apple-Arcade bucht, bekommt man knapp 200 Games, die auf iPhone, iPad, Apple TV und Mac laufen (und Spielstände miteinander teilen) und auch (auf allen Geräten) Controller unterstützen.


    Und es wird ab und zu gemunkelt, dass Apple dieses oder nächstens Jahr ein aufgebohrtes M1-Apple-TV als Gaming-Konsole vermarkten könnte – mit einigen interessanten Gaming-Franchises im Schlepptau. Aber das stet natürlich in den Sternen.


    Nach wie vor ist Gaming natürlich nicht der Grund, sich einen Mac anzuschaffen. Aber trotzdem wurde man immer ganz gut mitbedient und vielleicht wird das mit den ARM-Macs sogar noch besser. Trotzdem wird der Mac nie so ein Spielecomputer werden, wie hochgezüchtete PCs.

  • Ergänzung: Apples Grafikschnittstelle "Metal" ist nicht nur Apples Nachfolger von OpenGL, sondern auch von OpenCL (übrigens eine OpenSource Apple-Entwicklung), d.h. die GPU kann auch Aufgaben übernehmen, die normalerweise die CPU ausführen würde (GPGPU – general-purpose computing on graphics processing units – nennt sich das wohl allgemein). Der OTOY Octane Renderer unterstützt z.B. Metal (auf dem PC nur CUDA und nicht OpenCL) und damit die GPUs für Berechnungen, die Adobe Suite, DaVinci Resolve, FinalCut Pro usw. ebenso.


    Was Games angeht: Baldo soll z.B. demnächst bei Apple Arcade erscheinen:


  • Von daher denke ich, dass wenn die Grafikeinheit im M1 dem entspricht, was man von typischen Smartphone-SoCs gewohnt ist ...

    Die A14-GPU aus dem letztjährigen iPhone hatte 4 Cores, die M1-GPU die doppelte Anzahl (7 beim Sparmodell, sonst 8).


    Hier ein kurzes Video zum A14 (wegen der Unterschiede zum M1 und zu anderen SoCs):




    Und Hoffnungen auf den A15 als vielleicht ersten ARMv9-Smartphone-SoC:




    Hier sind einige Grafik-intensive Mac-Games (Zusammenstellung von 2019), die größtenteils aus der PC- (und nicht der Mobile-) Ecke kommen:




    Und noch ein paar FPS Games (die laut Kommentar größtenteils auch schon auf den M1-Macs laufen):



  • Nachdem Intel auf Apples ARM/M1-Vorstoß schon anderweitig reagiert hat (Werbekampagne gegen Apple und Rausschmiss des eigenen CEOs), kommt jetzt der nächste Innovations-Coup: ;) Die Fertigungstechnik bekommt ein neues Namens-Schema. Laut Intel sind Strukturbreiten nicht mehr aussagekräftig (seltsam, dass man darauf kommt, wenn man da ins Hintertreffen gerät) und neue Bezeichnungen müssen her. Der verbesserte 10nm-Prozess heißt jetzt "Intel 7" (echt jetzt?) und der 7nm-Prozess heißt "Intel 4". Ein Schelm, wer böses dabei denkt.


  • Ein Schelm, wer böses dabei denkt.

    Ich finde ja Intel 20A am Geilsten ... schön noch mal die drastischen Nachteile der eigenen Architektur betonen! :applaus:

  • News:


    Windows auf Apple-Silicon-Macs und iPads: Microsoft gibt grünes Licht für Windows 365

    Das scheint das Ziel zu sein, auf das Microsoft hinarbeitet: Windows as a (cloud) service. Man zahlt also knapp 30 Euro pro User und Monat und hat dafür so viel "Windows", wie man will – egal auf welchem Gerät. Ob das die Zukunft von Windows ist? Ich hoffe ja noch, dass Microsoft das Windows für ARM auch freigibt, sodass man sich das legal auf M1-Macs und Nachfolger (zumindest auf eine lokale VM) ziehen kann (für den der es braucht – ich persönlich nicht).


    Die Lightroom-Alternative Capture One Pro erhält Support für den Apple M1 mit doppelter Performance

    "Capture One Pro ist eine der beliebtesten Alternative zu Adobe Lightroom. Das Programm ist seit dem jüngsten Update für den Apple M1 optimiert, laut den Entwicklern dürfen Nutzer mit einer doppelt so schnellen Performance rechnen."


    Ich bin aber gespannt, wie sich der M1X (oder M2) anstellt, denn er muss gegen dedizierte AMD-Grafikeinheiten antreten, wie sie Apple z.B. in den besseren 16"-MBPs und iMacs verbaut hat.


    So eine Übersicht ist ja schon mal ganz schön. Hier sind die Grafik-Optionen gelistet, die man beim MacBook Pro 15" von 2018 hatte. Die M1-GPU kratzt beim Metal-Benchmark an der Leistung der Radeon Pro Vega 16. Wenn man vorsichtig hoffen darf, dass beim M1X-Chip (zumindest optional) doppelt so viele GPU-Cores vorhanden sind, wie beim M1, dann muss man sich vielleicht doch keine Sorgen machen, dass man bei der GPU-Performance in die Röhre schaut, nur weil es keine dedizierten Grafikkarten mehr in den MacBooks geben wird.

  • DaVinci Resolve update brings 3x faster M1 Mac performance along with 30% longer battery life

    (professionelle Videoschnitt-Software)

    "DaVinci Resolve officially launched M1 Mac compatibility back in March and today the latest update is out. Blackmagic Design says it unlocks more major breakthroughs including 3x faster performance, 30% longer battery life on M1 MacBooks, and 65% faster render times."


    Apple M1 Now Boots Gnome Desktop on Debian Linux

  • Ich war ja scharf auf die 2. Revision der iMacs nach dem ARM-Umstieg, aber jetzt wo Apple Bilder auf dem iPhone scannen will (und nicht erst in der iCloud), erwarte ich dass dieses "Feature" auch in macOS kommen wird. Also auf dem Mac der regelmäßige Scan der Fotos Bibliothek nach Kriterien, die sich der Konzern so ausdenkt, um dann Treffer - und natürlich False Positives - zur persönlichen Sichtung in die USA zu übertragen 8o.


    Tja, seit ich das gelesen habe, lausche ich mehr den Leuten, die sich jetzt Gamer-PCs zusammen stellen, um dann vielleicht 2023 statt eines neuen Macs doch lieber einen passenden PC mit Töchterchen zu bauen (auf dem könnten wir dann auch "Hogwarts Legacy" spielen, was auf macOS nicht kommen wird) :/.

  • erwarte ich dass dieses "Feature" auch in macOS kommen wird.

    Wohl eher nicht. Auch für iOS wurde es abgeblasen – die Kritik war zu groß. Apple spricht davon, die Technik zu überdenken – ich schätze, es läuft darauf hinaus, dass sie es wie Google und Co. machen: In der Cloud den Zweitschlüssel verwenden, um sich alle Bilder anzugucken (eigentlich das, was man mit dem anderen Verfahren verhindern wollte). Das ist einfach und anscheinend stört es kaum jemanden.


    Nochmal abschließend (denn es ist so gut wie vom Tisch): Es sollte keinen regelmäßigen Scan geben, sondern nur in der Fotomediathek bei den Bildern, die man gerade in die iCloud (und nur in die) hochladen möchte. Und der Scan wäre lokal abgelaufen, ohne Zutun und Wissen seitens Apple oder Cloud. Erst bei einem Schwellwert von rund 30 bekannten kinderpornografischen Bildern (um false positives beim Matching mit den Hashes auszuschließen), wäre eine Meldung auf Sichtung erfolgt. Und die wäre nicht auf dem Gerät passiert, denn die Bilder wurden ja schon hochgeladen (denn sonst wäre der Mechanismus nicht angesprungen). Also kein Zugriff von außen auf das Gerät und keine Aufweichung der Verschlüsselung des Geräts. Eigentlich technisch gut gedacht – aber die Psychologie außer Acht gelassen. Und natürlich die Gefahren durch fremde Mächte (China und so ..). Von daher eine gute Entscheidung, das Ganze in dieser Form zu canceln, bevor es überhaupt (selbst in iOS, geschweige denn in macOS) implementiert wird. Und das hatte ich mir auch schon länger gedacht, ich "wartete" nur noch auf die offizielle Meldung.


    Zudem kann man natürlich auf einem Desktop-OS alles manipulieren, daher wäre so ein Feature genau so schnell ausgehebelt, wie Microsofts umfangreichen Telemetrie-Bemühungen – mit einem kleinen 3rd-Party-Tool.


    ---


    Du kannst dir natürlich trotzdem einen Gamer-PC mit Windows zusammenbauen – einr Option, die ich mir auch jedesmal vor Kauf eines, doch recht teuren, Macs durch den Kopf gehen lasse. Bisher habe ich mich dann doch immer wieder anders entschieden – aber man sollte immer alle Optionen kennen und prüfen. Und wenn das Töchterchen eher spielen will (vollkommen natürlich bei Jüngeren), ist der Mac ohnehin nicht die perfekte Plattform. Mir persönlich ist das egal, weil ich aktuelle Spiele ohnehin nicht zocken will und mir der Emu/Retro-Kram vollkommen reicht.


    ---


    Google von Apple beeindruckt – eigene Notebook-Chips in Entwicklung

    "Nun heißt es, dass eine neue Ära für die Chromebooks beginnen könnte. Google sei sehr beeindruckt von Apples Fortschritten und Ergebnissen auf dem Chip-Markt gewesen – nicht nur von den A-Chips der iPhones, sondern vor allem auch vom M1 für Macs. Wie es in einem Bericht von Nikkei Asia heißt, wolle Google daher einen ähnlichen Weg beschreiten. Bereits 2023 soll der erste ARM-Prozessor aus eigener Entwicklung in einem Chromebook arbeiten."


    Sucht Apple Alternativen zu ARM? Experte für RISC-V erwünscht

    "Bisweilen ist es auch erkenntnisreich, die Stellenausschreibungen einer näheren Begutachtung zu unterziehen: So zeigt sich beispielsweise, dass Apple neue Mitarbeiter für Fahrzeugtechnik sowie künftige Mobilfunktechnologien wie 6G sucht. Ein aktuelles Jobangebot legt nahe, dass sich der Konzern nach einer Alternative zu ARM umsieht. [...] Allerdings gilt es als unwahrscheinlich, dass die auf RISC-V basierenden Designs in naher Zukunft an ARM vorbeiziehen. Bei der Stelle gehe es darum, an innovativen RISC-V-Lösungen zu feilen und hochmoderne Routinen in Apples Produkte zu implementieren."

  • Ich denke eher dass man diverse ARMs in all then Controllern durch RiscV ersetzen möchte um Lizenzkosten zu sparen. Das wäre auch naheliegend.

    Meines Wissens haben die Lizenzgebühren bei ARM eine Obergrenze, wenn man genug Stückzahl macht sind weitere Core-Instanzen dann gratis - wobei bei Apple nicht mal klar ist, ob die überhaupt pro Kern bezahlen müssen, da sie ja eine Architektur-Lizenz haben und die Kerne selbst designen.