Hallo Besucher, der Thread wurde 130k mal aufgerufen und enthält 1379 Antworten

letzter Beitrag von Retrofan am

Apple Macs mit ARM-Prozessoren

  • Okay ich habs mal nachgerechnet, also die neuen Displays sind 16:10 + 74 zusaetzliche Pixel oberhalb, abzueglich Notch. So gesehen kann man natuerlich sagen, man hat "mehr Platz", weil der Bildschirm ein paar Pixel hoeher ist, da wird dann eben die Menueleiste reinverfrachtet und die Notch ist halt mittig. Wenn man es aber so herum betrachtet, dass man ENDLICH einen groesseren Bildschirm haette (weil man unbedingt schmale Raender moechte), dann wird einem halt wieder ein Stueck herausgeklaut. Ist wohl Ansichtssache, wie man das bewertet.


    Ein paar Dinge habe ich aber noch nicht ganz verstanden. Auf der offiziellen Apple-Seite sieht man z.B. das hier:



    Das ist vermutlich das Standard-Bildanzeige-Programm. Hier ist die Menueleiste unterhalb der Titelleiste. Warum das? Anscheinend gibt es einen sog. "Fullscreen-Modus", in dem die Menueleiste ausgeblendet wird. Diese Logik verstehe ich nicht. Bei einem Video-Player usw, ja, aber bei einer normalen Anwendung, wo die Menueleiste dann doch wieder sichtbar ist, aber unter der Titelleiste und damit auch unter dem "neugewonnen Notch-Bereich", ist fuer mich nicht logisch.


    Auch auf diesen beiden Bildern erkenne ich keine Menueleiste:



    Haben diese Programme kein Menue, auch wenn man sie im Fenstermodus betreibt? Oder haben sie dann eins? Wie kommt man an die Funktionalitaet dran, wenn die Menueleiste im Fullscreen-Modus nicht mehr sichtbar ist?


    Hier sieht man eine ziemlich gut gefuellte Menueleiste, links von der Notch:



    Was passiert nun z.B., wenn man das Programm auf Deutsch laufen laesst, und die Texte alle laenger sind? Sind dann 1-2 Menuepunkte rechts von der Notch?

  • allerdings ist das meiner Meinung nach mehr "aus der Not eine Tugend machen"

    Das sagte ich ja – die Notch hat technische Gründe. Trotzdem erkennt man daran ein iPhone.


    Zumal die meisten Smartphones eine deutlich kleinere Notch haben

    Die haben aber auch meistens weniger Sensorik dort verbaut – daher ist die Gesichtserkennung, sollten sie eine haben, viel leichter auszutricksen (und nachts funktioniert sie oft nicht).



    Und beim neuen iPhone (rechtes Bild) ist sie 20% geschrumpft, weil man den Lautsprecher über die anderen Elemente gebaut hat. Man kann sicher sein, dass Apple hier jeden Millimeter herausholt, den sie können.


    Ja, manche Desktop-Programme haben Menue-Leisten.

    ALLE nativen Mac-Programme haben eine Menüleiste – man kann sie aber optional ausblenden und z.B. in Fullscreen gehen (das ist aber nicht der übliche Arbeitsmodus – zumindest nicht meiner). Mir fällt kein einziges Programm ein, das keine Menüleiste hat. Selbst die aktuellen MS-Office-Programme (die sich unter Windows, meine ich, auf ihre Ribbon-Oberfläche verlassen) haben beim Mac dankenswerter Weise (zusätzlich) eine Menüleiste.



    Was du da größtenteils im Apple-Video gesehen hast, waren keine aktiven Programme, sondern irgendwelche angezeigten Bilder.


    Hat man denn tatsaechlich "mehr" Platz?

    Ja, wurde auch im Video gesagt. Es ist mehr Fläche/Diagonale da, es sind (1,8 Mio.) mehr Pixel da und der Rand ist dünner (jetzt oben und seitlich 3,5 mm). Wenn man den Vorgänger kennt (habe ich weiter oben abgebildet), sieht man den Unterschied, was die Rand-Dicke angeht. Ganz ähnlich, wie beim iPhone – da wurde auch nicht nachträglich in einen zuvor großen Screen eine Notch reingehämmert. Der Rand war bis zum iPhone 8 oben und unten viel dicker und wurde beim Modell X (10) deutlich verkleinert. Die Notch ist quasi der letzte Rest vom viel größeren Rand, der vorher da war. Damit konnte die Status-Leiste aus dem restlichen Screen herausgeschoben werden.


    ---


    Viel interessanter als die Notch finde ich, dass das neue 14"-Display mehr Pixel hat, als das vorherige 16"-Display. Damit wird jetzt auch das kleine Modell z.B. für mich interessant. Und 120 Hz, Mini-LED-Beleuchtung, Milliarden Farben und HDR finde ich auch sehr interessant.

  • Das ist vermutlich das Standard-Bildanzeige-Programm. Hier ist die Menueleiste unterhalb der Titelleiste.

    Das Programm kenne ich nicht von meinem Mac. Die Menüleiste unterhalb der Titelleiste ist ungewöhnlich für macOS. ich denke, dass das nur ein Fake zur Demonstration ist.

    Haben diese Programme kein Menue, auch wenn man sie im Fenstermodus betreibt?

    Das scheint der Fullscreen-Modus zu sein, den macOS für jedes Programm ermöglicht. Das Menü ist dann unsichtbar, wird aber sichtbar, wenn man mit der Maus an den oberem Bildschirmrand geht.

    Was passiert nun z.B., wenn man das Programm auf Deutsch laufen laesst, und die Texte alle laenger sind? Sind dann 1-2 Menuepunkte rechts von der Notch?

    Das würde mich auch interessieren ^^.


    EDIT: überschnitten mit Retrofan 's Antwort...

  • Das ist vermutlich das Standard-Bildanzeige-Programm.

    Nein, ist es nicht. "Preview" sieht so aus:



    Hier ist die Menueleiste unterhalb der Titelleiste. Warum das?

    Keine Ahnung – ist nicht Standard. Ich tippe auf irgendein schlecht portiertes Windows-Tool. Frag mich aber nicht, warum Apple sowas zeigt. Trotzdem wäre dort zusätzlich eine System-konforme Menüleiste am oberen Bildschirm-Rand zu sehen, wenn man sie nicht ausgeblendet hätte.


    Haben diese Programme kein Menue, auch wenn man sie im Fenstermodus betreibt? Oder haben sie dann eins? Wie kommt man an die Funktionalitaet dran, wenn die Menueleiste im Fullscreen-Modus nicht mehr sichtbar ist?

    Man kann die Menüzeile ausblenden, wie auch das Dock. Manche finden das schick – ich finde das nur unpraktisch, weil man dann erst mit dem Mauspfeil den oberen Rand berühren muss, damit sie sich wieder einblendet. Ich nehme an, dass Apple sie hier ausgeblendet hat, weil sie vermeiden wollen, was hier mit dir gerade passiert – dass alle über die Notch reden, statt über die wirklich wichtigen Sachen, wie z.B. die CPU. ;)


    Was passiert nun z.B., wenn man das Programm auf Deutsch laufen laesst, und die Texte alle laenger sind? Sind dann 1-2 Menuepunkte rechts von der Notch?

    Da es die Notch (inkl. Gerät) noch gar nicht im Handel gibt, haben sich Software-Entwickler dazu wahrscheinlich noch keine Gedanken gemacht. Automatisch würden Menüpunkte (nehme ich an) auf die rechte Seite der Notch geschoben werden, wenn es zu viele sind. Ich schätze aber, dass die meisten Entwickler ab jetzt versuchen werden, das zu vermeiden.

  • Da es die Notch (inkl. Gerät) noch gar nicht im Handel gibt, haben sich Software-Entwickler dazu wahrscheinlich noch keine Gedanken gemacht. Automatisch würden Menüpunkte (nehme ich an) auf die rechte Seite der Notch geschoben werden, wenn es zu viele sind. Ich schätze aber, dass die meisten Entwickler ab jetzt versuchen werden, das zu vermeiden.

    Ich tippe eher darauf, dass die Menüpunkte im Fall der Fälle skalieren und damit links neben der Notch trotzdem Platz finden.


    Ich bin auf jeden Fall gespannt, ich habe mein 16" MacBook Pro sofort nach der Keynote bestellt und es kommt Anfang November an. Ende Dezember gesellt sich dann mein Mega65 dazu und ich bin gut aufgestellt. :thumbsup:

  • Ich nehme an, dass Apple sie hier ausgeblendet hat, weil sie vermeiden wollen, was hier mit dir gerade passiert – dass alle über die Notch reden, statt über die wirklich wichtigen Sachen

    Naja ist schon etwas amuesant, auf der einen Seite wird die Notch als "tolle Sache" bezeichnet und als Innovation gefeiert, auf der anderen Seite blendet man sie aus, weil man weiss, dass die Leute sich dran stoeren koennten ;) das war ja auch schon bei einer iPhone-Generation so, dass absichtlich Hintergrundbilder gewaehlt wurden, die die Notch auf den Werbebildern komplett verschwinden lassen - das grenzt in meinen Augen schon an bewusster Taeuschung. So ganz ueberzeugend scheint die Notch also noch nicht zu sein, wenn man sie seitens Apple so gerne unsichtbar macht ;)

  • Naja ist schon etwas amuesant, auf der einen Seite wird die Notch als "tolle Sache" bezeichnet und als Innovation gefeiert, auf der anderen Seite blendet man sie aus, weil man weiss, dass die Leute sich dran stoeren koennten ;) das war ja auch schon bei einer iPhone-Generation so, dass absichtlich Hintergrundbilder gewaehlt wurden, die die Notch auf den Werbebildern komplett verschwinden lassen - das grenzt in meinen Augen schon an bewusster Taeuschung. So ganz ueberzeugend scheint die Notch also noch nicht zu sein, wenn man sie seitens Apple so gerne unsichtbar macht ;)

    Die Notch konnte man erstmals beim iPhone X "bewundern". Und dort wurde es mitnichten versteckt, sondern ganz im Gegenteil, Apple setzte sich da drauf und hat es in allen Bildern offensiv kommuniziert. Google mal nach den Pressefotos des iPhone X. Beim Nachfolgemodell, dem Xs hat Apple dann tatsächlich Wallpapers eingesetzt, die die Notch verschwinden lassen. Aber zu dem Zeitpunkt war die Notch ein Jahr lang etabliert.


    Was natürlich stimmt ist, dass alle, inklusive Apple, am liebsten keine Notch aber trotzdem die Funktionalität hätten. Eine Notch ist also sicherlich nicht "toll" und etwas, das man abfeiern kann. Sie ist per Definition ein Kompromiss. Möglichst viel Screen UND die Funktionalität. Und so muss man es auch sehen. Alternative ist weniger Screen oder weniger Funktionalität. Nicht mehr und auch nicht weniger.

  • Das muss ich nicht googlen, das weiss ich ;) und genau darauf bezog sich mein Kommentar: In der Folge-Generation wurde die Notch bewusst vollstaendig versteckt. Das wirkte auf mich nicht gerade so, als sei man davon total ueberzeugt.


  • Kein Mensch will die Notch, ich auch nicht. Aber ich will mehr Platz auf dem Bildschirm, daher akzeptiere ich die Notch. Ist wie mit der Rückfahrkamera am Auto: jeder versucht sie so gut wie möglich zu verstecken, aber sie ist halt nützlich.

  • Von daher ist es mir ein Raetsel, wie man scheinbar mehr auf den Rand achtet als auf den Bildschirminhalt.

    Ich denke, das tut man nicht (während der Arbeit). Aber ab und zu guckt man sich seine Gerätschaften auch mal einfach so an. Aber was viel wichtiger ist: Es geht (wie so oft) darum, einen möglichst großen Bildschirm in ein möglichst kleines Gehäuse zu bekommen – weil man ja nunmal ein Notebook auch herumtragen muss. Und wenn man mit dem Bildschirm so nah an den Rand geht, wie hier (3,5 mm), dann bleibt da einfach kein Platz für eine hochwertige Kamera. Bisher hat sich Apple (wie die meisten) dafür entschieden, oben etwas mehr Rand zu lassen (der dann aber gänzlich für Inhalte verloren ist), jetzt sind sie so nah ran gegangen, wie möglich – und haben halt eine Notch als Kompromiss. Der eine findet das die bessere Lösung, der andere nicht. Kein Problem – selbst Apple hat noch Notebooks ohne Notch (mit mehr Rand) und ansonsten bleiben einem ja noch tausende von Rechnern anderer Hersteller. ;)


    Ich finde das Display insgesamt eine super Sache: Sehr hohe Auflösung (3.456 x 2.234 px = 3,5K), sehr hell (1.000 Nits, 1.600 Peak), 10 Bit/Kanal Farbtiefe, Mini-LED, HDR, bis zu 120 Hz dynamisch. Das reizt mich als Grafiker schon ein wenig.


    und genau darauf bezog sich mein Kommentar: In der Folge-Generation wurde die Notch bewusst vollstaendig versteckt.

    Es gab von Apple immer Promo-Material, auf dem man die Notch sehr gut erkennen kann und welches, auf der sie eher verschwindet. Wahrscheinlich, damit sich die Medien aussuchen können, was sie zeigen wollen. Ich weiß aber auch, dass Apple den 3rd-Party-Entwicklern gesagt* hat, sie sollen die Notch NICHT im GUI verstecken, also z.B. einen schwarzen Rand erzeugen, sondern offensiv und offen mit der technischen Eigenart umzugehen. Ähnliche Herausforderungen stellen ja auch abgerundete Bildschirmecken, Punchholes und (bei Samsung öfters zu sehen) und um das Gehäuse laufende Screens dar. Deshalb gibt es ja heute in Betriebssystemen sog. Safe-Zones, die den immer sichtbaren Bereich definieren und nicht von Hardware (oder System-GUI) verdeckt oder durch Biegungen verzerrt werden.



    *) In their new HIG for iPhone X they tell developers specifically not to hide it with a black bar underneath:

    Don’t mask or call special attention to key display features. Don’t attempt to hide the device’s rounded corners, sensor housing, or indicator for accessing the Home screen by placing black bars at the top and bottom of the screen. Don’t use visual adornments like brackets, bezels, shapes, or instructional text to call special attention to these areas either.


    So ganz ueberzeugend scheint die Notch also noch nicht zu sein, wenn man sie seitens Apple so gerne unsichtbar macht

    Du versuchst die ganze Zeit, die Argumentation umzudrehen. Niemand findet die Notch die perfekte Lösung – auch Apple nicht. Sie ist ein Kompromiss – das sagen alle hier. Aber meines Erachtens der bessere – die Alternative wäre ein insgesamt breiterer oberer Rand. Und da kann man noch viel mehr fragen – warum soll die kleine Kamera den ganzen oberen Rand nach unten schieben? Das ist doch eigentlich noch absurder – nur hat die Frage bislang niemand gestellt.


    Ich glaube nicht, dass die Notch ewig bleiben wird – aber sie wird auch kein Showstopper sein. Und ganz ehrlich, nach 2 oder 3 Tagen Arbeit am Rechner wird man sie gar nicht mehr wahrnehmen, ähnlich wie die Größe des jeweiligen Bildschirms.


    Ich finde übrigens, dass Apple in diesem Fall sehr schlechtes Promo-Material zur Verfügung stellt. Mir wäre es lieber, wenn sie die Menüzeile nicht immer ausblenden würden. Erstens verstehen Leute wie du (also Nicht-Mac-User) das GUI nicht mehr, zweitens zeugt es von wenig Selbstvertrauen und drittens würde die Menüleiste (zumindest die vom Dark-Theme) die Notch in das GUI einbinden – man würde sehen, dass man MEHR und nicht weniger Bildschirm zur Verfügung hätte. Auf den Bildern sieht es aus, als hätte man gar nichts dazu gewonnen und als blieb da weiterhin ein "Trauerrand". Extrem schlechte Entscheidung von Apple, diese Bilder zu verwenden.


    RAM-Bandbreite ist nur schwer durch etwas anderes als RAM-Bandbreite zu ersetzen, wenn man Intel- oder AMD-CPU-Grafik mit nur einem Speicherkanal betreibt sind die Ergebnisse deutlich schlechter als mit zweien. Aus dem gleichen Grund verwenden die aktuellen (und vorherigen) Konsolen von Sony und Microsoft, die ja im Prinzip auch eine CPU-integrierte Grafikeinheit verwenden, auch kein reguläres DDR4-RAM sondern setzen auf breit angebundenes GDDR6. Die PS5 kommt dabei mit ihrem 256 Bit breit angebundenen RAM auf 448 GByte/s, die Xbox Series X verteilt ihren Speicher auf Datenbusse mit insgesamt 320 Bit und kann je nach Region daraus mit 560 oder 336 GByte/s lesen. In regulären PCs findet man derzeit maximal zweikanaliges DDR4-3200(*), damit erreicht man nur 51,2 GByte/s und Apples M1 ist mit 68,25 GByte/s auch nicht viel besser aufgestellt.

    Was die RAM-Bandbreite angeht, hat Apple laut deiner Info ohnehin schon (gegenüber regulären PCs) die Nase vorn gehabt, wenn man auch nicht annähernd an aktuelle Spielkonsolen herankam. Da packen der M1 Pro und der M1 Max jetzt aber eine gute Schippe drauf, wenn man Apples Aussagen trauen darf. Der M1 Pro soll bis zu 200 GB/s schaffen, der M1 Max sogar bis zu 400 GB/s. Das geht schon in die Richtung der aktuellen Konsolen und ist weit entfernt von "regulären PCs" (vierfach und achtfach so schnell). Das wird bei der Grafik sicherlich einiges bringen, zumal die Anzahl der GPU-Kerne verdoppelt (16, Pro), verdreifacht und vervierfacht (24/32, Max) wurde.


    Und dann noch der maximale RAM-Ausbau von 64 GB – die können ja von der GPU komplett angesprochen werden – ich denke, da könnte es Anwendungsfälle geben, die auf "normalen Notebooks" nicht möglich sein werden.

  • ich habe mein 16" MacBook Pro sofort nach der Keynote bestellt und es kommt Anfang November an.

    Glückwunsch. Ich bin ja ein sehr zögerlicher Mensch, wenn es um Neukäufe geht – dafür bleibe ich dann aber auch lange dabei. Mein MacBook Pro ist noch nicht "aufgebraucht", ;) von daher habe ich die Ruhe weg. Bei den vielen Optionen bin ich mir auch noch nicht sicher, was die beste Wahl wäre (auch ein PC-Notebook wäre immer noch eine Option, trotz der Windows-Kröte). Das hat Apple wieder geschickt gemacht – irgendwas für "230 €" gibt es immer, was man noch dazubuchen könnte. ;)


    Erst dache ich, 14 Zoll reichen ja auch (der Bildschirm ist auch hier hammer) – aber das 16 Zoll Modell ist dann auch gar nicht mehr soooo viel teurer. 32 GB (und 1 TB SSD) müssen für mich sein aber der M1 Pro wäre mehr als ausreichend. Das Upgrade zum "kleineren" M1 Max (mit 24 GPU-Cores und mehr Speicherbandbreite) kostet dann aber wirklich "nur" 230 € mehr – da wird man dann wankelmütig.


    Wie gesagt, ich warte erstmal ab – da wird es eine Menge Benchmarks und Vergleiche geben. Irgendwann werde ich dann wissen, was ich wirklich möchte (und dann kommt schon der Nachfolger) ;)

  • Das geht schon in die Richtung der aktuellen Konsolen und ist weit entfernt von "regulären PCs"

    Ja, im PC-Bereich findet man 4- oder 8-Kanal-RAM-Interfaces nicht im Desktopbereich und (LP)DDR5 wird wohl auch erst mit der nächsten Chipgeneration (Intel angeblich ab 8. November?) Einzug halten.


    Das wird bei der Grafik sicherlich einiges bringen, zumal die Anzahl der GPU-Kerne verdoppelt (16, Pro), verdreifacht und vervierfacht (24/32, Max) wurde.

    NVidia sieht bei der Geforce 3090 IIRC ca. 1 TByte/s RAM-Bandbreite vor

  • Modell/Preis-Überlegungen: 14" (Space Grau), M1 Pro (10-Core CPU, 16-Core GPU), 16 GB RAM, 1 TB SSD, 96W Lader: 2.749 € (ja, ich weiß, ist teuer)

    Upgrade: 32 GB RAM – 460 Euro. Insgesamt: 3.209 €. Das wäre eigentlich schon eine tolle Maschine. Aber dann:

    Upgrade: M1 Max (24-Core GPU, 300 oder 400 GB/s RAM Durchsatz) – 230 €. Dann wäre man insgesamt bei 3.439 €


    Oder: 16" (Space Grau), M1 Pro (10-Core CPU, 16-Core GPU), 16 GB RAM, 1 TB SSD, 140W Schnell-Lader: 2.979 € (230 € mehr als das 14"-Modell)

    Upgrade: 32 GB RAM – 460 Euro. Insgesamt: 3.439 €.

    Upgrade: M1 Max (24-Core GPU, 300 oder 400 GB/s RAM Durchsatz) – 230 €. Nur wäre man dann schon etwas über 3,5 K€


    Also wäre hier die Entscheidung (wenn das die eigene Schmerzgrenze wäre), ob man die 230 € lieber in den größeren Screen oder aber in die leistungsfähigere GPU stecken möchte. Anderen sind dann wieder andere Dinge wichtig, wie z.B. eine größere SSD oder die volle Power mit 32 GPU-Kernen (nochmal 180 €).


    Alles nicht einfach. ;)

  • Jetzt setzt Apple also auf Games?

    Tun sie das? ?(

  • Ja, im PC-Bereich findet man 4- oder 8-Kanal-RAM-Interfaces nicht im Desktopbereich

    Sorry, ich meinte natürlich Notebooks (die MacBooks SIND Notebooks) – außerdem hatte ich DEINE Abgaben zitiert (wenn die nicht stimmten, sorry). Aber statt zu relativieren: Das ist doch schon recht ordentlich, was der ARM-SoC jetzt und hier (in einem Notebook) schafft, oder? Kann man doch zugeben, oder? ;)


    Jetzt setzt Apple also auf Games?

    Nö. Also, GPUs sind nur für Games? Sorry, wusste ich nicht.


    Apple begründet den Bedarf für die hohe GPU-Leistung der Pro-Modelle mit dem Kreativbereich, also mit 3D, Video, Bildbearbeitung und DAWs – und auch der Spiele-Erstellung. Natürlich kann man die Geräte aber auch zum Spielen gebrauchen. Aber der Fokus liegt natürlich woanders – das sind halt Creators-Machines.


    Ich dachte das sein Tinnef

    Kannst du bei Behauptungen (dass das jemand gesagt hätte) bitte mit Quellen arbeiten? Merci. Irgendwie kommt mir das ,so ohne Nachweis, wie ein Strohmann-Argument vor.


    Die Sache ist doch die: Gamer kaufen keine Macs, denn sie wollen immer das allerneuste und allerheißeste – und das kommt halt für Windows heraus. Wenn es dann mit Verspätung davon Mac-Portierungen gibt, sind die Gamer schon längst weitergezogen. Außerdem sind die MacBook Pros teuer – meistens werden solche Geräte daher von Kunden erworben, die die Kohle mit dem Gerät wieder reinholen wollen, also nicht spielen, sondern meinetwegen Spiele (oder andere Software) entwickeln.


    Aber auch ein Pro-User hat zwischendurch mal Lust und Zeit, ein Spiel zu zocken – schön, wenn die Hardware das dann auch kann.

  • Ich sehe, die beinharte "Gegen-Fraktion" kann noch nicht einmal zugeben, dass das (abgesehen vom Preis) schon ziemlich geile Kisten geworden sind – mit ihren 8+2-Kern-CPUs und den 16-32 GPU Cores und 16 ML-Cores und den Hardware-Video-De/Encodern, der schnellen Speicheranbindung und SSD und den 120Hz-3,5K-HDR-Displays und den rund 20 Stunden Laufzeit usw. OK, dann bin halt nur ich davon angetan – der exotische Mac-Sonderling. Ist mir auch ganz recht so – bleiben mehr ARMs für mich. ;)

  • Hatte nur ins Video reingesehen und sah da vor allem Game-Gfx.

    Und Du sprachst von Konsolen.

    Dann hast du halt sehr selektiv geguckt. Andere Anwendungen wurden genau so gezeigt. Und bei Spielen ging es vorwiegend um deren Erstellung, weniger um die Nutzung. Man sah da jetzt eher selten Leute mit Controllern vor dem Rechner, Spiele-Entwickler und andere Content-Creators kamen dagegen zu Wort. Und Konsolen wurden von Unseen nur wegen der Speicherbandbreite genannt – und von mir zitiert. Spiele waren da kein Thema.


    Aber ja, die Geräte werden sich ausgezeichnet zum Spielen eignen – aber nicht deswegen gekauft werden.

  • Ok, dann war das ein unguenstiger Eindruck :)

    Im Gegensatz zu Dir wunderte ich mich gar nicht ueber die hervorragende Leistung von ARM, dessen Potential sich auch schon vorher zeigte und zwar auch (nicht nur) jedes mal wenn Apple eine ARM Generation fabrizierte (schon bei 64bit). Das ist wie ich finde recht normale Entwicklung. Ich bin ein Freund von RISC :)

    Besonders RISCV allerdings, aber das ist noch eine andere Welt.

    Diese neuen M'er scheinen aber ja eher das gelungene Zusammenspiel allerlei (saemtlicher?) Komponenten in Desktopumgebungen zu sein. Das verkompliziert die Lage schon sehr. Verwundert aber auch nicht, da Apple ja eine der wenigen Anbieter ist die lange schon in allen Segmenten wurschteln.

    MIch stoert, dass die intern und closed sind und NICHT fuer andere Betriebssyteme offen. Dass Leute da jetzt nen Linux drauffrickeln mit unendlich viel Arbeit macht es (fuer mich) nicht einen deut besser.

    In sofern misbillige ich das Prinzip(!) wenn alles in einer Hand steckt. Insbesondere mit so offensichtlichen Monopolvorstellungen.

    Und ich nehme mir raus, Unmengen von Dongles, Notches und Verweigerung von Standards (USB) amuesant bis laecherlich zu finden ;)

    Ich behaupte aber auch nicht, dass mein Pinephone schneller oder schoener ist - niemand tut das :)