Hallo Besucher, der Thread wurde 78k mal aufgerufen und enthält 497 Antworten

letzter Beitrag von oobdoo am

AMD Ryzen

  • Was "fluppt denn da genau ? Ich behaupte, umso höher die Auflösung, umso weniger Frames bekommst Du mit dem Teil dargestellt.

    es gibt tatsächlich Situationen da gebe ich ace recht , als mehrfacher Phenom & FX Besitzer (Phenom X4 9600 , Phenom II X4 940BE , Opteron 6128 [8 K10 kerne @2000 mhz] // FX 6100 , Opteron 3280 , Athlon X4 950) kann ich klipp und klar sagen das selbst ein FX da besser ist , und der sprung von FX zu Zen ist wie der sprung von Nehalem (1. gen core i) zu Kabylake (7. gen core i)


    was einen großen und deutlich merkbaren unterschied in schnelleren spielen (oder Programmen wo viele daten bewegt werden) macht ist der Arbeitsspeicher
    der sprung von DDR2 (Phenom 9600 & 940BE) zu DDR3 (FX 6100 , Opteron 3280) ist gewaltig merkbar in zb GTA V , wo wenn man etwas schneller fährt oder fliegt dann plötzlich die Straßen und Häuser nicht mehr rendern weil DDR2 einfach zu lahm ist ,
    und der der controller in AMD chips war schon immer etwas beschiedener als der in Intel Flaggschiffen
    der sprung dann zu DDR4 (in meinen falle 2666mhz , was empfohlen wird für Zen) wieder ählich groß , dazu kommen dann noch so hübsche Kleinigkeiten wie modernere Instruktionen
    (Phenom hat weder AES noch SSE3 oder SSE4 , FX hat diese und ist 4x so schnell in dingen die diese Instruktionen brauchen und im server markt sind deshalb die FX basierten Opteron chips deutlich teurer als die K10 basierten da diese einfach nix mehr taugen, man kann die situation mit Core2 basierten chips vergleichen)

    für einen Büro Rechner ist Phenom föllig i.o . win 10 läuft auf denen genauso gut wie auf nen Modernen i7 oder Ryzen chip
    bloß in spielen ist ein Phenom II X4 bereits für eine karte wie ne GTX 1050 oder RX 560 ein Flaschenhals den FX da nicht unbedingt hat

    (meine Erfahrung basiert auf einen 3700mhz Phenom II X4 mit einer R9 270X in spielen wie GTA V , SE , BeamNG drive // FX und Phenom haben eine fast gleiche Durchschnitts FPS , allerdings stottert es gewaltig in schnellen Situationen auf den Phenom , der FX 6100 war problemlos und überwiegend stotterfrei)

  • Das Ding ist trotzdem stark unoptimiert.


    Dafür läufts wie gesagt auf meinem FX6300 erstaunlich gut ;) Hast Du das mal angetestet?


    Da der Roberts immer mehr und mehr reinpackt. Der übernimmt sich da. Ist wohl auch normal, wenn man von den Fans unzählige Millionen bekommt verliert man sich gern im Designer Wahn.


    Mal schaun - ich freu mich drauf das mit neuer Hardware anzutesten - ich hoffe mein Kopter Hobby lässt noch genug dafür übrig... *g*

  • der sprung von DDR2 (Phenom 9600 & 940BE) zu DDR3 (FX 6100 , Opteron 3280) ist gewaltig merkbar

    Das sind ja auch ganz andere Architekturen, die sich eben nicht nur in Sachen Speicherunterstützung unterscheiden. Im Allgemeinen macht die Geschwindigkeit des Speichers immer nur ein paar Prozent aus, wenn man sonst nichts verändert. Kann man z.B. hier sehen. Auf den Hardwareseiten wird dann natürlich immer ein "Man braucht unbedingt DDR6-90000!!!einself" draus; das "...um die letzten fünf Prozent rauszukitzeln zu einem aberwitzigen Preis" fällt eher weg.


    Ausnahme mag sein, wenn man eine iGPU benutzt, aber wer macht das schon, wenn's auf Performance ankommt.

  • (meine Erfahrung basiert auf einen 3700mhz Phenom II X4 mit einer R9 270X in spielen wie GTA V , SE , BeamNG drive // FX und Phenom haben eine fast gleiche Durchschnitts FPS , allerdings stottert es gewaltig in schnellen Situationen auf den Phenom , der FX 6100 war problemlos und überwiegend stotterfrei)

    Siehste Ace, gleiche FPS.. ;) ! Und das Stottern kommt ggf. nicht durch die die intere CPU Power / Rechnerei an sich, die ist sicher nicht bei 99%, sondern auch beim Phenom II nur zu 'nem "Bruchteil" (um die Hälfte) ausgelastet.
    Meinetwegen kann man sich aber auf mangelndes Zusammenspiel (von Hardware) einigen, dass dadurch eben irgendwas je Spiel 'mal haaken kann. Das liegt dann aber nur an einem bestimmten Detail. Bei einen Spiel (Simulation) muss ich die Texturen (car-skins) der 15-20 Gegner "abstellen" (oder viele, nicht alle), sonst gibt's sekündige freezes.* Ansonsten fluppt es aber besser als manche mit etwas besserem, das erwähnte ist also das einzige Problem. *->Das liegt aber nicht an der Power an sich, schon gar nicht an der der CPU intern. Eher bspw. an fehlender Optimierung oder Können der Software. Oder auch nur an zu wenig GPU Speicher, so dass er (Texturen) vom Mainboard Ram zum GPU Ram hin und her kopiert wird = es stottert, who knows.
    Die CPU würde nämlich im Spiel mit einer CPU Occupancy Warnung bedacht werden, davon ist der Phenom II aber genauso weit entfernt wie eine neuere CPU. Ausgelegt ist das Spiel für einen AMD Zweikerner btw. , rein theoretisch langt selbst das ;).

  • Beim Ryzen macht das schon was aus.
    https://www.golem.de/news/ram-…ual-rank-1704-127262.html


    Auf dem i7 noch das Spectre Update und schon sinds deutlich mehr als 10 %


    https://www.heise.de/amp/meldu…eutlich-mehr-3938747.html


    Schöne Zusammenfassung von Ryzen+ ab April:
    https://www.3dcenter.org/news/…er-2-fuer-den-sommer-2018

  • Auf dem i7 noch das Spectre Update und schon sinds deutlich mehr als 10 %


    heise.de/amp/meldung/Intel-Ben…eutlich-mehr-3938747.html


    "Intel zufolge sollen die Messwerte unterstreichen, dass die Performance-Auswirkungen für den durchschnittlichen Computernutzer nicht signifikant seien."


    Also sollte man bei Games das nicht merken ists mir eh Banane. Und der 0815 Anwender surft doch eh nur - nutzt Word etc, spielt mal ein Causal-Game, soll heißen nutzt die XXL-Rechenleistung, die man heute so am Heimpc hat eh nicht...


    Ich bin mal gespannt ob endlich Blender mit meinem neuen Rechner wesentlich schneller wird. Für die CGI hier hat mein FX 6300 + Radeon 6850 Tage gebraucht - vielleicht erkennt ihr ja was aus dem Computer kommt 8)



    Ok - hängt natürlich auch von der GPU ab - was ich mir da reinhänge, damit dürfte Blender n großen Sprung machen...

  • Microsoft hat eine eigene Zusammenfassung.


    Zitat

    Here is the summary of what we have found so far:

    • With Windows 10 on newer silicon (2016-era PCs with Skylake, Kabylake or newer CPU), benchmarks show single-digit slowdowns, but we don’t expect most users to notice a change because these percentages are reflected in milliseconds.
    • With Windows 10 on older silicon (2015-era PCs with Haswell or older CPU), some benchmarks show more significant slowdowns, and we expect that some users will notice a decrease in system performance.
    • With Windows 8 and Windows 7 on older silicon (2015-era PCs with Haswell or older CPU), we expect most users to notice a decrease in system performance.
    • Windows Server on any silicon, especially in any IO-intensive application, shows a more significant performance impact when you enable the mitigations to isolate untrusted code within a Windows Server instance. This is why you want to be careful to evaluate the risk of untrusted code for each Windows Server instance, and balance the security versus performance tradeoff for your environment.


    https://cloudblogs.microsoft.c…tions-on-windows-systems/

  • @MR2


    Das klingt gut - wobei Blender ja auch besonders von GPU support profitiert - da sahs bei meiner Radeon eher nicht so gut aus. Wobei die 6850 eine der letzten passiv Karten ist, mit einem Monster Kühlkörper - die konnte bei Games noch eine ganze Zeit richtig gut mithalten - viele Sachen laufen auch heute noch ganz gut.

  • ist doch schon länger bekannt und von AMD so gesagt worden.


    Bei weitem nicht in dem Maße wie Intel. Was heise da in der Überschrift stehen hat grenzt an fake News....


    Für Ryzen und epyc gibt es optionale Updates, die älteren sind später dran.


    a) Für die Mitigation der Spectre_v1 Lücke (für welche AMD vollumfänglich verwundbar ist) gibts es OS-Patches welche das Problem so gut wie zur Zeit technisch möglich eindämmt.


    b) Für die Mitigation der Spectre_v2 Lücke (für welche AMD ein "near-zero" Risk ausgibt) gibt es Microcode/Firmware updates, welche dann im Zusammenspiel mit OS-Patches das Risiko noch weiter minimieren.



    Bei Punkt B) ist es ja so, dass die OS Patches/Anpassungen auf entsprechende CPU Features angewiesen sind, welche mit diesen Microcode Updates in die Prozessoren einfliessen.
    D.h. die Microcodes fixen nicht das Problem, sondern geben der Software die Möglichkeit, dies dann zu tun.


    Als AMD privat-User kann man aber auf die Microcodes pfeifen und auch die entsprechenden OS-Fixes hierfür deaktivieren. Das Risiko ist auch ohne diese Massnahmen schon sehr gering. (es sei denn die NSA hat einem explizit im Visier - dann sieht es vielleicht anders aus)


    Rein optional.....


    Wenn ich mir die SSD Benchmarks auf einem gepatchten Intel System anschaue... bin ich froh keinen zu haben ;)

  • @Lutz G


    die 6850 ist auch noch noch die alte, quasi nicht mehr unterstützte Generation.
    Alles ab 7970 gehört zur gcn Architektur.
    AMD stellte der BlenderFoundation einen Programmierer zur Verfügung.(George Kyriazis) Der passte Blender an OpenGL und OpenCL an.

  • Wenn ich mir die SSD Benchmarks auf einem gepatchten Intel System anschaue... bin ich froh keinen zu haben ;)


    Hmm - und du sagst das ist für den Gaming Bereich (und darum geht's mir ja primär) wirklich relevant?


    Thx für die Infos punkto Blender - kann aber da auch sein, dass ich bezüglich der Grafikkarte eher in die Richtung von Toddi gehe ;)

  • https://www.forum-3dcenter.org…p=11602436&postcount=1321


    Oder


    c't hat ebenfalls bereits starke Einbrüche bei der SSD-Leistung nach dem Einspielen von BIOS- und Sicherheits-Updates feststellen können (Core i7-8700K, Asus Maximus X Hero, Samsung 960 Pro, zufällige Zugriffe mit 4K-Blöcken und 32 I/O-Targets). Die Samsung-SSD erreichte nur noch 105.986 I/Ops beim Lesen und 79.313 I/Ops beim Schreiben im Vergleich zu 197.525/185.620 I/OPs (vorheriges BIOS, Windows mit KB4054517).


    https://m.heise.de/newsticker/…eutlich-mehr-3938747.html

  • hier noch ein neues ergebnis aus der kreisklasse (die high end systeme sind ja schon eher champions league)


    ein core i7-4790 @ 3,6 GHz mit 16 GB Ram und einer GeForce GTX 970:




    - somit ist ein ein übertakteter i5 also genauso schnell wie ein alter i7
    - unglaublich wie die grafikkarten immer besser werden, gegen die 1080 sieht meine ja richtig alt aus


    ich kann damit ganz gut leben ;)
    da ich kaum noch zum spielen komme aber für cad und fem wird mir der rechner noch eine weile reichen.

  • Hd7000er Serie. Ich weiß .
    Computerbase hat getestet:


    "Schon das Windows-Update gegen Meltdown kostet auf Intel-CPUs Leistung. Zwar gibt es unter Windows 10 kaum Auswirkungen auf die getesteten Anwendungen oder auf die Durchschnitts-FPS der Spiele – weder auf einer Kaby-Lake- noch auf einer Sandy-Bridge-CPU. Aber werden auf Kaby Lake die Frametimes der Spiele (-4%) und die SSD-Leistung bei wahlfreien Zugriffen mit kleinen Dateien (-6%) in Betracht gezogen, sieht die Sache schon anders aus. Und Sandy Bridge trifft es noch härter: Fünf Prozent büßt das System in Spielen in Windows 10, ganze elf in Windows 7 ein.
    Das bislang nur auf dem System mit Core i7-7700K zur Verfügung stehende Microcode-Update verdoppelt dort die Leistungseinbußen nochmal. Das entspricht im Endeffekt in etwa einem Downgrade auf die vorige CPU-Generation. Gravierend treffen die Spectre-Gegenmaßnahmen Kaby Lake auch beim SSD-Durchsatz: Um bis zu 40 Prozent bricht die Leistung bei wahlfreien Zugriffen ein. Hierin liegen die aktuell großen Sorgen der Datenbankanbieter und -nutzer begründet."


    Das ist schon heftig.


    https://www.computerbase.de/20…nchmarks/#abschnitt_fazit

  • Besten Dank.