Hallo Besucher, der Thread wurde 77k mal aufgerufen und enthält 497 Antworten
letzter Beitrag von oobdoo am
AMD Ryzen
- Negan
- Erledigt
-
-
ich möchte gerne ei Sytsem ohne Bugs habe
https://www.heise.de/newsticke…?wt_mc=rss.ho.beitrag.rdfGanz großes Kino -> Bitte alles mal neu Compilen
https://www.heise.de/newsticke…der-Software-3652787.html
Wer hier hat sich diesen tollen Super-CPU denn wirklich schon gekauft ? Herzliches Beileid.
-
Eigentlich ja aber nichts neues, kommt auch bei Intel vor. Wird gepatched und gut. (Fällt bis auf Verwendung dieser Spezialsoftware dort vlt. auch nicht ins Gewicht / tritt normal 'nicht' auf.)
Bei der ganzen 'Komplexität', Speed usw. vom heutigen Hardware Stuff wundere ich mich fast, dass nicht noch viel mehr Bugs oder Probleme auftreten. -
Ganz großes Kino -> Bitte alles mal neu Compilen
Nur wenn man die letzten 5% Leistung haben will.
-
Apple, Intel, Samsung und wie sie alles heißen haben alle schon richtige Scheiße verkauft und leben immer noch. Wer immer gleich das neuste kauft ist selbst schuld. So ein halbes bis ganzes Jahr abwarten und die Kinderkrankheiten sind meist gegessen.
-
Nur wenn man die letzten 5% Leistung haben will.
Bei den Preis darf man das erwarten.
-
Es ist eine völlig neue CPU Generation. Klar darf da noch nicht alles rund laufen. Intels CPUs haben glaube ich sogar mal falsch gerechnet, das ist viel schlimmer als ein Absturz weil man das nicht so einfach merkt.
-
Es ist eine völlig neue CPU Generation. Klar darf da noch nicht alles rund laufen.
Auch CPUs scheinen ja Betaware geworden zu sein. Schon eine traurige Entwicklung.
-
-
-
Nur wenn man die letzten 5% Leistung haben will.
Die Dinger ranzen komplett Ab wenn optimierter Code ausgeführt wird, 0% Leistung. Und jetzt ist es nicht AMD schuld sondern die Programmierer.
Was bringt es wenn ein Produkt billig ist und ich da stundenlang dann Updates und anderes suchen muss nur damit es halbwegs Stabil läuft.
So ein Desaster hat Intel noch nicht beim Start hingelegt. Das ist ein Produkt für Fanboy Masochisten.
-
Läuft doch alles stabil, nur ein paar lächerliche Prozent weniger schnell (manches) als da jetzt (momentan noch) irgendeine mutmaßliche Vergleichs-CPU von Intel bzw. als die Ryzen CPU es ausgereizt könnte. Die paar % merkt man eh nicht in der Praxis, wenn er doch um ein vielfaches schneller als sein vorheriger Prozessor / PC läuft.. :). So what ?
Dafür fließt das AMD System bei Spielen besser, u. hat daher eigentlich mehr FPS für's Auge - auch wenn der rationale FPS Zähler oben Bild bei Intel um (so und so eh läppische) 2-5 FPS vorne liegt.
Das jetzt nur zum Vgl.-Video, vorher von jmd. verlinkt, in dem das Intel System merklich stottert. -
Dafür fließt das AMD System bei Spielen besser, u. hat daher eigentlich mehr FPS für's Auge - auch wenn der rationale FPS Zähler oben Bild bei Intel um (so und so eh läppische) 2-5 FPS vorne liegt.
Das jetzt nur zum Vgl.-Video, vorher von jmd. verlinkt, in dem das Intel System merklich stottert.Der Ryzen 7 1800x ist die CPU, die mit dem Intel 6900 leistungsmässig gut mithalten und vor allem preislich interessant ist.
Bei "einigen" Spielen ist sie mal schneller und wieder langsamer. Genauso verhält sich das bei den Anwendungen auch. Von daher kann von "besser fliessen"
nicht wirklich die Rede sein.Auch gerade ein netter Testbericht: http://www.pcgameshardware.de/…ests/Test-Review-1222033/
Zitat: In Spielen sieht es leider weniger gut aus - speziell mit aktiviertem SMT. Dieses erweist sich, wie auch die Inter-CCX-Kommunikation, häufig als Bremse. Hier muss AMD mit guter Dokumentation und gutem Support die Entwickler überzeugen, auf ihre Architektur einzugehen, dann könnte die Spieleleistung auf mittlere bis lange Sicht einen größeren Sprung machen.
-
Jou, damals war das alles einfach besser...
Im Gegensatz zum per Hand entworfenem Ur-6502-Prozessor sollten doch mittlerweile bessere Tools zur Verfügung stehen.
-
Im Gegensatz zum 6502 mit seinen 3500 Transistoren hat der Ryzen aber auch 4.8 Milliarden davon.
-
-
So ein Desaster hat Intel noch nicht beim Start hingelegt.
Aber sicher doch... Erinnerst du dich noch an PentiumPro? Der war, wegen Optimierung auf 32Bit-Software, bei 16Bit-Software deutlich langsamer als der Pentium. Oder die ersten Atom-CPUs wie der N270...
Was bringt es wenn ein Produkt billig ist und ich da stundenlang dann Updates und anderes suchen muss nur damit es halbwegs Stabil läuft.
Das macht man ja nur einmal bei der OS-Installation und dann läuft die Kiste ein paar Jahre. Der Aufwand ist also irrelevant. Nicht vergessen, wir reden hier über einen Unterschied im einstelligen Prozentbereich. Das kann man messen, aber nicht fühlen.Die Dinger ranzen komplett Ab wenn optimierter Code ausgeführt wird, 0% Leistung.
0%? Also gar keine Funktion? Ich denke da übertreibst du etwas.
Zitat: In Spielen sieht es leider weniger gut aus - speziell mit aktiviertem SMT. Dieses erweist sich, wie auch die Inter-CCX-Kommunikation, häufig als Bremse.
Ist eine neue Technik und unter Windows war NUMA schon immer wenig bekannt und deshalb haben weder OS noch Programmierer sich damit viel Mühe gegeben. Jetzt wird sie in der Breite ausgerollt und die Software wird sich anpassen. Es ist ein gelöstes Problem, andere OS haben mit NUMA keine Probleme.
-
Auch CPUs scheinen ja Betaware geworden zu sein. Schon eine traurige Entwicklung.
Sehe ich genauso. Leider ist die Toleranz der Menschen gegenüber Fehlern erstaunlich hoch geworden. Sieht man ja auch hier. Liegt es daran, dass viele die Zeit nicht mehr kennen, in der Maschinen tatsächlich fehlerfrei gearbeitet haben? Manchmal frage ich mich, ob es vielleicht nicht auch die Medien sind, die gezwungen sind, positiv über jedes Produkt zu berichten, denn sonst gibt es a) keine Testmuster mehr und b) keine Werbeanzeigen mehr.
-
Die Komplexität heutiger Produkte ist so immens viel größer, dass die Weiterentwicklung der Produktionstools gerade eben so hinterherkommt. Oder andersrum: heutige Produkte werden so designt, dass ihre Komplexität die Grenzen der Entwicklungsmöglichkeiten ausschöpfen. Das finde ich nicht grundsätzlich falsch, denn dadurch entwickeln sich die Produkte mit maximaler Geschwindigkeit weiter. Ich sag nur: in 40 Jahren eine Erhöhung der CPU-Komplexität um den Faktor 1.000.000!
-
Sehe ich genauso. Leider ist die Toleranz der Menschen gegenüber Fehlern erstaunlich hoch geworden. Sieht man ja auch hier. Liegt es daran, dass viele die Zeit nicht mehr kennen, in der Maschinen tatsächlich fehlerfrei gearbeitet haben?
Haben sie auch damals nicht. Selbst der doch eher übersichtliche 6502 hat ein paar Bugs (*). Aber da sie bekannt sind programmiert man eben drumherum. Beim 386 gab es den POPAD-Bug, beim Pentium den FDIV- und F00F-Bug. Die Toleranz gegenüber Software-Fehlern ist allerdings gestiegen, aber das liegt an Windows, das war über laaange Jahre instabil und wer damit angefangen hat war es eben so gewohnt. Wer es besser gewohnt war fluchte.
(*) Probier mal einen JMP ($10FF) und wunder dich woher er die Zieladresse bezieht.