Beiträge von NexiaGSi

    Nein, ich redete von den aktuellen NVidia-Karten. Da sind wir jetzt bei der Genration 5000er angekommen.

    Die bösen von AMD haben ihre aktuellen Karten 9060 und 9070 genannt. Somit haben sie diese Zahlenkombination schonmal belegt und vermasseln NVidia eine konsequente Durchnummerierung. Eigentlich hat AMD immer so 5x00, 6x00 und 7x00 genommen. Jetzt haben sie einfach 90x0 gewählt. :D

    Wie gesagt, GTX 570Ti in deinem Fall eine perfekte Wahl.

    Das die GTX der HD überlegen ist, liegt auch bissel daran, das zwischen beiden Karten 3-4 Jahre Entwicklung liegen. Auch wenn die GTX damals keine Highendkarte sein sollte und die HD zu ihrer Zeit ganz oben im Regal stand, liegt doch eine Entwicklunggeneration zwischen den beiden. Das Highendpendant zur 750Ti wäre die GTX970. Die säuft dann auch 150W, aber rasiert die beiden Karten nochmal ordentlich. War die Zeit der Maxwell-Karten bei NVidia und damals das, was man haben mußte. Siehst ja selber, die 570Ti kommt ohne Stromkabel aus und zieht nur übern Slot seine Power und liefert trotzdem ab.

    Heute ist AMD näher dran, wobei das auch immer vom Spiel abhängt. Es gibt jetzt soviele Features in den Spielen die eine Grafikkarte mal besser unterstützt als die andere. Daher kann man generell da jetzt nix sagen. Ich sag momentan, mit einer NVidia 5070Ti, macht man nichts verkehrt.

    NVidia hatte bei den letzten Highendkarten halt vorallem beim Stromanschluss Probleme. Die sind nach dem Stromanschlussstecker auf eine Leiterplatin gegangen. Wenn aber ein Pin am Stecker bissel höheren elektrischen Widerstand hatte, dann ist halt der Strom mit über die restlich Pins gelaufen. Die wurden dann aber wärmer und das hat zu verkohlten Anschlüssen geführt.

    Bei der neusten 5090 founders edition, die direkt von NVidia kam, haben sie sogar den Quatsch gemacht, das sie von der Platine ein breites Kabel zum Slot gezogen haben. Das führte dann auch nochmal zu einem Problem. Die Karten der anderen Hersteller haben das Problem nicht, weil sie die Platine bis zum Slot gezogen haben. Die Grafikplatine ist im Grund echt klein, nur die ganze Kühlung braucht das 3-4 Slots auf 32cm Länge. Wobei bei der FE-Edition auch ein bescheuertes Lüftungskonzept verwendet wurde. Dort wird die Luft nicht von innen nach außen geführt, sindern von unten nach oben....also die Warme Luft im Gehäuse verteilt und in der Regel auf die CPU geblasen.

    Was man aber bei den alten Karten wirklich machen muss, die Wärmeleipaste erneuern. Bei der GTX570Ti geht das ja recht einfach.

    Nimm was du mehr vertraust. Ich glaube da wird der Sprung bei den letzten Versionen nicht mehr so groß sein. Da geht es dann mehr um Kompatibilität von Hardware aus dem Jahr. Aber wenn dein Rechner grundsätzlich auch mit deinem Uraltbios läuft, braucht es diesen letzten Kick nicht.

    Früher hatte ich bei BIOS-Updates auch ein schlechtes Gefühl, aber die Systeme wurden immer besser und die Gefahr von Kernschrott nach dem Update ging gegen Null.

    An einem anderen Rechner mal probiert? Da es aber beide Drucke betrifft, kann man einen defekt an den Druckern glaube ausschließen.

    Ansonsten würde ich mal die CIA´s im C64 untereinander tauschen.

    Er fährt nicht mehr hoch bedeutet, er kommt nicht mal mehr ins BIOS? Ich würde da erstmal reinschauen, ob die Festplatte noch erkannt wird. Wenn ja, den Rechner zerlegen und schauen, ob alle Stecker usw. noch dran sind. Wenn möglich, auch den Akku mal beim Booten raus nehmen. Auch mal über USB versuchen ein Tool zu starten oder die Windwosreparatur anzustoßen. Evtl. bringt das was und man kann noch was retten.

    Wenn die Platte grundsätzlich nicht mehr will, ich glaube dann geht es nur noch über den Support und mit viel hin und her schreiben und Identitäsbeweis.

    Der schnellere Weg wäre dann glaube Neuinstallation und 10€ für eine passende Lizenz ausgeben.

    Er will ja auch die Anlaufgeschwindigkeit messen und mit dem anderen Laufwerk vergleichen. Daher ist dieser Stroboskoplampenansatz nicht der richtige. Dazu hat er es ja schon so gemacht. Ich geh auch davon aus, das er über einen langen Zeitraum die Drehzahl messen will und das halt recht genau bzw. er will wissen um wieviel U/min es eine Abweichung gibt.

    Man müßte sich die Kernspannung anschauen, wenn das System ordentlich rödelt. Selbst bei 5,8 GHz für die P-Cores, liefen viele CPUs noch bei 1,25V stabil. Also wenn deiner maximal Arbeit verrichtet und dabei über 1,6V Kernspannung bleibt, dann könnte man die Spannung absenken. Also sagen wir deiner läuft dann bei 1,3V, dann kann man sie noch um 0,04V reduzieren. Das klingt erstmal nach einem Tropfen auf dem heißen Stein, aber glaub mir, das bringt ein paar Grad.

    Hier mal eine Seite eines Test Bitte melde dich an, um diesen Link zu sehen. , wo sie den NH-D15 auf dem 285K genutzt haben. Aber ich gehe davon aus, das es nicht in einem Gehäuse war, sondern in einem offenen Testsystem, für bessere Vergleichbarkeit. Bei den anderen Tests auf den anderen Seiten, haben sie eine WaKü genutzt.

    Wobei 90°C nicht erstrebenswert ist. Die Wärme strahlt auch über das Board weiter in andere Bauteile, wie z.b. die Spannungswandler. Aktuell läuft mein 5900X bei 4GHz und verbraucht 180W (nur die CPU), wenn alle Threads voll ausgelastet sind und liegt bei knapp 70°C (80°C im Package). Die WaKü (eine sehr große externe WaKü) läuft dabei um die 50-60%. Im Gehäuse 25°C, also nur wenig über Raumtemperatur (3 Gehäuselüfter bei ~60% deren Maximaldrehzahl).

    Hab jetzt mal bei meinem 9600X die Case-Temp gemessen und da liege ich bei ~33°C zwischen CPU und GPU. Die CPU läuft aktuell bei 85°C gedrosselt und erreicht so 4,4GHz auf allen Threads. Direkt am Auslassluftstrom des Nocuta NH-D9L, hat man eine Temp von 48°C. Ich glaube, das eure großen CPUs per Luft in einem geschlossenen Gehäuse kaum auf anständige Temperaturen gehalten werden können. Und bei den riesigen und sehr schweren Propellern, denke ich mir immer, das Teil zieht so dermaßen am Board, das hier keine sauber Auflage auf der CPU mehr gegeben ist bzw. die sich sogar verformt. Vorallem bei letzterem muss man ja nun auch schon hinschauen. Ich glaube bei Intel gab es CPUs, wo die Deckelfläche minimal uneben war, was aber gleich zu schlechterer Kühlung geführt hatte. Gab sogar extra Unterlegscheiben oder so, die man dann verbauen sollte, damit der Kühler besser auflag.

    Ich bin echt kein FAN von AiO WaKü, aber bevor ich mir für 150€ so ein schweres Ding da rein klemme, würde ich lieber eine 240mm oder 360mm AiO einbauen. Auch in dem Wissen, das die nur 3 oder 4 Jahr zuverlässig läuft....dafür kostet die nur um die 100€ und man spart sich oft mehrere Gehäuselüfter. Die anderen Komponenten arbeiten dann oft auch kühler, weil die Wärmeabgabe ins Gehäuse von der CPU kaum vorhanden ist.

    Bei Tests (Gaming, Rendering, usw.) lief so ein Intel 285K mit WaKü zwischen 65 und 75°C.

    Wenn die Hersteller da mit ihren Luftkühlern werben, sagen sie halt nie, das der in einem Case verbaut war, wo vorne 3 Gehäuselüfter und hinten einer maximal gearbeitet haben und der Luftstrom direkt auf den CPU-Kühler ging. Dabei drehte alles maximal.

    Selber hab ich nur noch J-Prozessoren in meinen NUC´s von Intel. Die anderen Rechner alles AMD, weil die ohne diesen Hilfsprozessorgedöns daher kommen. Die Teile kann man schwer einschätzen und einstellen, um optimale Leistung raus zu holen. Die AMD´s sind noch old-school und haben mehr L3-Cache. Das ist in meinem Anwendungsfall halt wichtig.

    Ich sage nicht das Intel nix taugt, aber wenn man einen AMD 9900X und und einen 14900K Vergleicht, dann ist der Intel maximal 10% besser in der Performance, manchmal liegt auch der AMD um den gleichen Wert vorne. Je nachdem was man machen will. Dazu kostet der Intel mindestens 1/3 mehr.

    Wie machst sich der Noctua NH-D15 G2 LBC Dual Tower bei dir? Wie sind die Temperatur Daten so? Man das ist ja wirklich eine riesen Granate.

    Die CPU geht auf 90° hoch und der Lüfter nimmt kaum Drehzahl auf. Das war mir im Test etwas zu extrem, darum habe ich bisher weitere CPU-lastige Programme vermieden, bis ich mich weiter mit der Kühlung beschäftigt habe. Videos lasse ich im Avidemux über die GPU (RTX 2080Ti) berechnen. Die Temperatur der GPU hält sich in Grenzen und ich kann drei Videos mit nVidia HEVC (x265) kodieren lassen.

    Was?? Dann ist aber was völlig vermurkst. Aber du hast da nicht so ein Kabel mitverbaut, das die Leistungsaufnahme der Lüfter reduziert? Die lagen früher gerne bei Noctua bei. Ansonsten nimm mal die ASUS Suite 3. Da kann man sehr gut die Lüfterkurven einstellen und wir hoffen jetzt einfach mal, das es mit deinem Asrock kompatibel ist. Evtl. gibt es sowas auch von Asrock.

    Grundsätzlich laufen die Lüfter ja nach BIOS-Einstellungen, wenn man keine andere Lüftersteuerung nutzt.

    Woow, das ist natürlich ein heißes Eisen. Auch wenn es jetzt dämlich klingt, kann man im BIOS sicherlich bissel was runter regeln. Taktrate oder Powerlimit. Schonmal das probiert?

    Ich mach beim verteilten Rechnen mit und da sieht man oft nur einen kleinen Verlust bei der Leistung, wenn man hier etwas die Handbremse anzieht. Vorallem undervolting oder kappen der maximalen Taktrate, läßt die Temps deutlich geringer ausfallen. 10% mehr Takt, erledigt die Arbeit nur 3% schneller, oder so, und das dann aber auch bei höheren Temperaturen und mehr Verbrauch. Kannst ja mal ein Video das 1h braucht mit deinen aktuellen Einstellungen wandeln und dann nochmal mit etwas reduzierter CPU-Leistung.

    Ich weiß, es ist absurd sich eine schnelle CPU zu holen und die dann nicht mit Volldampf laufen zu lassen.

    Ja, Linux und Grafikkarten ist so ein Thema für sich. Ich hoffe das sich da mal was tut.