Rangliste
Beliebte Inhalte
Inhalte mit der höchsten Reputation am 10.10.2020 in allen Bereichen anzeigen
-
Hallo, hab meinen X51 R3 erfolgreich um eine Asus RTX 2070 Turbo Graka erweitert. Dazu musste ich folgende Änderungen vornehmen: 60x60x20mm Gehäuselüfter gegen ein 60x60x10mm Modell tauschen (siehe Bild 1). Grakaverschlusslasche und Kabelhalterclips an Grakakäfig und neben Gehäuselüfter entfernen, da diese sonst den Einbau verhindern (siehe Bild2). Die RTX 2070 ist 268mm lang und passt somit haarscharf in das X51-Gehäuse + 10mm Lüfter. Am hinteren Rand des X51 passt sie von der Breite her (113mm) gerade noch so mit "sanfter Gewalt" herein. Die schwarze Plastiklasche über dem Frontlüfter hab ich für den Einbau vorübergehend ausgerastet. Zur Stromversorgung reicht der vorhandene 6Pin + der zweite 6PinStecker mit einem 6Pin zu 8Pin 90Grad Winkeladapter. Die Stromstecker haben noch ca. 2mm Luft Die Karte zieht laut GPU-Z max. 176Watt unter GPU Volllast (Unigine Heaven BM). Dabei läuft die 2070 ins Templimit von 81°C, kann aber den vorgegebenen Boosttakt von 1620Mhz halten. Gemessen beim Stresstest, mit Wattmeter an der Steckdose, hab ich folgendes : - nur IntelHD (dGPU ausgebaut) mit i7-6700 im Prime95 custom: 93W - Asus 2070 Turbo (Unigine BM) + CPU (Prime95 custom 6 Threads): 273W - Asus 2070 Turbo (Unigine BM): 243W - Asus 2070 Turbo (Unigine BM) mit Power/Templimit 114%/88°C: 273W Auch das heraufsetzen des Power/Temperaturlimits auf 114% bzw. 88°C mit MSI-Afterburner beim BM überstand der X51 bei 200Watt Grakaverbrauch laut GPU-Z. Ein Belastungsttest mit 12h Unigine Heaven Dauerschleife verlief problemlos. Hab mal einige BMs drüberlaufen lassen: Im vergleich dazu meine Desktop MSI 1070 Gaming X:1 Punkt
-
Vielleicht möchte man zeigen, was heutzutage im Display-Segment bei Notebooks so möglich ist. Vielleicht versucht man durch Marketing weitere Käufer anzusprechen. Gibt sicherlich viele, die glauben, mehr ist gleich besser oder dass sie mit einem 360Hz Panel irgendein Vorteil haben. Verstehe nicht warum Dell nicht wieder ein QHD Panel anbietet... Hab es schon beim R4 und R5 geliebt und habe auch zuhause alle Monitore auf QHD umgestellt. Ist für mich der perfekte Kompromiss zwischen Pixeldichte, Arbeitsfläche und FPS-Darstellung. 4K verlangt einfach noch zu viel Rechenleistung von der GPU, zumindest was die 20er Serie angeht. Hinzu kommt, dass gute 4K Gaming Monitore sehr teuer sind. Vielleicht ändert sich das, wenn die neuen Grakas die breite Masse erreichen. 😄🤙1 Punkt
-
Wie kommst du denn zu der Einsicht? Der Unterschied zwischen einer 3080 mit 320 Watt und einer mit 270 Watt sind 4 %. Wenn du weiter vorne guckst, siehst du einige Schaubilder wo man sieht, dass die 3080 31% schneller als die 2080 Ti ist. Also ist die 3080 mit einem Verbrauch von 270 Watt ( der selbe wie die 2080 Ti) immer noch 27% schneller. Die Karte sind definitiv nicht nur wegen dem mehr an Stromverbrauch schneller. Es wird sicher so kommen, dass die 3080 bei 150 Watt liegen wird, aber wie immer können die Hersteller auch höhere Verbräuche zulassen, wie schon bei den 2000ern. Die 2080 liegt laut Nvidia auch bei 150 Watt, aber trotzdem hatte Dell ein 200 Watt vBios.1 Punkt
-
Guck im NBRF. Da haben einige das Display im R2 und sind ganz happy damit. Alternativ kannst du @pitha1337 fragen. Der hat ein 240Hz Panel in seinem GE66 drin und auch sehr zufrieden damit. Und wieder wird Hz und fps gleichgesetzt, was nicht richtig ist. Ob man 360Hz braucht ist die gleiche Frage ob man 4K braucht. Kommt drauf an was man bevorzugt und was man braucht. 360Hz ist die Bildwiederholrate des Panels und dauerhaft präsent. Das heißt, auch beim browsing, arbeiten usw. Im Desktop-Betrieb erkennt man definitiv einen Unterschied zwischen 60 und 144Hz. Viele Handys machen heute nicht anders. Schnelleres Display macht sich eben nicht nur beim Zocken bemerkbar. Der Unterschied ist nur, dass man zum Zocken eben auch die fps braucht, um den Unterschied zu sehen. Darüber hinaus braucht das 144Hz G-Sync Panel 9ms und das 360Hz 5ms, falls Input-Delay ein Thema ist. Ob man zwischen den beiden Displays als Casual-Gamer überhaupt einen Unterschied feststellt, ist ne gute Frage. Ich denke, dafür muss man beide Panels im direkten Vergleich testen. Natürlich wird oft die Argumentation angeführt, dass man für Competitive Gaming ein schnelles Panel mit einer hohen Bildwiederholrate braucht (+ die fps im Spiel). Doch selbst Profis sagen, dass oberhalb von 144Hz der Unterschied nur sehr gering ist. LTT hatte dazu mal ein sehr schönes Video gemacht. Zudem muss man die Hardware besitzen + ein Spiel, welches so hohe Framerates dauerhaft bereitstellt. Ich persönlich merke ab 120 fps kaum noch einen Unterschied, zumindest bei den Spielen, die ich so spiele. Wenn ich die Wahl hätte, würde ich so oder so zum 4K Panel greifen, weil es mit 500 cd/m² und 100% Adobe RGB das hellste und schönste Display ist. Zum Zocken würde ich dann zu externen (größeren IPS) Alternativen greifen. BTW: Profi Hardcore Zocker aufn Lappy Display? Dann mal viel Erfolg dabei. Guck dir mal die Wettkämpfe an und mit welchen Displays die Leute spielen. Das was die Hersteller uns da weiß machen wollen, ist einfach nur Marketing.1 Punkt
-
Falls noch nicht bekannt, schaut, was wir in den nächsten Konfigurationen erwarten können. Link zur Meldung bei Golem.de: https://www.golem.de/news/nvidia-grafikkarte-alienware-verbaut-eigens-angepasste-geforce-rtx-3080-2010-151410.html1 Punkt
-
Das ist grundsätzlich vom Grafikchip her richtig, nur kann es sein dass unterschiedliche Ausführungen mit eigener Firmware vorhanden sind. Da gibt es z.B. Marken wie Clevo, MSI, Alienware und andere. mMn sollte dieses Kühlblech weggelassen werden, sonst lässt sich die Karte im R4 aus Platzgründen wohl nicht einbauen. Da sie so wie abgebildet verkauft wird, ist sie wahrscheinlich in anderen Laptops so verbaut worden, worin sie serienmäßig vorkam. Um den RAM mitzukühlen empfehle ich dir so ein X-Bracket, die passenden Schrauben sind z.B. hierin enthalten. Die Schrauben vom AMD-Bracket passen damit wohl nicht.1 Punkt
-
Hi @FloFo, vorab wäre es sehr wichtig zu wissen hast du nun das AW17 R4 oder den M17x R4 ? Mach mal bitte am besten ein Foto davon und stell es hier rein, weißt du evtl. von welchem Hersteller die Karte ist bzw. worin sie verbaut war? Eig. müsste die Platte ab, so dass nur noch das X-Bracket mit der RAM-Kühlerfläche, wie im unteren Bild, drauf ist. Die untere Seite der RAM-Bausteine, an der schmalen Seite, ggü. den Kontakten wird im R4 durch ein (vorhandenes) Wärmeleitpad gekühlt, deswegen sollten diese frei zugänglich sein. Schau dir dazu auch an wie deine alte Radeon montiert ist/war. dazu den schwarzen Aufkleber einfach abziehen und die Kupferoberfläche mit Reinigungsalkohol o,ä. säubern. Ja das ist normal so, da, idR, die 970m ggü. der 980m nur 6GB anstatt 8GB RAM verbaut hat und bei ihr somit 2GB der entspr. RAM-Riegel wegfallen.1 Punkt
-
Hi @AW713, lt. dieser Quelle reicht das 330W NT nur für Graka mit einer maximalen TDP von 175W, die RX 580 hingegen hat 185W. Ohne Modifikation des Gehäuses passt von der Länge her max. eine ca. 255mm Karte, wie z.B die GTX 1060 FE, hinein. Nach Tausch des 60x60x20mm Gehäuselüfters gegen ein 60x60x10mm Modell habe ich im R3 eine 268mm lange RTX 2060S Karte verbaut. Achte auch darauf, dass die Karte einen Radiallüfter verbaut hat, da Axiallüfter die Wärme nicht aus dem Gehäuse herausblasen und sie nur verwirbeln.1 Punkt
-
Also 31°C weniger? Das wär ja selbst für Flüssigmetall nicht schlecht. @Brosoversteh das jetzt nicht falsch aber ich denke, dass dir da ein Fehler unterlaufen sein muss. Wärst du so nett und könntest zur Klärung einen Test machen? Zwei mal einen Prime95 Run über die gleiche Dauer, einmal mit und einmal ohne Akku? Ansonsten alles gleich also keinen Notebookkühker verwenden oder so. Mit 1-5°C hätte ich mich ja angefreundet aber 31°C hört sich einfach zu schön an um wahr zu sein.1 Punkt
Diese Rangliste nutzt Berlin/GMT+01:00 als Grundlage