-
Gesamte Inhalte
821 -
Benutzer seit
-
Letzter Besuch
-
Tagessiege
38
Inhaltstyp
Profile
Forum
Kalender
Downloads
Treiberreihenfolgen
Alienware Geräte-Lexikon
Alle Inhalte von Robman
-
Ich muss leider schon wieder ein Update geben, diesmal aber glaube ich ziemlich final... für die frametimes ist es einfach das Beste (schreibt auch igorslab.de), mit der GPU gar nicht erst ins PL zu kommen. Bin daher wieder wie vorher (und auch wie bei meiner 2080 Ti) bei einem fixen Takt und einer fixen Spannung, wo ich auch in heftigen Games eben nicht das PL erreiche für mich immer noch schnell genug bzw. in Games kaum weniger fps (bei maximal 117 Ziel-fps, die ich spiele) die Lüfter sind natürlich nochmals leiser Coil Whine nicht mehr zu hören (wenn man das Ohr direkt dranhält dann natürlich schon) mein Netzteil freut sich (weniger Watt im Durchschnitt und auch weniger Lastspitzen) So lass ich nun die 3090 in meinem kleinen Case! Als nächstes wird dann (auf vergleichbare Weise) die 6900XT getestet und dann ist mal (zumindest bei mir) wirklich gut mit irgendwelchen Optimierungsgeschichten. Muss mehrere Spiele noch zu Ende spielen...
-
Bleib bei der einfachen Variante... alles andere ist schon etwas mühsam. Meine 0,8v bei 1800 MHz waren jetzt am Ende doch nicht stabil. Etliche Stunden und Tage in Spielen getestet. Aber der Metro Exodus Benchmark ist abgestürzt (hab mir das Spiel nun ma geholt)... also nicht stabil... Ich hab daher seit gestern Abend folgendes (einfaches und schnell einzurichtendes) Setup aktiv: 100 MHz Core OC 248 MHz VRAM OC (glatte 10000 MHz) gekappt bei 0,9v (reicht allgemein, auch wegen Rasseln & Co., außerdem könnten obenrum +100 MHz dann auch zu viel sein) Ich habe nun damit stabil etliche Durchläufe in Metro Exodus gemacht (egal ob mit DLSSS und/oder RT) und außerdem Valhalla so einige Zeit gespielt. Dieses Spiel lässt wie kein anderes sehr hohe Spannungen / Taktraten zu. Beide Extreme laufen soweit stabil, aber bei +100 und cap bei 0,9v mit vielen Karten auch nicht verwunderlich. Und um 50 MHz mehr geht es mir jetzt nicht mehr. Stabile zu 100% ist das Wichtigste. Bei Metro oder anderen heftigen Games liegen jetzt eben 1725-1770 MHz an. Für mehr reichen die 350W halt nicht. Bei vielen anderen Spielen eben zwischen 1800 (nun hier natürlich mit mehr als 0,8v) und 1890 MHz. Und bei Valhalla und ähnlichen wenigen Spielen, die nicht viel Watt ziehen, liegen eben die fixierten 0,9v bei 1890 MHz (halt wie gesagt stock-Kurve + 100 MHz) bei 70 Grad an (mehr Temperatur lässt meine Lüftersteuerungs-Config bewusst nicht zu. Noch leise genug mit meinen Noctua-A12. Mehr als 70 Grad könnte theoretisch mit +100 MHz auch wieder nicht stabil laufen, logisch - umso heißer umso weniger Stabilität und er Theorie). Mit dieser Vorgehensweise ist man natürlich deutlich schneller mit einem UV-/OC-Setup fertig und macht zukünftig kein großes Thema mehr draus. In meinem Fall gar nicht so schlecht, weil man doch einige Zeit in Config & Tests absolviert hat. Irgendwie schon zu viel, da zocke ich zukünftig mal lieber was. Zudem möchte ich ja auch noch die 6900XT testen. Mal schauen wie die abliefert und ob sie dann weniger Energie benötigt (wahrscheinlich). Zudem würde sie gut zu meinem 5900X passen, auch wenn mir sowas egal ist. Aber kritisch sehe ich den DLSS 2.0 Pendant... mal abwarten... mit ner 3090 hat man es natürlich nicht eilig.
-
Ich habe den Desktop erst vor kurzem zusammengebaut, er ist noch nicht final "schön". Bilder dann gerne zu einem späteren Zeitpunkt. Die Noctua A12x25 Lüfter, die zwischen 1000 und 1400 RPM (das ist sehr leise bei diesen Lüftern) drehen, sind aktuell mit Kabelbinder an der GPU befestigt. Das ist pragmatisch, aber nicht elegant. Die CPU-Kühlung des 5900X mit dem be quiet Dark Rock TF (Silent Wings 3 130er bei rund 950 RPM konfiguriert sind dort drauf) ist noch nicht so optimal. Ich warte aktuell darauf, dass Noctua den U12A in schwarz releast, das wird laut Roadmap irgendwann in Q1/21 sein. Dann werde ich auch die aktuell braunen A12x25 auf der GPU durch schwarze ersetzen. Dann habe ich quasi alle Lüfter einheitlich von Noctua (alles A12 - sensationelle Lüfter, sowohl von der Leistung, Druck, als auch von der Geräuschcharakteristik). Oben als Gehäuse-Lüfter nutze ich zwei A12x15. Drehzahl um die 950 RPM, sehr leise. Das wars auch schon, das Cooler Master NR200 ist nicht grade groß (18 Liter). Bei Valhalla habe ich geringere Temperaturen als in Spielen wie z.B. Division 2 oder A Plagues Tale. Grund ist, dass die Assassins Creed Reihe die Nvidia Karten irgendwie nicht voll auslasten. Und die CPU-Temperatur ist hier auch relativ gering, beides unter 70 Grad. Vollem die CPU ist hier glaube ich nur bei maximal 65 Grad. OC nutze ich im Prinzip gar nicht. Ich nutze nicht mehr als 1905 MHz @0,9v (bei gleichzeitigem Undervolting). Bei heftigen Spielen liegen noch 1800 MHz @0,8v an. Hintergrund ist mein 350W Powerlimit. Die 6900XT werde ich denke ich testen. Mich reizt der wahrscheinlich niedrigere Energieverbrauch. Raytracing nutze ich nicht. Jedoch setze ich auf DLSS 2.0 und ich glaube nicht, dass AMD da großartig gegen anstinken wird, man wird sehen. Und dann wären da noch die Treiber usw., Nvidia hat hier einfach einen Vorsprung. Gut möglich, dass ich die 3090 daher behalte. Die Mehrkosten spielen für mich am wenigsten rein - mir muss das Ganze einfach gefallen.
-
Du musst mal auf den Speichertakt achten, am besten in Echtzeit per OSD ingame bei lastigen Games. Gut möglich, dass der sich nämlich runtertaktet, weil er zu heiß wird. Dann bringt dir das OC in dem Moment natürlich gar nichts (was aber halb so schlimm wäre). Gerade weil du 400 statt 350W nutzt (Karte wird also heißer) und außerdem soll die FE, genauso wie z.B. die MSI Gaming X Trio, nicht so ideal sein für Speicher-OC (laut igorslab.de). Der Speicher bei der 3090 ist halt auch allgemein schon sehr hochgezüchtet.
-
Du hast sicher ein einfaches OC von 75 MHz gemacht? Hier verschenkst du wie gesagt Leistung bei Spielen, die bereits das PL früher vollbekommen. Bei dir dürfte es aber nicht so tragisch sein, da du ja 400 statt 350W zulässt. Meine GPU kommt nicht über 70 Grad, meine Lüftersteuerung ist entsprechend so eingestellt. Bei längerer Volllast liegen 69 (manchmal für paar Sekunden 70) Grad an. FPS müsste ich nachreichen. Grundsätzlich nutze ich keine vordefinierten Ingame-Grafik-Presets. Ich mach mir immer individuelle Grafikstellungen, hier lassen sich meistens noch ein paar fps rausholen, ohne dass man einen Unterschied in der Optik bemerkt.
-
Ich muss da jetzt nochmal was ergänzen: Noch sinnvoller ist es, sich die Mühe zu machen, die Afterburner-Kurve komplett von vorne bis hinten anzupassen (und nicht bei 0,8v oder 0,9v zu cappen - also eine Dynamik wie die Stock-Kurve zu haben, nur natürlich mit mehr MHz pro Spannungspunkt). Ist aber Arbeit, da ein OC bei 0,8v viel besser funktioniert als bei 0,9 oder gar über 1,0v. Konkret: bei 0,8v sind bei mir +195 MHz kein Problem, um noch stabil zu laufen. Bei über 1,0V reden wir von unter 100 MHz, klar. Ich habe mir jetzt mal die Mühe gemacht, und die Kurve komplett von vorne bis hinten angepasst und durchgetestet. Wieso? Weil es Spiele gibt, konkret Assassins Creed Walhalla (und auch die Vorgänger), die mein PL von 350W selbst mit der Maximalspannung von 1,081v nicht vollbekommen. Bei dieser Spannung kann ich meine Karte mit bis zu 2085 MHz betreiben (+75 MHz gegenüber stock, mehr macht keinen Sinn zu testen, da selbst solche Spiele nicht dauerhaft 1,081v anlegen, sondern meistens um die 1,044v mit 2025-2055 MHz). Was bringt es? Statt 1800 MHz@0,8v liegen bei Valhalla nun wie gesagt in meinem Fall bis zu 2085 MHz (meist 2025-2055 MHz) an. Das entspricht einem Mehrtakt von bis zu 14% gegenüber den fixen 1800 MHz. In Mehr-fps bleiben im Schnitt noch leicht über 7% davon hängen, was statt 68 fps im internen Benchmark bei 4k (das Spiel ist mega heftig) 73 fps bedeutet - das ist natürlich ordentlich / lohnt sich. Ja, alle die ein einfaches OC gemacht haben, haben diesen Vorteil bereits auch schon. Aber: bei heftigen Spielen, wo bereits bei 0,8v das PL von 350W vollläuft (z.B. A Plagues Tale), ändert sich halt nichts. Hier liegen nach wie vor 1800 MHz an (+195 MHz gegenüber stock). Wer jetzt nur ein einfaches OC von z.B. 75 MHz gemacht hat, hat bei weitem keine 1800 MHz bei 0,8v anliegen... (zumindest nicht mit dem 350W-Standard-PL). Und bei den Spielen (die allermeisten übrigens) die irgendwo dazwischen liegen (Hitman 2 oder Ghost Recon Breakpoint z.B. 0,8X-0,9Xv), liegen eben noch bis zu 1920 MHz in meinem Fall an. Spulenfiepen ist für mich übrigens kein Thema, erstens habe ich eine sehr leise Karte erwischt (hab drei MSI Ventus getestet, alle ähnlich leise und deutlich leiser als die FE - wie hier schonmal irgendwann gesagt) und zweitens steht mein Desktop in einem großen Wohnzimmer (ist aber parallel auch mit einem Monitor / Nebenraum über lange Kabel verbunden). Außer einem leisen Rauschen der Noctua A12 höre ich (und nur wenn es ruhig ist) von meinem Desktop nichts (anders sähe es aus, wenn noch die Standardlüfter auf der 3090 drauf wären... ;)). edit: Man kann das ja auch gut kombinieren. Man lässt die Kurve so (bei geringen Spannungen mehr OC als bei hohen) und cappt aber bei 0,9v. Leistungstechnisch ein guter Kompromiss (rund 1900 MHz bei guten Chips) und weniger Spulenfiepen & Co. (wenn das stört) als mit 0,9x-1,0xv / 19XX - 20XX MHz.
-
Ein Undervolting - also weniger Spannung / Verbrauch - bringt auf jeden Fall bei jeder Karte was. Aber man muss es halt auch machen... Ansonsten kann man natürlich nochmal eine weitere Karte bestellen, und wenn es mit der nicht besser ist, eben wieder zurückschicken. Und ja, ein anderes / potenteres Netzteil könnte tatsächlich ebenfalls für Linderung sorgen. Das hat aber weniger was damit zu tun, für wieviel Watt es ausgelegt ist. Hochwertige, die zumeist nicht günstig sind, liefern hier i.d.R. die besten Ergebnisse.
-
macOS korrigiert mir bisschen viel ("Limited" statt "limiter"), muss das glaube ich mal ausstellen 🙄
-
edit: @einsteinchen war schneller Ja, das wird es sein. Das Geräusch entsteht durch die Vibration von elektrischen Komponenten auf deiner Grafikkarte. Bei manchen ist es etwas unangenehmer als bei anderen. Im Prinzip haben es aber alle. Was kannst du dagegen tun? Stromverbrauch / Spannung der Grafikkarte reduzieren (Undervolting). Viele Grafikkarten kannst du mit weniger Stromverbrauch / Spannung betreiben, ohne dass die Leistung verlierst. Lese dich in das Thema Undervolting ein. Am besten machst du das mit "MSI Afterburber". Aber auch Tools wie die von Asus funktionieren, ja. Was du außerdem dagegen tun kannst, ist ein fps limiter zu benutzen. Oftmals werden in Menüs nämlich deutlich mehr fps erreicht, das führt auch nochmal zu einem schrilleren Ton. Wenn du z.B. mit maximal 144 fps spielst, solltest du auch dort cappen (am besten bei 141 wenn du G-Sync nutzt). Cappen kannst du mit dem Riva Tool, was bei der Afterburner Installation mitinstalliert wird. Das bringt auch ein OSD mit. Bitte googeln, wenn du nicht weißt, was das bedeutet. Mit dem Limiter hast du dann also auch in Menüs usw. nicht mehr als 141 fps und somit weniger Spulenfiepen.
-
Ja, also ich suche und fixiere ja seit Jahren / mehreren GPU-Generation stets den bessere SweetSpot als der des Auslieferungszustandes. Mit einigermaßen guten Chips sind immer deutlich mehr Takt bei gleicher Spannung drinnen. Was ich aber lieber mache, ist eben Spannung wegzunehmen (also Undervolting), und ungefähr an die Taktraten von stock zu kommen. Meine 3090 betreibe ich mit 280-350W (also ordentlich weniger Abwärme) bei 1800 MHz @0,8v. Das entspricht einem OC von exakt 195 MHz. Speicher läuft auf +250 MHz, weil es mehr nicht mehr großartig bei der 3090 bringt. Übrigens wären 1800 MHz bei 0,8v für Turing gigantisch gewesen, bei Ampere klappt es viel öfter. Für die meisten sind wohl eher z.B. 1900 MHz @0,875-0,925v interessant. Das sind 5% mehr Takt als 1800 MHz, allerdings skaliert das in Games nicht, sprich das sind nur zwischen 1-3% mehr fps je nach Game. Ich nehme dann lieber die 1800 MHz bei 0,8v und spare mir Spulenfiepen und noch mehr Abwärme. Gerade in einem kleinen ITX Gehäuse macht das aber auch Sinn. Mit 1800 in allen Games bin ich leistungstechnisch noch sehr gut aufgestellt und das in einem kleinen Gehäuse, und dank den beiden Noctua A12 auf der 3090 auch noch extrem leise. Ich behaupte mein ITX-System ist leiser als viele andere ATX-Systeme (ohne merklich weniger Leistung in Games - nicht Benchmarks - zu haben).
-
Ich glaube auch nicht, dass ich im Endeffekt zu AMD wechseln werde. Sie mögen effizienter und günstiger sein, ich glaube jedoch, dass die 3090 unterm Strich die Leistungskrone aufbehalten wird. Und ich glaube auch, dass DLSS besser als Super Resolution sein wird. Auf der anderen Seite haben sie bei den CPUs sehr überzeugt und Ihre Versprechen gehalten. Wir werden sehen.
-
Einen 5900x hab ich die Woche ergattern können. Die 6900XT werde ich dann auch noch bestellen und sie gegen meine 3090 benchmarken. Am spannendsten wird jedoch sein, ob Super Resolution wirklich gegen DLSS anstinken kann. Für mich auch noch interessant bzw. Voraussetzung, um ggf. überhaupt die 3090 durch die 6900XT zu ersetzen ist, ob VRR meines TVs im allgemeinen reichen wird, ob um einen ordentlichen Sync mit der 6900XT hinzubekommen. Da ich den Desktop nicht nur am Monitor, sondern auch am TV nutze, ist mir das wichtig. Und mein LG65C9 OLED TV aus 20190 hat leider "nur" VRR im Allgemeinen sowie G-Sync-Kompatiblität, kein AMD FreeSync 2 (letzteres hat nur das Modell aus 2020 und mein Monitor).
-
Hab die FE übrigens erhalten und auch bereits wieder zurückgeschickt. Das Rasseln/Spulenfiepen war viel zu heftig, zudem sind die Lüfter zwar ziemlich gut, aber der Unterschied zum Deshroud-Mod (zwei Noctua A12x25 montieren) ist noch zu groß. Das ist einfach zu attraktiv bzw. nochmal deutlich leiser. Aber das war eigentlich klar. Als drittes ist noch zu sagen, dass die FE relativ viel Spannung (deutlich mehr als die MSI Ventus) brauchte, um den gewünschten Takt zu erreichen (das kann aber eine schlechte Chip-Güte und kein generelles Problem der FE gewesen sein). Insofern hab ich mir wieder ein Custom Modell gekauft bzw. wieder eine MSI Ventus. Die reicht mir völlig, da ich aus verschiedenen Gründen mehr als 350W als PL eh nicht haben möchte. Hatte zwischenzeitlich übrigens drei MSI Ventus getestet, haben sich alle relativ ähnlich verhalten, aber natürlich kann man am Ende doch einen Sieger kühren, auch wenn der Abstand gering ausfällt. Mehr Details kann man hier nachlesen. Alle drei MSI Ventus sind übrigens relativ leise bezüglich Rasseln/Spulenfiepen. Das trifft aber natürlich auch auf einige andere Custom-Modelle zu. Die FE scheint unterm Strich öfters lauter zu "schreien" im Gegensatz zu vielen Custom-Modellen - so meine bisherige Beobachtung in den ganzen Foren (zumal ich immerhin wie gesagt drei MSI Ventus getestet habe und alle deutlich leiser als die FE waren). Im Dezember werde ich mir wie hier glaube ich schonmal gesagt die Radeon 6900XT bestellen, mindestens solange nutze ich die 3090 MSI Ventus. Eine davon wird es dann für die nächsten Jahre werden. Ob man die 6900XT zum einigermaßen Normalpreis im Dezember (oder in Q1/2021...) nach Hause bekommt, steht natürlich auch noch in den Sternen... (beim 5900x könnte das wohl ähnlich problematisch werden...).
-
Nein, nicht bei der 3080/3090. Hintergrund ist, dass diese Karten relativ schnell das Powerlimit erreichen. Wie du gemerkt hast, bekommst du ja auch mehr Takt, sobald du das Powerlimit erhöhst. Konkretes Beispiel: bei der 2080 Ti konnte ich in JEDEM Spiel in 4k mindestens 0,9v erreichen, bevor das PL erreicht wurde. Mit der 3090 ist das PL schon bereits bei 0,75-0,88v (je nach Modell) in manchen Spielen erreicht. Da hilft nur das Anheben des (eh schon hohen) PLs oder einer deutlich besseren Kühlung (weniger Temperatur = weniger Watt = mehr Boost). Wobei: lassen wir das "oder" weg, denn beides zusammen macht schon Sinn.
-
Ich werde (hoffentlich) diese Woche einen 5900X bestellen. Und als GPU werde ich im Dezember das Top Modell 6900XT bestellen. Dieses werde ich dann mit meiner 3090 vergleichen und schauen, welche ich am Ende behalte.
-
Updates: - ein Kühler ist verkauft. Also nur noch einer da - ich gehe von 120 auf 90 Euro runter.
-
Meine kommt Montag/Dienstag (gestern bestellt). Ja, absolut, das Konzept der FE ist diesmal richtig cool. Fast schon zu schade, um Deshrouding oder WaKü durchzuführen... Werde sie auch erstmal so testen.
-
Hab gerade eine 3090 FE zum Normalpreis über Notebooksbilliger bekommen! Dort sind gerade 3070 + 3090 verfügbar!
-
Ja, mein 4k/120Hz-TV hat HDMI 2.1 (2019er Modell). Und bei meinem 4k/120Hz-Monitor läuft es über DP 1.4.
-
Sooo, hab meine MSI 3090 wieder verkauft, natürlich ohne Verlust! Ausführlicher Test hat Spaß gemacht und mich nix gekostet. 😎 Werde mir aber wieder eine 3090 kaufen (😬), und zwar als Neuware über einen Shop. Hintergründe: durch die angekündigte Performance der AMD GPUs fallen bereits jetzt schon die Preise der Nvidia GPUs, wenn ich länger gewartet hätte, hätte ich "Miese" gemacht so spare ich nun Geld (eben mindestens 100 Euro, weil Standardpreis ja 1499 und nicht 1600 Euro - für letztere Summe hatte ich ja die MSI gekauft). Außerdem sind meine neue CPU sowie mein Netzteil eh noch nicht da... habe es nicht eilig (die 3090 schonmal ausführlich getestet zu haben war aber natürlich gut) ich möchte nochmal eine andere 3090 ausprobieren, um alleine schon wegen der Chipgüte etwas mehr Erfahrung zu haben. Werde mir wohl die schicke Founders Edition (FE) kaufen, die sich auch mehr Energie als die MSI Ventus genehmigen darf (auch wenn ich die +50W wohl nicht nutzen werde) zudem hol ich mir im Dezember dann noch die dickste AMD GPU (6900XT) und vergleiche sie mit der 3090 FE. Eine davon wird anschließend verkauft (ich denke die 6900XT, da ich denke, dass die 3090 im unabhängigen Vergleich die schnellste bleiben wird, und da reden wir noch nicht von DLSS 2.0 und Raytracing). Ich möchte einfach für mein 4k@120-Gaming-Setup das Schnellste was es gibt (also nicht unbedingt das beste Preisleistungsverhältnis). Ob 16 oder 24 GB VRAM ist mir egal, nur die 10 GB der 3070/3080 gehen für mich gar nicht
-
Alienware 17 R3 M17 r3 display
Robman antwortete auf Nilhilist's Thema in Allgemeines & Troubleshooting
Kurz: Sie hat denke ich keine Ahnung. Man sieht es ja auch im offiziellen Konfiguration eindeutig, dass die 300 Hz Displays kein G-Sync haben. -
Hier mal ein Vergleichstest zwischen zwei Games, die extrem gut aufzeigen, wie stark sich der Verbrauch (und somit auch Takt) unterscheiden kann. Die meisten Games liegen dazwischen. A Plagues Tale: 0,775-0,831v Assassins Creed Odyssey: 0,969 - 1,044v (stock um die 1900-2000 MHz) Beide erreichen so die 350W Limit meiner MSI GeForce RTX 3090 Ventus 3X 24G OC. Natürlich (nur) bei 2160p. Bei 1440p und ähnlich sind die Verbrauchswerte um einiges geringer (und somit der Takt höher). Mein Afterburner-Profil cappt aber bei 0,9v, wo mein Chip glücklicherweise stabile 1950 MHz schafft. Mehr als 0,9v gilt es aufgrund des Spulenfiepens zu vermeiden (ich kenne keine Karte die über 0,9v leise genug für mich ist - ich habe aber auch stets kleine sowie luftige, also nicht geräuschdämmende, ITX-Gehäuse). So verschenke ich keine Leistung in wenig fordernden Games wie Odyssey. Und bei fordernden Games ändert sich ja nichts. So komme ich einfach fast in jedem Game ins TDP-Limit, egal wie fordernd es ist. Odyssey verbraucht bei fixen 0,9v „nur“ ca. 320W bei 7X Grad). Je nach Game schwanke ich also mit meinem AB-Profil zwischen 0,775 - 0,9v bzw. 1740-1950 MHz bzw. 320-350W. Da die meistens Games wohl dazwischen liegen, liegen meist mehr als 1800 MHz an. Und die mehr als 0,9v würden eh nur bei wenig fordernden Games was bringen. Ich könnte dann statt 1950 MHz um die 2000 MHz fahren, das wäre der einzige Vorteil. Bei den heftigsten Games würde sich eh nichts ändern, da die 350W TDP Limit ja bereits bei rund 0,8v erreicht werden. Das TDP Limit von 350W zu erhöhen, macht natürlich bei einem ITX Gehäuse und ohne Wasserkühlung keinen Sinn. Ich bin so sehr zufrieden. 1740 - 1950 MHz je nach Game finde ich für ITX und Luft echt super. Wer in allen Games konstant 1950 MHz und mehr mit einer 3080/3090 haben möchte, muss dann eben für entsprechende Kühlung sorgen (und das Limit per evtl. verfügbaren vBIOS erhöhen oder eine Karte kaufen, die eben 450-500W zulässt).
-
Habe gestern Abend eine MSI GeForce RTX 3090 Ventus 3X 24G OC für "nur" 1600 Euro bei Ebay-Kleinanzeigen gekauft und abgeholt. Es war die günstige auf ganz Ebay-Kleinanzeigen (Inserat bereits deaktiviert) und bei mir um die Ecke... Glück gehabt… wenn man mal (auch genau von dieser Karte) die Preise überall anschaut, so war das eigentlich ein „Schnäppchen“. Es ist noch eine einzige drinnen, für 1900 Euro, also 18,8% mehr. Mehr kriegt man wohl nicht für. Daher werde ich sie wohl behalten... 😁 Falls eine 3080 mit 20 GB Vram kommt, natürlich irgendwie Irsinn. Aber man weiß es eben halt auch nicht. Und was man hat, hat man. Zumal ich jetzt sofort - und es ist immerhin Herbst / Winter - spielen kann. Ich montiere auf der GPU zwei Noctua A12 (leiser und kühler zugleich). Gehäuse wird ein Cooler Master NR200 (derzeit neu nicht zu bekommen). CPU wird wohl ein AMD Zen3 8 oder 12 Kerner. Aber mal schauen. Er muss halt genauso gut performen (auch frame times usw.) wie ein 10900k. Als SSD hab ich ne Samsung 2 TB NVME geordert, derzeit bei Cyberport ziemlich günstig (und lieferbar).
-
Alienware Area-51m R2 Kaufentscheidung
Robman antwortete auf Nilhilist's Thema in Kauftipps & Entscheidungshilfen
Nein. G-Sync ist (ganz grob vereinfacht gesagt) dafür da, dass du ein flüssigeres Spielerlebnis hast, wenn du in fps gesehen unterhalb der Hz unterwegs bist. Am besten liest du dich mal im Netz allgemein über G-Sync ein. Dann wirst du auch auf das keyword "tearing" stoßen. Kannst ja auch nach 144 Hz vs 300 Hz googeln. Bei 144 mit G-Sync und auch bei 300 ohne G-Sync gibt es Vor- und Nachteile. Am besten wäre 300 mit G-Sync. Aber Geschmäcker und auch das Empfinden kann varrieren. -
Alienware Area-51m R2 Kaufentscheidung
Robman antwortete auf Nilhilist's Thema in Kauftipps & Entscheidungshilfen
Das 300 Hz würde ich dir nur empfehlen, wenn du wert auf möglichst viele fps und absoluter Smoothness legst. Du musst natürlich keine 300 fps erreichen, um die Vorteile auszuspielen, aber eben einiges. Normal lieber 300 statt 144 Hz, allerdings gibt es das 300 Hz nicht mit G-Sync. Und gerade bei dir, wo du ja scheinbar wert auf Grafik legst (du hast an UHD gedacht), macht G-Sync Sinn, da geringe fps. Ich würde auf jeden Fall das 144 Hz nehmen. Macht auch mehr Sinn, wenn du mit maximal 144 fps spielst (was meistens der Fall sein wird). Wenn du nicht Tearing empfindlich bist, und du deine Spiele so einstellst, dass du immer sehr viele fps hast, dann nimm das 300 Hz. Rein vom Panel ist das wohl auch etwas kontrastreicher sowie heller. Ich persönlich möchte auf nichts von beiden verzichten, weder auf UHD, noch auf 120 oder mehr Hz. Das leisten aber nur die neuen Ampere-GPUs bei den Desktops (zumindest wenn es um Triple-A-Games geht).