Zum Inhalt springen

Robman

Mitglied
  • Gesamte Inhalte

    836
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    38

Alle Inhalte von Robman

  1. Das werde ich mir wohl mal bestellen, sobald es verfügbar ist. Die Lüfter könnten wie gesagt relativ angenehm sein vom Charakter her und das Design finde ich auch nicht so schlecht. Das MSI GE76 hat kein G-Sync und ist daher uninteressant. Und ja, auch bei 300 Hz sieht man (nicht jeder) noch leichtes Tearing.
  2. Das Lenovo ist sehr interessant, hat auch G-Sync! 16 Zoll und 16:10 ist natürlich auch mal was anderes, und halt quasi QHD. Die bisherigen Lenovo sollen auch laut Tests relativ rauschig sein, aber keine Ahnung.
  3. ... und wenn du schalldichte Kopfhöhrer nutzt und niemand anderes im Raum ist... 🤣 sorry, das musste sein..
  4. Frau / Haushalt zählt nicht (hab ja auch zwei Area 51m wegen meiner Frau).
  5. Puh, du hast dann also zwei Notebooks und einen Desktop. Ich hätte gar kein Bock darauf auf allen Geräten Windows, Treiber, Spiel-Clients sowie Spiele aktuell zu halten... aber jeder wie er es mag. Ich steh auf ein Gaming-PC und ein Arbeits-PC. Einfach, aber gut (für mich).
  6. Dort ging es wohl nur für die RTX 2000 Serie. Nehmt den Inspector.
  7. Ich kann auch nur empfehlen, dass alle m17 R4 Eigentümer das so machen. Neben den fps bekommt man so auch ruhigere frametimes. Und auf die 15w kann man sch...
  8. Es gibt etliche Spiele - zumindest wenn man 4k Ultra setzt - die mehr als 10 GB VRAM nutzen. Das Problem sind nicht unbedingt die fps, sondern die frametimes (bis hin zu Microrucklern). Genau wie bei schlechten CPUs (ja, nicht GPUs) ist der frametime-Unterschied oft höher als der fps-Unterschied. Für ein gutes Spielgefühl sollte die CPU gut sein, und eben auch der VRAM der GPU nicht volllaufen. Oftmals kann man aber schon Abhilfe schaffen, indem man die Details reduziert. Und sind wir mal ehrlich: 4k/Ultra ist für eine mobile 3070 oder auch 3080 für viele Spiele overkill, zumindest wenn man 60 fps oder mehr haben möchte.
  9. Ahja, dann ist das nun mit den neuen GPUs anders. Zu deinem Problem fällt mir nur noch ein, mal ein anderes Kabel auszuprobieren oder mal die Nvidia-Settings wiederherzustellen.
  10. Du musst das externe Display mit DisplayPort verbinden, um G-Sync und die RTX-GPU nutzen zu können.
  11. Ich glaube auch, dass es primär um die zwei Netzteile geht. Ich kann es auch gut nachvollziehen, hat mich auch gestört. Der Vorteil daran sich in Foren zu tummeln bzw. bisschen mit der Materie auseinanderzusetzen, ist ja aber, dass man an sowas (oftmals) was ändern kann. Wie schon gesagt ist der Aufwand des Netzteil-Mods kaum höher als ein Repaste. Ok, man braucht einen Lötkolben, wow. Aktuell spricht für das m17 R4 darüber hinaus natürlich noch die Verfügbarkeit der 3080. Da ist was dran. Ich klinke mich diesbezüglich jetzt hier auch aus.
  12. Auch wenn das Area 51m ja fast nur rauscht, so habe ich dort auch mal den "Tape-Trick" ausprobiert. Ergebnis: jetzt ist auch das Area 51m am Pfeifen. 😄 Bringt dort also genau das Gegenteil. 😉
  13. Wenn dich wirklich nur die Geräuschkulisse der Lüfter stört dann auf ans Modden!
  14. Meine Erfahrungen mit 1800 MHz @0,8v (oder ähnlichen Werten) sind, dass sie erstmal stabil laufen, aber letztendlich nicht wirklich stabil sind. Erstens muss man natürlich sehen, ob sie langfristig allgemein stabil laufen, und vorallem, ob sie das auch noch bei modernen Titeln mit aktivierten DLSS 2.0 und/oder RT sind. Nach meiner Erfahrung schmieren dann die allermeisten (es gibt natürlich auch Gold Samples) ab. Wenn du wie @captn.ko enorm gute Temperaturen durch eine starke WaKü hast, dann schaffen es natürlich deutlich mehr Exemplare. Übrigens interessant an der Stelle: ca. 50 Grad statt ca. 70 Grad spart mal ca. 10% an Energie ein.
  15. Ich habe die Tage viel getestet und gespielt. Ich bin nun überwiegend von 1,78x / 2560x1440px weggekommen und zocke vorallem „Controller-Games“ mit 4,00x / in 3840x2160px. Den richtigen „Wow-Effekt“ gibt es nämlich erst dort. Es ist übrigens egal, ob das richtig nativ der Fall ist, oder per Checkerboard-Rendering bei Konsolen oder per DLSS 2.0 am Computer erreicht wird, alle drei Ergebnisse sehen sehr sehr gut aus. Bei den Konsolen geht es ohne diesen Trick übrigens gar nicht anders, für den Preis sind sie natürlich sonst zu schwach. Neben Checkerboard-Rendering hat die Konsole natürlich noch den weiteren Vorteil, dass das (schlanke) OS völlig auf nur diese eine Hardware abgestimmt ist und die Programmierung zur Hardware direkter stattfinden kann. Aber zurück zum Thema: Bisher hatte ich ja gesagt, dass 60 Hz kein Spaß machen (da mein Area 51m R1 ja kein HDMI 2.1 hat, kann ich am TV aufgrund des dort fehlenden Display Ports wie schonmal gesagt nur 2560x1440px bis 120 Hz haben). Das 60 Hz kein Spaß machen, lag vorallem daran, dass ich im unteren Bildschirmbereich trotz G-Sync und 57 fps cap Tearing hatte (man soll ja des Tearings wegen immer 3 fps unter der Frequenz des Displays bleiben, daher 57 fps bei 60 Hz). Das alleine hat aber nicht geholfen. Dank dieses Guides hier konnte ich aber das Tearing nun komplett eliminieren, ohne den Inputlag durch V-Sync zu haben. G-Sync-Verhalten halt. In dem Artikel geht es vorallem darum, in den globalen (für jedes Spiel einzeln wäre ja nervig) Nvidia-Settings die vertikale Synchronisation auf "Ein" zu stellen. Und nein, man nutzt dann kein V-Sync, zumindest nicht dann, wenn man gleichzeitig G-Sync nutzt (und ingame V-Sync deaktiviert hat). Ich kenne den Artikel schon länger, hatte ihn aber irgendwie vergessen. Wenn man 120/144 oder mehr Hz hat und mit 60 fps spielen will, braucht man die Setting nicht zu machen, da ist man auch so komplett tearingfrei. Mit einem Monitor mit Displayport oder auch mit einem TV, sofern man einen HDMI 2.1 Notebook hat (RTX 30XX), kann man sich das sparen. Aber bei 57 fps bei 60 Hz halt nicht, ist quasi zu nah dran. Manche würde das minimale Tearing im Fußbereich des Bildes vielleicht nicht mal entdecken, ich bin aber empfindlich. Was besseres als Faktor 4,00x / 3840x2160px (Glättung kann man dann wie im Eingangspost erwähnt auf 0% stellen) auf dem 1920x1080px-Alienware-Display gibt es natürlich nicht. Und mein externer Monitor sowie TV wird so nativ angesteuert, natürlich absolut perfekt so. Außerdem braucht man dann auch kein Nachschärfe-Filter mehr. Für ziemlich schwammige Spiele wie Valhalla habe ich ihn aber noch auf Spiel-Ebene aktiv (0,30). Ist aber total Geschmackssache. Um bei 3840x2160px 57 fps mit der 2080 überwiegend halten zu können, musste ich natürlich einiges an den Grafik-Settings in den Spielen drehen, ganz klar - zumindest wenn kein DLSS 2.0 zur Verfügung steht Glücklicherweise unterstützen das als mehr Spiele. Für alle anderen Spiele würde sich eine 3080 natürlich jetzt gut anbieten. Sofern ein Area 51m R3 mit 3080 kommt, schlage ich sicher zu. Schnelle Shooter spiele ich noch immer in 1920x1080px mit über 100 fps. Hier könnte ich erst auf 3840x2160px mit der 3080 gehen (sofern DLSS 2.0 im Spiel zur Verfügung steht. Ansonsten würde es "nur" für 2560x1440px reichen). Passend an der Stelle noch abschließend ein paar allgemeine Tipps, wie man Grafik-Settings in Spielen am besten konfiguriert: (ich weiß, dass es natürlich auch Personen gibt, die stets alle Regler nach rechts schieben wollen. Die sollten diesen Beitrag ignorieren 😄) es gibt für viele Spiele gute Artikel oder Videos, welche Setting wie viel bringt (optisch) und wieviel verbraucht (fps). Es gibt hier teilweise echt schlechte Verhältnisse. Ansonsten selbst etwas testen (muss man ja nur einmalig zu Anfang machen). Wenn man 3840x2160px nutzen möchte und keine Desktop-3080/3090 hat, muss man darüber hinaus noch ein paar Abstriche machen (z.B. manches von Ultra auf High oder von High auf Medium stellen) bei hohen Auflösungen braucht man keine hohe Kantenglättung wählen, das gibt i.d.R. viele fps frei für Schatten, Post Processing (Nachbearbeitung) bzw. Effekte, Nebel & Co. (sofern extra zur Verfügung stehend) reicht oftmals Medium falls man immernoch nicht genug fps hat: bei sehr hohen Auflösungen wie 3840x2160px kann man ruhig ingame (in den meisten Spielen verfügbar) die Auflösungs-Skalierung (Render-Scaling) von 1,0 auf 0,9/0,8 runtersetzen, das sind dann noch 3456x1944px / 3072x1728px, was immernoch sehr gut aussieht bzw. besser als 2560x1440px
  16. Tja, also ich habe jetzt noch meine R1 bis dann mal das R3 kommt. In deinem Fall echt nicht so einfach... ein R1 zur Überbrückung gebraucht kaufen?
  17. Ja, darauf können wir uns gerne einigen: Wäre das hochfrequente Pfeifen nicht, könnte man das m17 R4 definitiv gut finden, weil wie du schon sagtest nicht alle bzw. die meisten nicht im stillen Lüfterprofil spielen, sondern mindestens (mit Headset) im Ausgeglichenen. Das stimmt schon.
  18. Freut mich, dass ich dir helfen konnte. Ich sehe hier keine Blödheit von dir, ich finde das von Alienware/Dell nicht kommuniziert bei Anwahl dieses Profils. Mich wundert das nicht, dass dann sowas passiert.
  19. Ein QHD-Display wäre als Option auf jeden Fall sehr wünschenswert gewesen, ja. Aber in modernen Titeln wie CoD Cold War, wo man möglichst viele fps haben will, obwohl sie gleichzeitig sehr anfordernd sind, würde einem das auch nicht wirklich was bringen. Um nämlich möglichst viele fps zu haben (und die will bei Shootern jeder), aktiviert man bei QHD auf jeden Fall DLSS 2.0 (und diese Technik wird von als mehr Spielen unterstützt, und eben auch schon von CoD Cold War). Dann hat man die Optik von QHD, aber die Perfomance von FHD. Ergo wäre die CPU hier wieder ein Problem. Der 9900k im im Area 51m R1 (ich will mal gar nicht vom 10900k im Area 51m R2 anfangen), hat im stillen Lüfter-Profil bis zu 62% mehr Takt anliegen. In allen anderen Lüfter-Profilen noch bis 17,5% mehr Takt. Insofern bleibt für mich der Hauptkritikpunkt die CPU und vorallem die Charakteristik der Lüfter (und auch die Lautstärke, weil man ja mindestens das ausgeglichene Lüfter-Profil nehmen muss, um eine ordentliche CPU-Leistung zu haben). Und das nur um ca. 1 kg leichter sowie rund 1/3 dünner zu sein (die sonstigen Abmessungen sind nicht großartig anders). Ja, ich werde jetzt nicht mehr weiter sticheln und vergleichen. edit: 17,5% weniger Takt (ca. 4 GHz auf allen 8 Kernen) beim m17 R4 wären ja völlig in Ordnung (reicht in aller Regel), wenn man sie denn aber auch im stillen Lüfter-Profil hätte, aber nein - in diesem Lüfter-Profil wird die CPU nach kurzer Zeit ja wie schon an anderer Stelle gesagt auf gerade mal 25W kastriert, so das der Unterschied zum 9900k wie oben gesagt bei bis zu 62% weniger Takt liegt.
  20. Mein Reden, genau deswegen hab ich ihn auch son bisschen in meinem kleinen Review mit dem Area 51m verglichen. Das m17 R4 ist ebenfalls alles andere als mobil. 17 Zoll sind und bleiben 17 Zoll. Und unter den 17 Zöllern ist es auch ziemlich schwer. Verstehe auch nicht, wie es da einem noch auf 1 kg und ca. 1/3 mehr Dicke ankommen kann, vorallem wenn der Unterschied zwischen CPU, Temperatur und Laufruhe so groß ist. Die einzigen Argumente sind irgendwie Optik/Style (nicht so sehr viel anders) schon im Auslieferungszustand nur ein Netzteil (kein Mod notwendig) schon mit 3080 verfügbar (die aber aufgrund der relativ schwachen CPU in CPU-lastigen Games nicht mehr fps liefert) Wenn einem diese Punkte allgemein enorm wichtig sind, ist man mit dem m17 R4 gut bedient. Ich will das niemanden madig machen...
  21. Bist du vielleicht im Thermo-Profil „Kühlen“? Falls ja - raus da.
  22. Teste auf jeden Fall andere Netzteile aus, oder zu mindest ein anderes Netzteil. Es ist möglich, dass eins (teilweise) defekt ist. Ich habe sowas auch schon mal erlebt, da war ein 330W Netzteil nicht mehr richtig in Ordnung und hat die GPU ständig zum Throttling gebracht.
  23. Ja, dachte ich mir. Möglicherweise ist ein Netzteil kaputt, oder ein DC/IN. HWiNFO zeigt dir auch an, wieviel Watt anliegen. Damit du das siehst, musst du in den HWiNFO-Settings im Reiter "Safety" den "EC Support" abhaken. Dann siehst du eine neue Kategorie bei den Sensoren, z.B. auch Lüfter-Umdrehungen. Dort darunter steht, ob wirklich 510W anliegen. PS: Die Warnmeldung von HWiNFO ist normal (wenn du EC Support abhakst und dann weitere Sensoren erkannt werden).
  24. Für die Intel-Grafik sind die Puntke auch noch viel zu hoch. Sieht wirklich so aus, als wäre die 2080 auf 50W limitiert, das passiert wenn nur ein Netzteil erkannt wird. Allerdings hast du ja zwei dran und es werden auch richtigerweise 510W erkannt (330+180). Wie JetLaw schon sagte, hilft da am besten HWiNFO, dann siehst du z.B. wieviel Takt anliegt. Mithilfe von Afterburner bzw. dem Riva Statistic Server (installiert sich mit) kannst du dir die Werte auch ingame anzeigen lassen ("OSD"). Am besten mal einlesen, hier im Forum z.B. gibt es dazu auch Anleitungen.
  25. Auf die Schnelle: Du kannst ja mal den VRAM runtertakten und schauen ob das Verhalten dann immer noch so ist.
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.