Zum Inhalt springen

Robman

Mitglied
  • Gesamte Inhalte

    821
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    38

Alle Inhalte von Robman

  1. Robman

    Biete - erledigt Alienware Area 51m R2

    1300 Euro!
  2. Robman

    Biete - erledigt Alienware Area 51m R2

    Ich nenne mal einen Preis: 1.400 Euro
  3. Robman

    Biete - erledigt Alienware Area 51m R2

    Hallo zusammen, ich biete euch mein Area 51m R2 an. i9 10900K 2080 Super 32 GB (2x16) 3000 MHz (läuft mit 2933) CL16 G-Skill Ram 360 Hz FHD Display mit G-Sync und Tobii Eye Tracking 1256 GB SSD (1000 GB Micron NVMe + 256 GB Samsung 840 Evo) Zustand ist gut und Originalverpackung ist dabei. Außerdem die beiden originalen Netzteile. Bei Bedarf kann ich weitere Netzteile dazu geben, auch ein neues kleines 330W-Slim Netzteil (vom X17R2) ist gegen Aufpreis möglich. Als Preis würde ich gerne einen Vorschlag hören, man wird sich sicher einig... Bei diesem Gerät wurde übrigens nur die Bodenplatte geöffnet, um SSD und Ram zu tauschen. Die Heatsink wurde von mir noch nie abgenommen. Grüße
  4. Du kannst wirklich dauerhaft ca. 100 W auf der CPU halten, wenn die GPU stark (oder sogar voll) ausgelastet ist? Ja, 90-100 Grad sind absolut ok. Wie sagte letztens ein Intel Ingenieur im Interview (sinngemäß): Er würde die CPU stets auslasten und dazu gehören Temperatur-Limits, sonst hätte er das Gefühl, nicht die volle Leistung abzurufen. Insofern hält er quasi auch nichts von TDP-Limits. Also wenn mein offener 13900K 220 W und mehr dauerhaft zieht (Cyberpunk 2077 in der Stadt, oder Benchmarks), erreicht er auch 90-100 Grad, da meine beiden NF-A12 vom U12A bei maximal 1.250 rpm laufen. Sorgen bereitet mir das null. Natürlich hat man dann nicht mehr konstant den vollen Takt, aber eben den maximalen, der in dem Moment möglich ist (was eben auch die in dem Moment maximale Leistung bedeutet). Solange man nicht dauerhaft (24/7) Temperatur-Limit fährt, ist das alles überhaupt kein Problem (auch laut Intel-Ingenieur).
  5. Ich kann MiniLED mit >1.000 Dimming-Zonen neben OLED auch empfehlen. Wem 27 Zoll reichen und wer es vor allem günstig haben möchte (für 4K 160 Hz und eben MiniLED), der findet wahrscheinlich hieran Gefallen: https://eu.redmagic.gg/pages/redmagic-4k-gaming-monitor Kommt bald auch nach DE, 869$, mal sehen, was das in Euro bedeutet. Auf jeden Fall deutlich günstiger (auch im Verhältnis) als die ganzen 32 Zöller mit >1.000 Dimming-Zonen für 1.600 (AOC) - 4.300 (Asus) Euro.
  6. Ja klar, hatte ja geschrieben "... bringen natürlich viel". Aber bin mal gespannt ob es wirklich stabil läuft, oder du nach einiger Zeit / Tagen / Wochen / Monaten doch mal ein Bluescreen oder Systemfreeze bekommst (und das sogar auch bei einem Spiel, was du bis dato schon XX Stunden gespielt hast). Und das wird dann mit sehr hoher Wahrscheinlichkeit am CPU-UV liegen. Richtig ärgerlich ist sowas bei einer Online-Partie mit Freunden... Jetzt könnte man natürlich sagen "sowas ist mir egal, wenn es meistens stabil läuft" -> die Meinung kann man natürlich vertreten, wäre aber für mich nichts. Es wird sich noch zeigen, ob die -120/-80 mV bei dir wirklich stabil laufen. Und ob du (bitte nicht persönlich nehmen) dann postet "war doch nicht stabil" steht auch auf einem anderen Blatt.
  7. Mal mein Senf zum CPU-Undervolting im Allgemeinen: 100 mV oder ähnlich bringen natürlich viel, aber bei den allermeisten Chips hat sich - teilweise erst nach Monaten (und sogar die gleichen Spiele) - herausgestellt, dass es doch nicht 100% in Alltagsanwendungen inkl. Spielen stabil war. Das weiß man eben nicht unbedingt nach einigen Wochen , und schon gar nicht nach einigen Tagen oder Stunden. Ich nutze mittlerweile gar kein UV mehr, auch nicht bei der GPU. Beim Desktop ist das aufgrund der Kühlreserven natürlich einfach. Es ist ein befreiendes Gefühl, (nach so vielen Jahren) überhaupt kein UV mehr zu nutzen. An alle die jetzt z.B. evtl. nur -50 mV konfigurieren können (hab jetzt hier nicht alles gelesen): Seid nicht traurig, -100 mV wären wohl oftmals eh nicht rock-stable.
  8. Ja, solch eine CPU wäre natürlich total sinnig für Gaming-Laptops bzw. würde diese (@Gaming) auf Desktop-Niveau heben. Ob diese CPU aber jemals in einem Laptop erscheint, ist fraglich. Der 5800X3D hat es zumindest in ein einziges Modell geschafft (https://www.xmg.gg/news-update-xmg-apex-15-max-e22-ryzen-5800x3d/)
  9. In dem Video sagt er ja auch (Tabelle), dass die CPU bei Dual-Load 75 W halten kann, was ja nicht schlecht ist, aber auch notwendig. Für sehr viele Spiele reicht die Leistung natürlich bzw. ist ordentlich. Aber es gibt eben auch Spiele, wo 75 W absolut nicht ausreichen bzw. der Takt eben in dem Moment zu stark gedrosselt wird. Ein Beispiel ist z.B. Cyberpunk 2077. Dort verliere ich in der Stadt mit vielen Leuten bis zu 11% an fps, wenn ich meinen offenen 13900K (der an der Stelle um die 200 W benötigt) auf 125 W limitiere. Und 11% ist nicht gerade wenig. Von 125 W auf 75 W (m18) wäre nochmals ein deutlich merkbarer fps-Verlust (und da haben wir noch nicht über den langsameren Ram gesprochen). Ein anderes Beispiel ist A Plague Tale Requiem, wo man selbst mit einem offenen 13900K hier und da auf 90 fps (und weniger) fällt (CPU-Limit). Mit dem m18 bzw. mit einem 13900/13950/13980HX hat man an der gleichen Stelle dann wegen genanntem CPU-Limit 60-70 fps, was merkbar ist, wenn man die ganze Zeit 90 fps und mehr hatte. Ich könnte natürlich noch weitere Games nennen: Hogwarts Legacy, Anno 1800, FarCry 6 usw. usf.. Aber ja, ein Laptop ist und bleibt ein Laptop mit all seinen Vor- und eben auch Nachteilen. Und für manche von euch ist er alternativlos (wechselnder Standort, kein Bock auf Mitnahme eines Desktops oder was auch immer). Und immerhin: Mit 75 W @ Dual-Load kann man jedenfalls schon mal was anfangen bei dieser CPU-Generation, auch wenn in dem Watt-Bereich AMD wohl davon ziehen wird.
  10. Bei Single Load können 200 W @ PL1 & 2 schon stimmen.
  11. Also das überrascht mich jetzt NICHT 😁 Ich wünsche euch (ernsthaft) viel Erfolg dabei, dass (in leiseren Lüfter-Profilen) irgendwie zu umgehen.
  12. Ist klar. Aber: Ohne (neuen) kleinen Schreibtisch im Wohnzimmer in der Nähe von TV-Lowboard und Couch hätte ich dieses Jahr halt wirklich einen gebraucht, weil mir das CPU-Limit des 10900K + 2933 MHz CL16 Rams des Area 51m R2 für meine Frau mittlerweile zu gering ist. Jetzt hat sie einfach den gleichen Desktop wie ich bekommen und wir sitzen immer noch in der Nähe, nur eben beide an großen Bildschirmen mit Desktops. (hatte ich hier aber sicher schon mal irgendwo erwähnt).
  13. Wie praktisch, dass ich kein Gaming-Laptop mehr brauche... 😆
  14. Der Vollständigkeit halber: Hab den 13900K im Mini-ITX-Desktop mit DDR5 6000 CL32 Ram (muss man immer dazu sagen, weil viel schneller als energiesparsamerer Laptop-Ram) nochmal mit 88 W Powerlimit und auch einmal offen (ohne Erreichen eines Temperatur-Limits) antreten lassen. Nachfolgend die aktualisierte Tabelle: 13950HX (Razer Blade 18) ~65 W Powerlimit: 110 fps 13980HX (Asus Scar G18) ~65 W Powerlimit: 118 fps 13900K (Mini-ITX-Desktop) 88 W Powerlimit: 156 fps 13900K (Mini-ITX-Desktop) ~130 W offen: 163 fps Ohne aktivierten XMP fallen die fps übrigens von 163 auf 145. Nur zur Info: Der 13900K verbraucht je nach Spiel natürlich auch teilweise viel mehr. So sind bei Spiderman mit aktivierten Raytracing, um mal ein Beispiel zu nennen, bis zu um die 190 W zu sehen. Ohne Undervolting allerdings, mit einem 100 mV Offset entspannt sich das deutlich. Und mit einem fps-limiter natürlich auch. Laut Computerbase (mehrere Spiele getestet) verliert der 13900K bei 125 W PL1 Beschränkung gerade mal 2% an Leistung bei den percentil-fps. Wenn man ihn auf 88 W PL beschränkt, dann aber schon 8%. Im besten Fall hat man also natürlich ausreichend Kühlung und lässt ihn offen und sieht somit auch im OSD immer den maximalen (dann nicht schwankenden) Takt. 😎
  15. Ja, das ist leider so. Obwohl man natürlich sagen muss, dass MSI und wahrscheinlich auch Asus Modelle haben, die relativ gut verarbeitet sind. Aber das sind nicht die Highend-Gaming-Laptops. Das Asus Scar G18 ist besser verarbeitet als ich erwartet hatte, wäre mir aber nicht genug gewesen, sofern ich den Rest toll gefunden hätte.
  16. Ich kann captn.ko da nur zustimmen! Zwischendurch war ich mal nicht ganz so genau und hatte auch Sachen, die nicht so toll verarbeitet waren inkl. schlechte Materialwahl - hat mich nie glücklich gemacht. Aber jeder ist anders! Ich weiß - es nervt: Aber beim Area 51m R2 stimmte bzw. stimmt eigentlich einfach alles, nur dass der 10900K inkl. DDR4 Ram und 2080 Super eben nicht mehr so super schnell sind. Das Schlimmste ist, dass das Chassis absolut perfomant einen 13900K und mobile 4090 aufnehmen könnte - so traurig!
  17. Genau, und der wieder zum Clevo XYZ. Nur Medion zu sehen trifft es also gar nicht.
  18. Hab ich jetzt nicht feststellen können und beim Blade 18 war es ja wirklich nicht zu übersehen. Das ist mehr als herkömmliches G-Sync-flickering - ich denke da wird noch nen Bios / Treiber, was auch immer kommen. Ich kenne das Problem allgemein ganz minimal in dunklen Szenen von OLED-Displays. Sieht aber nicht jeder, muss man empfindlich sein. Theoretisch kann es aber auch auf jedem LCD vorkommen, dort wird es nur noch schwerer es zu sehen. Richtig vermeiden lässt sich G-Sync-flickering eigentlich nur mit dynamischer Gammakurven-Anpassung, was meines Wissens nach nur G-Sync-Ultimate bietet.
  19. Kurztest Razer Blade 18 und Asus Scar G18 So, hab sowohl das Blade 18 als auch das Scar G18 ausgepackt und getestet. Am interessantesten für mich war, wie viel Leistungsaufnahme die (starken) CPUs bei Dual-Load in einem noch erträglichen (4X dbA) Lüfter-Profil ("Balanced" oder ähnlich) abführen können/dürfen. Außerdem war für mich interessant, wie die Charakteristik der Lüfter ist. Zur (permanenten, also PL1) CPU-Leistungsaufnahme im „Balanced-Mode“. Bei z.B. FarCry 6, was auch ordentlich CPU-Leistung für viele fps möchte, fällt die CPU bereits nach kurzer Zeit auf ca. 45 W (Blade 18) bzw. 55 W (Scar G18). Das ist definitiv zu wenig, hierdurch fallen die fps auch ordentlich und CPU-Limits verschärfen sich deutlich. Für mich indiskutabel: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im Leistungs-/Lüfter-Profil "Balanced" (beim Scar G18 heißt es „Leistung“) 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 45 W: 103 fps 13980HX (Scar G18) bei um die 55 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Hinweis 1: Der in der Überschrift genannte Leistungs-/Lüfter-Modus bezieht sich natürlich nur auf das Blade 18 und Scar G18, das Area 51m R2 lief im Silent-Modus und der Desktop ja eh völlig individuell Hinweis 2: Beim Area 51m R2 wird bei um die 125 W im Silent-Profil (!) das langfristige Temp-Limit erreicht, sonst wären wohl noch paar fps mehr drinnen. Würde die GPU voll arbeiten, wären aber etwas weniger Watt möglich, aber wie gesagt: Silent-Profil! Die anderen beiden Laptops dürfen halt einfach langfristig gar nicht mehr (PL1) Hinweis 3: Egal ob die GPU voll arbeitet oder nicht, beim Desktop wird bei um die 105 W mein langfristige Temp-Limit erreicht (das Mini-ITX-Gehäuse ist ja sehr klein und es wird ein kleiner CPU-Kühler verwendet, den ich auch noch zusätzlich auf leise getrimmt habe. Was der 13900K aber bei um die 105 W abliefert, ist ja absolut beeindruckend). Mit mehr Lüfter-rpm und/oder einem größeren CPU-Kühler würden noch mehr als 161 fps möglich sein. Der Abstand zu den mobilen Top-CPUs bei Dual-Load in den 18er Laptops ist ja aber jetzt schon riesig. Bei um die 90 W liefert der 13900K übrigens noch immer 156 fps - wie gesagt 161 bei um die 105 W). Hinweis 4: In dem Beispiel / Spiel mögen für viele auch bereits die 92 fps des Alienware Area 51m R2 / 10900K ausreichend sein. Aber erstens gibt es üblere Stellen im Spiel, und zweitens gibt es mittlerweile so einige Spiele, wo man die fps quasi durch 2 teilen kann, und dann bleibt bei allen Laptops nicht mehr viel über bzw. nicht einmal stabile 60 fps in entsprechenden Szenen. Das mag bei solchen Spielen auf schlechte Entwicklung / Optimierung / Ports zurück zu führen sein, aber was will man machen, wenn einem diese Spiele gefallen... Das Scar G18 ist schneller als das Blade 18, was nicht nur durch die höhere Leistungsaufnahme zu erklären ist. Einer der Gründe ist die etwas besser taktende CPU, ein weiterer vielleicht der Ram (nicht verglichen). Beim maximalem Leistungs-/Lüfter-Profil (5X dbA) sind dann im gleichen Test ca. 65 W bei beiden dauerhaft möglich. Natürlich liegen die ersten wenigen Minuten bei beiden über 100 W an. Ein so lautes (Hilfe!) Lüfter-Profil ist für mich indiskutabel. Zudem ist die Leistungsaufnahme für meinen Geschmack immer noch zu wenig: FarCry 6 Savegame im CPU-Limit (wenig Load auf der GPU) im maximalen Leistungs-/Lüfter-Modus 10900K (Area 51m R2) bei um die 125 W: 92 fps 13950HX (Blade 18) bei um die 65 W: 110 fps 13980HX (Scar G18) bei um die 65 W: 118 fps 13900K (Mini-ITX-Desktop) bei um die 105 W: 161 fps Die ganzen Zahlen schwanken minimal, ist quasi jeweils ungefähr ein Mittelwert. Es geht ja auch nicht darum, ob es hier und da 1-2 fps weniger oder mehr sind, man sieht überall große Unterschiede. An der Stelle nochmal gesagt: Es geht hier um ein CPU-Limit, die GPU ist jeweils bei weitem nicht ausgelastet. Es spielt also keine Rolle, dass im Mini-ITX-Desktop eine schnellere 4080-Desktop-Karte verbaut ist, die fps-Differenzen kommen alleine durch die CPU-Unterschiede zu Stande. Übrigens werden die CPUs der beiden Laptops, auch im maximalen Leistungs-/Lüfter-Profil, im Dual-Load schon sehr heiß. Das künstliche Limit also z.B. mit ThrottleStop zu umgehen (sofern möglich) würde hier nicht viel bringen. Viel ist halt relativ, müsste man testen und schauen ob einem das reicht. Ich habe auch mal beim Blade die Leistung der GPU deutlich reduziert (weit unter 70 W), dann hat die CPU in FarCry 6 tatsächlich - scheinbar dauerhaft zwischen deutlich bessere 90-110 W geschwankt. Aber ab 70-80 W auf der GPU (und das braucht man ja mindestens schon...) fällt sie dann auf die genannten ca. 65 W ab. Wahrscheinlich irgendwann so oder so. 90-110 W bringen übrigens schon 12X-13X (je nach Laptop) fps bei FarCry 6, aber man wird sie halt nur in den ersten wenigen Minuten zu Gesicht bekommen... (im CPU-Limit in genau diesem Savegame bzw. an der Stelle im Spiel). Wie ich gestern schon gepostet habe, kann das MSI GT77 Titan oder auch das XMG Neo 16 (sicher auch 17) teilweise mehr als 65 W durchschnittlich abführen (laut computerbase.de), und das auch bei Dual-Load. Das Blade 18 und Scar G18 jedoch nicht, wenn die GPU stock oder auch mit UV arbeitet. Und das ist definitiv in manchen Spielen ein riesen Nachteil (heftigeres CPU-Limit hier und da). Ich glaube nicht daran, dass es beim m18 großartig anders sein wird. Und das MSI oder das XMG gefällt mir nicht bzw. lässt so viel Leistungsaufnahme auf der CPU auch nur in (für mich) viel zu lauten Leistungs-/Lüfter-Profilen zu, was ja bekanntermaßen für mich sowieso ein absolutes Ausschlusskriterium ist. Das würde natürlich auch das m18 betreffen. Zur Charakteristik der Lüfter Blade 18: Gar nicht so übel, auch wenn ich es nicht rauschig nennen würde. Rauschig ist es für mich erst, wenn ein Lüfter sich mehr rauschig anhört, als die anderen Geräusche. Ein Area 51m R2 würde ich als rauschig bezeichnen, auch wenn man dort noch was anderes raushört, aber das macht eben keine 50% aus. Richtig rauschig sind meines Erachtens z.B. gewisse Desktop-Lüfter von Noctua Scar G18: Schlechter finde ich. Hat noch weniger mit Rauschen zu tun, irgendwie mehrere unangenehme Geräusche. Zudem heftiges coil-whine, was ich beim Blade 18 nicht bemerkt habe. Es ist lauter wie bei einigen Highend-Desktop-GPUs... Auf die Lautstärke jeweils brauche ich nicht einzugehen - beide viel zu laut. Und leiser betreiben ist wegen zu starker Drosselung, sei es thermisch oder künstlich, nicht vernünftig möglich. Display: Allgemein: 18 Zoll wirken erstmal mega toll und modern (dünner Rand für so ein großes Display). Und man benötigt eigentlich auch kein 27“ mehr auf dem Schreibtisch, man ist ja näher dran. Aber viele von euch nutzen ja eh größere Displays als 27 Zoll auf dem Schreibtisch. Blade 18: Katastrophe, wie @pitha1337 schon schrieb. Flickering vom Feinsten (auch in Windows - das wird sicher noch irgendwann gefixt), dazu sieht man das „Netz“ des Displays. Bei der Auflösung bei 18“ müsste das nicht sein, ist einfach kein gutes Panel. Scar G18: Deutlich besseres / zufriedenstellendes Panel, ohne die Farben beurteilt zu haben. Ich gehe auch nicht auf Glowing und Clouding ein, das haben beide ganz gut gehabt... Anmutung & Qualität Blade 18: Natürlich super gut. Scar G18: In live deutlich wertiger als ich bisher so an Bildern und Videos gesehen habe. Ich habe es aber auch bisher nur kurz mit Tageslicht gesehen. Meine aber auch die Oberflächen und das wenig knarrt oder sowas. Sollte man sich aber auf jeden Fall live anschauen, wenn der Rest passt / es einen interessiert Auf Tastatur, Design, Sound, Webcam, Akkulaufzeit usw. gehe ich jetzt nicht ein. Wenn ihr Fragen habt, schießt los. Dann noch für @captn.ko Undervolting @ CPU: Hab wirklich keinen Nerv das noch zu testen, sorry, zumindest nicht mehr heute. Ich schicke es aber erst Montag oder so zurück, insofern ist noch Zeit. Wie im Artikel von gestern steht, geht beim Scar G18 nur 30 mV übers Bios, beim Blade sicher nicht mehr. Und selbst wenn, die CPU hat andere Probleme - auch mit UV… PL-Reduktion @ GPU: Ist bei beiden über z.B. Afterburner möglich, im Gegensatz zu älteren Ampere-/Turning-Laptops. Noch besser - vorallem für Teillast - ist natürlich die Reduktion der Maximalspannung (UV) über z.B. den Afterburner Curve Editor (was natürlich auch wie immer funktioniert). Computerbase hatte aber mit der PL-Reduktion über Afterburner teilweise Probleme, so dass sich nicht alle Spiele daran gehalten haben. Das habe ich jetzt nicht getestet. Fazit Wie ich hier geschrieben hatte, benötige ich (nun definitiv glücklicherweise) nicht mehr unbedingt ein Gaming-Laptop, und werde mein Mini-ITX-Desktop behalten bzw. einen Zweiten für meine Frau bauen (welcher das Area 51m R2 Laptop ersetzt. Für mobile Zwecke bzw. Mitnahme Urlaube / Hotels, wo wir nicht zocken, haben wir ein 16" Macbook Pro). Nach diesem Test sind im Prinzip alle Gaming-Laptops - unabhängig vom Lüfter-Profil - nicht für mich (als Haupt-Spiele-PC) zu gebrauchen. Ein Area 51m (R2) durfte noch im Silent-/Balanced-Profil ins CPU-Temperatur-Limit laufen (und das entsprechende Kühlsystem hierzu war vorhanden!), das hätte man wenigstens wieder so machen können, anstatt in leisen und mittleren Lüfter-Profilen künstliche Leistungsaufnahme(TDP)-Limits zu setzen. Schade, aber schon seit Jahren bei allen Herstellern und Modellen die ich kenne Normalität. Aber manche Modelle würden auch wegen schlechtem Kühlsystem nicht mehr Leistungsaufnahme im entsprechenden Lüfter-Profil schaffen, teilweise macht es also Sinn... außerdem liegen so nicht immer 95-100 Grad an, was den Käufer beruhigt. Im Vergleich zum 13900K im Desktop ist die mobile Variante - unabhängig der Leistungsaufnahme - deutlich langsamer wie man sieht. Aber das war ja schon immer so und wird wohl auch so bleiben. Das einzige was wirklich toll ist, ist natürlich die Effizienz bzw. die Perfomance der CPUs bei nur 45-65 W. Aber wenn man den Desktop-13900K auf 45-65 W reduzieren würde, wäre das ähnlich. Ich glaube man muss abschließend einfach festhalten und akzeptieren, dass eine hohe dauerhafte (PL1) Leistungsaufnahme von z.B. um die 100 W auf der mobilen CPU bei gleichzeitiger GPU-Load - wenn überhaupt (bei vielen Gaming-Laptops schon mal nicht) - nur mit sehr lautem Leistungs-/Lüfter-Profil möglich ist, was für mich absolut nicht in frage kommt. Es müsste sich vorher für mich also grundlegend das Kühlsystem ändern und/oder die Chips dürften nicht mehr so viel Leistungsaufnahme benötigen. Vorher kann wohl kein Gaming-Laptop mehr für mich in frage kommen. Eine absolute Ausnahme war eigentlich das Area 51m (R2). Möglicherweise auch das Clevo X170KM-G/XMG Ultra 17 (hatte ich nie getestet und wird wie das Area 51m nicht mehr mit aktueller Gen versorgt). Im Grunde hat sich also mit der neuen Gaming-Laptop-Generation jetzt gar nichts geändert. Die 18 Zoll Gaming-Laptops sind in allem etwas besser, aber eben halt auch nicht mehr. edit: Drei Hinweise unter den fps-Werten (FarCry 6 Test) hinzugefügt.
  20. Möglich, je nach vorhandener Kühlleistung halt. Melde mich heute Abend wieder.
  21. Das ist eine wirklich gute GPU-Temperatur, vor allem für ein 16" Modell. Da ist also ordentlich Spielraum die Lüfter runter zu drehen. Allerdings wird in einem geringeren Leistungs-/Lüfter-Profil mindestens die CPU, wahrscheinlich auch die GPU, in der Leistungsaufnahme beschränkt. Und das ist eben genau das Problem: Volle Leistung gibt es nur in lauten Profilen, obwohl temperaturtechnisch (je nach Modell) Reserve aufgrund guter Temperaturen vorhanden ist. Schade. Und das Haupt-Problem bleibt wie gesagt die reduzierte Leistungsaufnahme der CPU, sobald die GPU arbeitet ("Dual-Load"). CPU-lastige Spiele performen dann deutlich schlechter im CPU-Limit, welches vor allem bei aktuellen modernen Spielen wie z.B. Hogwarts Legacy immer wieder anzutreffen ist. Wenn man mit 30 oder maximal 60 fps spielt, ist das natürlich weniger ein Problem, klar. Das Blade 18 ist da, das Scar G18 kommt jetzt in Kürze. Testen kann ich erst heute Abend, mir ist was dazwischen gekommen.
  22. Ja... Beim MSI GT77 Titan und XMG Neo 16 sieht es wohl etwas besser aus (Durchschnitt teilweise höher als 65 W, je nach GPU-Load halt wohl eben auch): Quelle: https://www.computerbase.de/2023-02/intel-core-i9-13950hx-i7-13700hx-test/#abschnitt_leistung_in_spielen:~:text=Spiel-,Verbrauch (W%2C avg/max),-Takt (MHz%2C avg Aber erstens auch nicht so sehr viel mehr und zweitens war das eines der lautesten oder das lauteste Lüfter-Profil. Das Scar G18, sicher auch das Blade 18 und wahrscheinlich auch das m18 schneiden wohl schlechter ab.
  23. Zu der 4090 (und auch 4080) inkl. gesenkte Powerlimits gibt es ausführliche Infos z.B. hier und hier, zumindest vom GT77 Titan, was aber ähnlich abliefert (vor allem zum Scar G18). Aber ich werde sicher auch noch hierzu was testen und schreiben können. UV @ CPU werde ich auf jeden Fall testen, japp. Viel interessanter finde ich das CPU-Limit (was kaum irgendwo behandelt wird), da man bei vielen Spielen mit älteren CPUs (3-4 Jahre alte Top-CPUs/i9) schon teilweise nicht mal mehr stabile 60 fps, geschweige denn mehr, halten kann, auch wenn man zugegebenermaßen dafür eine schlechte Programmierung / Optimierung / einen schlechten Port verantwortlich machen kann. Aber ist halt so. Mit aktuellen Intel-CPUs kann man hingegen, oftmals deutlich mehr als 60 fps halten (riesen Sprung zu 9. - 11. Gen), sofern die CPU nicht zu stark an die Leine genommen wird (künstliche oder thermische Reduktion der Leistungsaufnahme). Noch interessanter wird es meiner Meinung nach, wenn man nicht die super lauten nervigen 5X dba Profile nutzen möchte, sondern einen einigermaßen erträglichen 4X dbA Modus, wie z.B. "Balanced". Ich wette, dass hier bereits ein oder alle Hersteller/Modelle die CPU in der Leistungsaufnahme beschränken werden. Und falls nicht, wird der Balanced-Mode zu laut sein. Eine beschränkte CPU verliert teilweise massiv fps, und min-fps / gute frametimes, sowieso. Dass es anders sein kann, zeigt das Area 51m (R2), was nicht künstlich reduziert, sondern einen cpu-seitig in die thermische Drosselung laufen lässt. Aber künstliche Limits in niedrigen und mittleren Profilen sind seit Jahren überall Standard, teilweise machen sie auch keinen Unterschied, weil die Kühlung in dem Moment eh nicht für mehr reichen würde. Ein GPU-Limit hingegen kann man schnell ausbügeln, indem man Details reduziert oder die DLSS/FSR-Stufe reduziert. Bin gespannt. Melde mich morgen. edit: Hab gerade folgende enttäuschende Tabelle vom Scar G18 gefunden. Obs stimmt werde ich sehen. Wäre natürlich enttäuschend, da die CPU bei Dual-Load für meinen Geschmack zu wenig Leistungsaufnahme haben darf. Angeblich maximal 65 W (in einem lauten Profil!). Wenn sich das so morgen bestätigt, ist es noch schlimmer als angenommen. Bei den ganzen YT-Videos hat man ja oft 90-120 W @ CPU beim Gaming gesehen, aber ob die dauerhaft anliegen (PL1), darf bezweifelt werden (möglicherweise wenn überhaupt, wenn man die GPU entsprechend zügelt). Undervolting ist wohl "nur" im Bios möglich, aber nicht mehr als -30 mV. Quelle von allem: https://www.ultrabookreview.com/61998-asus-rog-scar18-review/
  24. 😄 Dann poste bitte konkret was genau und ich schaue mal wann ich das dann machen kann. Zuvor mach ich meine Tests und poste die Ergebnisse.
  25. Wurde bereits an UPS übergeben, wird wohl morgen kommen. Und das Blade 18 ist heute bereits gekommen. Werde also morgen bereits was zu beiden posten können. Bitte seht mir nach, dass ich keine Benchmarks durchjage (wurde im Netz schon mehrmals gemacht) bzw. eben nur maximal auf euren Wunsch hin. Ich werde erstmal 2 Spiele testen, nicht nur im GPU-Limit, sondern auch im CPU-Limit. Und ich werde schauen, in welchen Profilen die Leistungsaufnahme beschränkt wird und wie viel. Und natürlich werde ich auch auf die Lüfter eingehen. Das werden die zwei Schwerpunkte sein. Ein Vergleich zu meinem 13900K (nicht offen) im Mini-ITX-Desktop und auch zum 10900K im Area 51m R2 werde ich ebenfalls ziehen. Die gleichen Tests laufen also auch dort bzw. dort habe ich sie schon durchgeführt.
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.