Zum Inhalt springen

captn.ko

Mitglied
  • Gesamte Inhalte

    4.590
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    295

Alle Inhalte von captn.ko

  1. Wird sie nicht können und ist völlig OK. Es weiß doch mittlerweile das die 4090m eher im Bereich 4070ti/ 4080 wildern wird.👍
  2. Na hoffen wir das das m18 vor dem 4.2 bestellbar ist😂
  3. Ist doch gut wenn es so funktioniert👍 Hab bei meinem 21:10 und 16:9 halt beobachtet das das Bild in der Höhe gleich ist aber der 21:10 sehr viel mehr in der Breite anzeigt. Müsste aber eventuell noch mal vergleichen ob der 21:10 nicht doch auch einen Hauch mehr in der Höhe anzeigt. Muss sich aber zeigen ob das mittlerweile bei allen spielen funktioniert.
  4. Ist denke ich am Ende eher ne Gewöhnungssache. Am meisten stört wohl das man bei Filmen und Serien einen schwarzen Rand oben und unten hat weil diese Medien in 16:9 kommen. Das man bei Spielen etwas Breite verliert, sprich etwas FOV ist auch ein Punkt aber wohl nicht allzu schlimm. Spiele machen das Sichtfeld in der Regel an der Höhe Fest. Das heißt du siehst bei beiden Monitoren das gleiche in der Höhe aber bei 16:9 mehr in der Breite. Mittlerweile sollten zwar die meisten Spiele 16:10 unterstützen aber wenn das mal nicht der Fall ist wird das Bild gestreckt, was dann auch blöd aussieht,
  5. Das musst du selbst entscheiden nach deinen Anforderungen. Brauchst du 4 Ram Slots? Brauchst du 4 SSD Slots? Brauchst du eine mechanische Tastatur? Wenn nur eine Antwort darauf JA lautet ist die Entscheidung gegen Asus klar. Wenn die Antwort NEIN lautet sind das doch nur theoretische Nachteile die für dich keine Relevanz haben. Dann entscheide nach Optik und Display. Wenn du kein 16:10 magst und bereits getestet hast dann ist die Sache doch klar. Das ist doch eine Entscheidung die du nach deinen Vorlieben treffen musst anhand der Specs. Keiner kennt die Geräte und kann dir sagen welches welche Macken hat. Ich würde keins der beiden kaufen. Das MSI wegen der Optik, dem 4K Display und fehlendem Vos und das Asus wegen der Optik und fehlendem Vos. Ist aber meine Meinung und wird dir wenig nützen ^^
  6. da dort jeder Staat andere Steuersätze hat kommen die mMn noch on Top auf den Preis da.
  7. Bei mir warens 3300€ mit 144Hz Gsync, 9900K, 2080, 8Gb Ram und 256er SSD. Heute kommt man auf solche Preise nicht mehr weil die Top Konfig immer mit RAM und SSD Upgrades einher geht. Schade ^^
  8. Beim A51m haben sie den Preis erst nach ein paar Tagen nach oben korrigiert und beim m17r4 konnte man 2 Gutscheine kombinieren, was aber nur paar Stunden funktioniert hat. An viel mehr kann ich mich nicht erinnern. Sonst nur die üblichen 10% über Corporate Benefits oder mal 15% über studi rabatt. Deutlich über 3000 Euro lag man mit Top CPU/GPU aber sogut wie immer.
  9. Da ticke ich anders 😅 meist laufen die Dinger nur für nen kurzen Funktionstest bevor sie auseinander genommen werden und LM Repaste bekommen. Beim X17 hab ich drauf verzichtet weil andere Nutzer bereits getestet haben daß es nichts bringt weil die Kühlung eh am Limit war.
  10. Ich schaue auch nicht unbedingt auf den letzten Euro beim Hobby und bezahle auch einen Premium Aufschlag bei AW (gerechtfertigt oder nicht) aber komplett abzocken lasse ich mich dann doch nicht. Mehrere Tausend Euro Aufpreis für RAM und SSD wenn mich die Upgrades Aftermarket ein paar hundert kosten zahle ich dann doch nicht 😅 Beim m17 kostet das Upgrade von 512gb auf 4tb 1000€. Einfach nein.
  11. Die Zeit zwischen Vorstellung und Release ist immer die schlimmste 😂 Keine neuen Infos und jeder sitzt auf glühenden Kohlen. Bin gespannt wie die Konfigurationsmöglichkeiten beim M18 aussehen werden. Wird Dell uns bei 13989HX und 4090 mit Zwangsupgrades bei RAM und SSD beglücken? Meint ihr der m18 wird signifikant teurer als ein voller X17R2?
  12. Ist mit der 2080s im A51mR2. Mir ging es darum dir zu zeigen welche Verbesserungen möglich sind. Die Absoluten Temperaturen sind so nicht übertragbar. Settings musst du selber herausfinden im Undervolting. Die sind so nicht übertragbar. Nicht mal auf eine andere 2080s geschweige denn einen komplett anderen chip.
  13. Wenns dich intressiert hab ich dir mal Screenshots angehängt wie sich Undervolting und OC bei der GPU im A51m auswirkt. CP2077, Settings RT Ultra, 1080p, Lüfter auf Maximum für die Vergleichbarkeit Grafikkarte Serie bei 158w und 66°C Grafikkarte Untervoltet bei 1755Mhz mit Memory OC braucht 109W und wird 58°C warm Insgesamt deutlich kühler und deutlich weniger Verbrauch bei gleicher Leistung. Durch das Untervolten kann man beim A51m fast jedes Spiel im Lüfterprofil silent spielen
  14. @Svencore Untervolten ist das Zauberwort. Gibts hier auch nen Guide dazu. Gleiche Leistung bei weniger Verbrauch und kühlerer Grafikkarte. Geht aber leider nicht mit AWCC
  15. Nur Bekloppte hier🤣. Das mag ich so an der Community 😁
  16. Schon die Vorstellung die Leistung meines Desktops in einem Notebook zu haben, alle Daten immer dabei, keine zwei Systeme mehr pflegen zu müssen reizt mich. Der 13980HX wischt ja in jeder Disziplin mit meinem 5900x den Boden auf 😅 Und es ist einfach auch ne kleine Sucht / Hobby die neue Technik mal selbst zu testen und in den Fingern zu haben und den Benchmark Parcours abzutesten. Und neue Alienware Notebooks riechen so gut 🤣
  17. Wenn ich mich richtig erinnere gabs für die 980m ein OC VBios von SVL7. Ich hatte das bei meinem Alienware 17 drauf, kann dir aber nicht mehr sagen ob R2 oder R3. Ob das alles mit aktuellen Treibern noch geht weiß ich auch nicht. edit: Nvidia GTX 980m - 'OC edition' rev0.zip - Maxwell VBIOS - Tech|Inferno Forums (techinferno.com) sollte das sein. Achtung: Vbios Flash, vor allem mit gemoddeten kann immer zu Problemen bis hin zum Totalausfall führen. Stürzt es wegen dem GPU OC ab? Auch wenn du das OC Level im Bios aus machst? Wenn mit Afterburner der Takt übernommen wird und das Spiel trotzdem abschmiert kann es auch sein das deine GPU einfach nicht mehr schafft. Dann bringt auch ein Vbios nichts.
  18. wir werden es sehen. Lieber wäre es mir trotzdem das die GPU immer und unabhängig von der CPU ihre 175w nutzen darf und das auch die CPU immer und unabhängig von der GPU ihr volles Powerlimit nutzen darf. Ich mag so dynamischen Mist einfach nicht. Das dient nur als Ausrede für zu schwache Kühlung. Nichts anderes. Sicher wird das m18 mit 250w gut performen, das steht außer Frage.
  19. Genau das. Ja das finde ich auch dämlich. Ein Chip, eine TGP, fertig. Eine 80w 4080 ist wahrscheinlich langsamer als eine 140w 4070. Und das nur damit man den langsamen Highend Chip teurer verkaufen kann. einfach wieder das ,,m,, dahinter und fertig. da sie im X17 meist auf 130w gedrosselt läuft ist sie da nicht viel schneller als die 2080m im A51m. Braucht aber nur etwas mehr als die Hälfte Strom dabei. Ich freu mich auf das m18 und langsam kommt auch ,,Haben wollen,, auf.
  20. Von dem Gedanken Desktop Bezeichnung = Mobile müssen wir uns verabschieben bzw war das eh nur paar Jahre während der 1000er und 2000er Serie gültig. Davor hatte NV immer das ,,m,, Kürzel dahinter, Und jetzt steht dahinter ,,Laptop GPU,, Die Nummerierung gibt doch nur ein Leistungsniveau der jeweiligen Plattform an. XX60 - Entry, XX70-Peformance, XX80- Highend, XX90-Enthusiast. So passt es auch fürs Notebook. XX90 Laptop GPU Sagt schlicht aus: das ist das schnellste was es für die Laptop Plattform gibt, ein Produkt für Enthusiasten. Nicht mehr und nicht weniger. Das wir den AD102 Chip nicht im Notebook sehen war doch von vornherein klar. Aber das wir den vollen 4080 Chip bekommen ist doch mega. 3090 Performance im Notebook... aber alle heulen das der Name ein anderer sein sollte. Früher hatte die Top Tier Mobile GPU immer den 104er Chip. Heute haben wir den Highend 103er Chip.
  21. 65w für die CPU bei Dual Load. Das ist genau der bullshit den ich mit faulen Kompromiss meinte. Gott ich hoffe man kann das beim M18 wieder mit TS aushebeln.
  22. Alienware ja genau so. Hoffentlich nur Copy Paste Fehler vom letztjährigen Spec Sheet. 720p cam steht bei AW ja auch noch drin.
  23. Ich hatte seit der 8800GTX immer MGPU Systeme. 8800GTX, 280 GTX und 480GTX 3 Way SLI, und 680, 780ti, 980ti, 1080 und 1080ti, 880m, 680m jeweils normales SLI. 3 Way war immer ne Spielerei. Wenn's gut skaliert hat war's geil ansonsten ne Ruckelorgie. Normales SLI war aber wirklich gut nutzbar, wenn auch bei vielen Spielen mit Einstellerei der SLI Bits verbunden. War halt was für Enthusiasten und Spielkinder. Ich habs geliebt. Microruckler gab es definitiv auch bis zuletzt. Kamen aber extrem aufs Spiel an. Gab Spiele da habe ich es nicht zufriedenstellend hinbekommen und viele die liefen out of the Box perfekt. Wichtig waren einfach stabile frames mit limiter. Dann lief es am besten. In der Zeit mit 480GTX und 680GTX SLI hat es gefühlt am besten funktioniert und vieles lief direkt. Ab 780ti musste ich schon deutlich häufiger basteln und mit dem 1080ti SLI lief fast nichts mehr vom Start weg mit beiden GPUs. Nicht Mal Battlefield 5.
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.