Rangliste
Beliebte Inhalte
Inhalte mit der höchsten Reputation seit 28.02.2025 in allen Bereichen anzeigen
-
Hi, also erstmal wünsche ich dir viel Kraft, dass das alles ohne weitere Probleme klappt und du zufrieden gestellt wirst. Aber ich muss schon sagen, den Laden so dermaßen schlecht zu reden und zu boykottieren finde ich schon etwas daneben. JA, es ist sehr ärgerlich, dass kein Techniker rausgeschickt wurde. Aber es wurde ja trotzdem direkt von Anfang an angeboten, dass Gerät einzuschicken. Natürlich sollte man Premium-Support erhalten, wenn man dafür viel Geld bezahlt. Ich kann bislang nur einen Reparaturauftrag bei Alienware/Dell verzeichnen, und das klappte reibungslos. Vielleicht ist es eine Verkettung von vielen blöden Zusammenhängen und es ist auch richtig diese Erfahrungen im Netz mit einer Community zu teilen... ob man jetzt die ganze Firma/Marke verteufeln muss, vor allem wenn man ja jahrelang IMMER sehr zufrieden war... weiß ich nicht. Wie gesagt. Ich hoffe es klappt am Ende so, wie es sein sollte. LG3 Punkte
-
Ich kann mich @pitha1337 im Grunde nur anschließen. @BerlinRockz Wenn ich das richtig verstanden habe, hattest Du ja vor etwa 3 Wochen den Vor-Ort-Service für den Austausch der Tastatur in Anspruch genommen. Dann, vor etwa 5 Tagen dann erneut Kontaktaufnahme mit Dell Support wegen der geschilderten Problemsituation. Während seitens Dell nur vorgeschlagen wird, das Gerät nunmehr einzuschicken ( sicher Abholung durch UPS), möchtest Du auf der Vor-Ort-Reparatur beharren. Ich hätte mir an Deiner Stelle auch gewünscht, dass wieder vor Ort repariert werden kann. Andererseits ist es für mich ehrlich gesagt nachvollziehbar, dass Dell das Gerät nun in der Werkstatt überprüfen will, wenn bei einem 5 Monate alten Gerät nach einem „Brand“, wie bei Dir offensichtlich, mehr als nur ein Teil beschädigt worden ist. Von der Rußverteilung bis in die Lüfter hinein mal abgesehen, ist ja nicht auszuschließen, dass nicht noch mehr Schaden entstanden ist. Gleichzeitig hat man eher dort die Möglichkeit auch den tatsächlichen Grund für den Schaden im Systemverbund zu analysieren. Das ist nochmal was anderes als Einzelteile zu testen. Schließlich soll die Lösung ja langfristig währen. Und ein Vor-Ort-Techniker tauscht in der Regel wirklich nur die Teile aus. Meiner Meinung nach spricht in Deinem Fall Vieles für eine ziemlich misslungene Kommunikation zwischen Dir und dem Dell Support. Andernfalls kann ich mir wirklich nicht erklären wie es zu einer derartigen Eskalation innerhalb von nur wenigen Tagen kommen kann. Dein „Fall“ ist ja noch ganz frisch und ich kann Dir aufgrund meiner Erfahrungen mit dem Dell Support nur raten, grundsätzlich immer freundlich zu kooperieren. In Deinem Fall würde ich deshalb Dell’s Ermessensspielraum, wie ein Schaden am besten beurteilt und behoben werden kann, respektieren, dh: Daten sichern, am besten anrufen, schnellstmöglich einen Abholtermin vereinbaren, damit nicht unnötig viel Zeit verschwendet wird. Je nach Ergebnis bekämest entweder Dein Gerät im funktionsfähigen Zustand zurück oder gar ein Ersatzgerät oder ein Refund. Der Zeitablauf würde so oder so von der Verfügbarkeit der benötigten Austauschkomponenten abhängen. Sofern von „refurbished“ Teilen die Rede ist, sind diese meines Wissens nicht abgenutzt, sondern auf Ihre Funktionsfähigkeit hin separat überprüft; z.T. aus nagelneuen Geräten der Baureihe, die aus verschiedensten Gründen (zB innerhalb von 14 Tagen) zurück gegangen sind. Generell können ab Fabrik eingebaute Komponenten auch fehlerhaft sein und dies sich erst im Nachhinein herausstellen. Sollten im Anschluß an eine Reparatur, sofern Du Dell überhaupt die Gelegenheit dazu gibst, etwa immer noch Hardware-Probleme auftauchen, ist es m.E. sehr unwahrscheinlich, dass man einem Wunsch nach Austausch oder Refund, nicht entsprechen würde. Wie gesagt, meine Empfehlung beruht auf Basis meiner jahrelangen positiven Erfahrungen mit dem Dell Support, die immer (!) ein Entgegenkommen gezeigt hat. Ich hoffe daher für Dich, dass sich eine weitergehende Eskalation vermeiden lässt und Du so letztlich zu einer vergleichsweise schnelleren Lösung gelangen kannst.3 Punkte
-
Erstmal fertig für heute 🥴😴 Benchmarks bestanden, allerdings braucht die Graka wohl neue WLP und Pad's. 90 Grad Peak und sonst 87 Grad sind mir zuviel. Ist ne Gigabyte RTX 2080 Super. Ach und n bischen OC muss auch noch drin sein am System 👋😏 Jetzt aber erstmal Feierabend. Huch das eine Foto etwas verwischt 🙈3 Punkte
-
Mein Projekt restaurierung/Upgrade eines Area 51 R2 läuft bestens, er ist nach 4 Jahren im Keller erwacht heute das erste mal. Vorher "alles" komplett zerlegt, gereinigt, neuen RAM, neue Graka, neue SSD'S,WLP usw. läuft bis jetzt wie geschmiert die Kiste 👍 🙃😊😜Jetzt dabei am Win11 einrichten,Treiber usw.3 Punkte
-
@kroenen04: Solltest du unbedingt machen, ja. Waren beim Monitor Anschluss-Kabel dabei, z.B. ein HDMI-Kabel und/oder ein DP-Kabel? Diese solltest du nach Möglichkeit verwenden und kein anderes, da dann zu 100% die vollumfängliche Unterstützung des Monitors sichergestellt ist, vorausgesetzt es wurde PC-seitig korrekt angeschlossen, nach Möglichkeit direkt an der Grafikkarte. Auf ein zusätzliches Kabel, das als Verlängerung dient, solltest du verzichten, das kann zu Problemen führen. Dein Monitor unterstützt HDMI 2.0 und DP 1.4, deine 4080 HDMI 2.1. Und hier könnte evtl. schon das Problem liegen, bin mir da aber nicht 100% sicher, da manche Aussagen gegensätzlich sind. Es kann sein, dass bei deiner WQHD-Auflösung und HDMI 2.0 gar nicht 144 Bilder pro Sekunde übertragen werden können und daher die Synchronisations-Vorgänge, die V-Sync ausführen möchte, gar nicht funktionieren können. Hier bin ich mir aber wie gesagt nicht zu 100% sicher, evtl. kann hier jemand anderes etwas zu sagen. Daher würde ich an deiner Stelle, sofern das für dich nicht mit großem Aufwand und/oder Kosten verbunden ist, auf DP 1.4 wechseln. HDMI erscheint mir von der maximalen Leistung für deine Situation zu grenzwertig. Nachtrag : So, mein Verdacht hat sich nun bewahrheitet, HDMI 2.0 reicht für deine Situation nicht aus !! Auf der BenQ-Webseite gibt es eine Tabelle, ich verlinke dich mal dorthin, dann kannst du es selber sehen : Wann brauche ich wirklich HDMI 2.1 oder reicht HDMI 2.0 aus? | BenQ Deutschland Bei deiner Auflösung (3440x1440) benötigst du für 144Hz min. HDMI 2.1 . Das unterstützt zwar deine 4080, dein Monitor jedoch leider nicht . Von daher ist es jetzt natürlich klar, warum die Aktivierung von V-Sync nicht das bewirken kann, was es eigentlich soll, da die Basis-Voraussetzungen dafür bei dir nicht gegeben sind. Nachtrag 2 : Ich sehe gerade, du hattest das Problem bereits selber erkannt bzw. als Ursache in Betracht gezogen. Asche auf mein Haupt, das kommt davon wenn man nicht alles sorgfältig liest . Nachtrag 3 : Ganz unabhängig von deinem V-Sync-Problem : Freesync funktioniert offensichtlich auch mit NVidia-Karten . Dazu muss natürlich ebenfalls die Basis stimmen, was aktuell ja bei dir nicht der Fall ist. Daher solltest du wirklich bei dir von HDMI 2.0 zu DP 1.4 wechseln. Dann sollten sowohl V-Sync, als auch FreeSync bei dir funktionieren. Ist bei dir ein niedriger Input Lag Thema oder von Wichtigkeit, würde ich FreeSync nutzen. Stört dich ein Input Lag nicht und du möchtest deine HW nicht bis zum Anschlag ausreizen(Temperaturen), nimm besser V-Sync. Gruß Jörg3 Punkte
-
@2f4me das findest du im Service Handbuch in deinem Bereich bei dell im Support Bereich. Schau Mal hier Klick2 Punkte
-
@Sk0b0ld: Im Grunde bildet sich der "Mehrwert" dieses Systems nur für Liebhaber dieser Marke und nicht über dessen HW bzw. Komponenten . Das stimmt, schon klar. Ja, deine Meinung kenne ich, und du liegst ja auch nicht falsch damit. Auch wenn ich persönlich den Area 51 nicht übel finde, werde/würde ich ihn aktuell zu 90% nicht kaufen. Also bitte nicht denken ich bin der absolute Fanboy, denn das bin ich ganz sicher nicht . Dennoch finde ich das Gerät als solches schon interessant und optisch ansprechend bzw. wertig, auch wenn es nicht das Beste vom Besten darstellt was die HW-Kompos angeht. AW sieht dieses System als reine Daddel-Kiste, und eben das finde ich sehr schade wie ich ja bereits schrieb. Ich möchte aber keinen reinen Gaming-PC, sondern ein ernstzunehmendes System mit tollen Konfi-Möglichkeiten, Qualitäts-HW, so wie auch du sie bevorzugst, mit dem man auch sehr gut spielen kann, wenn man es denn möchte. Darum ist für mich der XMG Studio X, der laut XMG weiterhin angeboten wird, zumindest im Moment mein Favourit. Gruß Jörg2 Punkte
-
Wenn dir die Karte noch was wert ist, lass es professionell instand setzen. https://krisfix.de/ Hat auch etliche Videos bei YT online. Alternativ sonst zur Deko umbauen, bevor unnötig Geld in alte Hardware verbrennt.2 Punkte
-
@David1984: Ist denn wirklich sichergestellt, dass die Graka defekt ist ?? Ein Flackern des Bildschirmes kann auch während der Installation des Graka-Treibers auftreten. Zusätzlich hat ePSA keinen Fehler festgestellt. Daher würde ich evtl. mit dem Austausch der Graka warten und ggf. erstmal versuchen, für günstiges Geld einen Akku zu besorgen und diesen dann einzubauen. Laut meinem Kenntnisstand gibt es Situationen, wo trotz Netzspannung dennoch zusätzlich etwas Strom aus dem Akku benötigt wird. Da dieser aber bei dir nicht vorhanden ist, könnte hier der Hund begraben sein. Letztendlich musst du selber entscheiden was du tust, ich würde erstmal mich auf den fehlenden Akku konzentrieren bevor ich auf Verdacht anfange, meine Graka rauszureißen und gegen eine andere zu tauschen. Das würde ich erst dann machen, wenn zu 100% feststeht, dass diese auch wirklich defekt ist. Gruß Jörg2 Punkte
-
2 Punkte
-
Ja dann hast du wohl die falsche Festplatte auswählt beim installieren.zu empfehlen ist alles was du nutzt z.b Windows, Spiele, Programme auf der SSD zu installieren und die HDD als Datengrab für Fotos, Videos oder was auch immer Hatte mich schon gewundert 😂2 Punkte
-
Nimm Crystal Disk Info. Das mit dem Pad anpassen unter der SSD hatte ich mehrfach in meinen Post erwähnt da du ja das Bodenblech noch hast und so die Höhe verändert hast von der SSD.2 Punkte
-
Ist ja eigentlich selbsterklärend, das dicke graue Pad kommt da wieder hin(!) , gleicht auch den Höhenunterschied aus, ich habe es so eingebaut, es ist zudem flexibel und den Kühler oben drauf.Wärmeleitpad in den Kühler und das andere oben auf die SSD. Jo, ist so. HDR einfach deaktivieren, ich zumindest brauche den Kram eh nicht, macht nur ärger, soll angeblich mit den letzten Updates gefixt sein.Die Kabel unterscheiden sich nicht an den Anschlüssen sondern um die Abschirmung "im" und "ums" Kabel, je günstiger desto weniger Abschirmung. Das was dem Monitor beilag wäre auch meine erste Wahl gewesen.2 Punkte
-
@kroenen04: Separate Software ist auch nicht erforderlich. Diese Einstellungsmöglichkeiten sind Bestandteil des NVidia-Treiberpaketes. MSi Afterburner weiß ich nicht, Fraps wird ja schon länger gar nicht mehr weiterentwickelt, von daher wundert mich das nicht, obwohl ich das nicht verstehe, denn Fraps nutze ich sehr gerne, ich finde das Tool gut, funktioniert nur leider nicht bei allen Spielen. Du selbst vielleicht nicht, aber es gibt definitiv globale Grundeinstellungen, die anpassbar sind. Aber nun gut, lassen wir mal stehen dass du nichts selber angepasst hast, ok . Grundsätzlich immer das Beste . "Volle Pulle" müsste man dann genauer definieren, aber darum soll es jetzt erstmal nicht gehen. Du sagst, dass du V-Sync nutzt und ca. 100 FPS in dem besagten Spiel erreichst. Da du laut deiner Aussage nirgendwo die FPS festgelegt und/oder limitiert hast und auch sonst keine Einstellungen getroffen hast(ausser das im CC), stellen aus meiner Sicht diese ca. 100 FPS zunächst die maximal mögliche Leistung deines Systems dar, mehr geht nicht. Du hast V-Sync aktiviert, dein Monitor hat eine max. Bildwiederholfrequenz von 144 Hz, im Spiel werden ca. 100 FPS erreicht. Worauf möchte ich nun hinaus? Im Grunde hat bei dir die Aktivierung von V-Sync keinerlei Vorteil und bringt nicht den eigentlich gewünschten Effekt der stotterfreien und flüssigen Bilddarstellung. Vielleicht testest du das einfach mal selber, indem du im Spiel V-Sync deaktivierst. Eigentlich dürfte sich dadurch absolut nichts ändern. Warum ist das so? Damit V-Sync funktioniert, müssen die im Spiel erreichten FPS mindestens der verwendeten Bildwiederholfrequenz des genutzten Displays bzw. Monitors entsprechen oder diese übertreffen. In deinem Fall ist es jedoch so, dass dein System nicht mehr wie 100 FPS im genannten Spiel schafft. Es müssten aber, damit V-Sync wirken kann, dauerhaft ohne Einbrüche mindestens 144 FPS sein. Was kannst du nun tun, um doch in den Genuß von V-Sync zu kommen? In den NVidia-Treibereinstellungen kann V-Sync ebenfalls aktiviert werden, man hat dort sogar mehrere Optionen. Eine Option ist die Einstellung "Adaptiv, halbe Aktualisierungsrate". Diese Einstellung führt dazu, dass ein Spiel mit genau der Hälfte an FPS läuft, wie die HZ-Zahl des Monitors ist. In deinem Fall wären das also 144 / 2 = 72 FPS. Diese 72 FPS wirst du auf jeden Fall dauerhaft erreichen, und das wirst du positiv bemerken in der Bilddarstellung. Zusätzlich wird deine Hardware nicht bis zum Anschlag ausgereizt, was sich positiv auf Temperaturen auswirken wird, womit wir wieder bei deinem eigentlichen Thema wären. Einziger Nachteil ist der Input Lag, der mit V-Sync leider einher geht. Für mich war das nie ein Problem, kommt wahrscheinlich aber auch auf das Spiel an. Für CS-Spieler z.B. ist V-Sync daher leider ungünstig, auf professioneller Ebene sogar komplett unbrauchbar. Hier setzen dann halt neuere Technologien wie G-Sync und/oder FreeSync an. Gruß Jörg2 Punkte
-
Für Nvidia war GN's Video natürlich ein Segen, weil man so immer dem "dummen User" die Schuld in die Schuhe schieben konnte. Der Stecker und so wie letztendlich nach und nach verschlechtert wurde (weniger Sicherheitsfeatures), war natürlich keine Fehlkonstruktion. NorthrideFix hat auch nur zufällig weit über 200 dieser Stecker umgelötet (lt. seiner Aussage - Video). Daher wenig verwunderlich, dass Cable-Mod relativ schnell das Handtuch geworfen hat und jedem Käufer des 90° Adapters restlos das Geld erstattet hat. Bei so einer Problematik will keiner die Hand ins Feuer legen (im wahrsten Sinne des Wortes) und die Verantwortung dafür tragen. Ich verstehe auch Nvidia nicht... ein Milliarden-schwerer Konzern, der sich die besten Elektro-Ingenieure der Welt einkaufen kann bzw. vielleicht auch hat, ist nicht in der Lage dieses Problem zu fixen. Und das, obwohl es schon bei der 4090 mit 450w Limit Probleme gab, selbst nach gefühlt 10 Überarbeitungen mit kürzen Sense-Pins, H++, farbigen Steckern usw. Anstatt vielleicht gänzlich über den Stecker und dessen Implementation nachzudenken (kein Load-Balancing, keine Thermal-Abschaltung), wird einfach fröhlich weiter gemacht, PL auf 550-600w angezogen und die Implementation sogar noch weiter verschlechtert (siehe Buildzoid). *kopfschüttel* Was soll schon schiefgehen? Dann ist es halt User-Error und gut is.2 Punkte
-
Danke fuer die verlinkten Videos.Aber auf einem Video musste er den Sticker von der SSD abziehen damit er den Kuehler schliessen konnte.Warum sollte der immer dran bleiben? Heute sind die 64GB Ram von Crucial gekommen...sofort eingebaut...und sie laufen mit voller Leistung wie geschmiert.Super.:-)2 Punkte
-
Also die RGB Beleuchtung der Grafikkarte ist herstellerabhängig, für meine gibt's da ein Tool für ,ähnlich wie MSI Afterburner. Bri Asus heißt das Aura usw. es kann natürlich auch sein das du die Farbe per Software gar nicht ändern kannst, ist sehr wahrscheinlich. Sowas sind immer extra Features, meine GPU ist nicht von Dell, ist eine KFA2. Die SSD Heatsink wird mittels Kühlpad auf die SSD angebracht und mit zwei kleinen Gummibändern fixiert, ist alles im Lieferumfang und die beiliegende Anleitung ist selbsterklärend sonst 😏 Das andere rechts daneben ist das WiFi/Bluetooth Modul, das muss nicht gekühlt werden, da gibt's auch nix fertiges meines Wissens nach, ich habe das bei mir mit schwarzer Folie beklebt.2 Punkte
-
Na klar , hab ich auch gemacht , schau mal bei eBay nach "Icy Box" SSD heatsink. Ganz nebenbei noch 10 Grad weniger, sind ganz brauchbar und sehen gut aus, einfache montage. Klick: https://www.ebay.de/itm/233034104985?mkcid=16&mkevt=1&mkrid=707-127634-2357-0&ssspo=otNyWlJXR3S&sssrc=4429486&ssuid=tDSxiUIeTeu&var=&widget_ver=artemis&media=COPY So sieht's montiert aus: (direkt über der GPU, bei deinem sind die woanders,oben rechts wenn ich nicht irre) Dabei fällt mir gerade auf , ich muss die Graka noch auf Rot stellen 👽🙈😏2 Punkte
-
Ich halte mich bei OEM/ AW Kisten mittlerweile eher zurück. Weicht einfach zu oft vom üblichen Standard ab und möchte nichts falsches sagen/ empfehlen. Zum Thema: Vermutlich Dual Channel, weil bei zwei Sticks man RAM Kanal A und RAM Kanal B nimmt, normalerweise A2 und B2. Das würde auch bei vier RAM Sticks nicht anders sein, Kanal A (A1, A2) und Kanal B (B1, B2). So sieht das üblicherweise aus und wäre die Konfig, wie man die Sticks einsetzen würde: Dual Channel ist es ab dem Moment, wo man RAM Kanal A und B verwendet, also mit 2 oder 4 Sticks. Solche Informationen kannst auch gut in HWinfo64 überprüfen. Im Menü, nicht im Monitoring. Hatte hier vor vielen Jahren mal eine Anleitung geschrieben, da siehst du das auch:2 Punkte
-
Nur mit dem Unterschied, dass man bei Legion-Notebooks auf eine deutlich bessere Alternative wechseln kann. Bei AWCC musst du mit dem leben, was du bekommst. Angesichts der AW Preise ein berechtigter Einwand. Die Lenovo Software (Vantage) funktioniert grundsätzlich, ist nur mit unwichtigem Kram (Werbung für Service-Erweiterung etc.) unnötig aufgebläht. Die Software aus der Community (Legion Toolkit) lässt super anpassen, hat viele nützliche Funktionen und Feature und deckt auch alles ab, was Vantage kann inkl. Treiber-Installation etc. Jedoch mit dem Unterschied, dass der Code "low weight" ist und das System nahezu überhaupt nicht belastet + keine Werbung + kein Tracking oder sonst was. Vergleich: Legion Toolkit ~6,5MB <-> Lenovo Vantage 170MB+ Legion Toolkit 1 Prozess <-> Lenovo Vantage 6+ Prozesse War ja Beta-Tester für Software und bei verschiedenen Projektumsetzungen (Deutsches Sprachset, Lüftersteuerung etc.) beteiligt. Sowas kannst du nur auf die Beine stellen, wenn ein Notebook/ Notebook-Brand beliebt ist und von vielen Leuten gekauft wird. Ähnlich war's auch früher mit AW, wo Mod-BIOSe gab etc. Heute ist die Zielgruppe einfach eine andere. Ist halt der Unterschied, ob ein OEM für Budget X ne Software entwickeln muss oder eine Community sich gegenseitig unterstützt und einen echten Mehrwert für sich und andere schaffen. Die Motivation ist halt eine ganz andere und das spiegelt sich im Ergebnis wider. Bis heute ist Legion Toolkit komplett kostenlos und wird immer noch mit Updates versorgt. Das meiste spielt sich im Discord ab, wo man sich mit den Entwicklern unterhalten kann, Ideen austauschen, was möglich ist - was nicht etc.2 Punkte
-
Ich denke dieses Jahr macht XMG (miniLED AMD x3D) oder Razer dss rennen2 Punkte
-
2 Punkte
-
Ich beziehe mich mal auf Video von Hardwaredealz - Mainboard = kein Standard - Netzteil inkl. Stecker = Kein Standard - Kühler-Mount = kein Standard - Lüfter-Mount = Standard (unsicher) - RGB-Beleuchtung = kein Standard - Keine Kühlkörper auf SSD, RAM oder VRM - Nur zwei SSD Slots - Keine Lüfter im Top - BIOS nur peinlich Dazu dann der Preis... Auch mit AW Logo ist und bleibt es ne OEM Kiste, die in vielen Punkten signifikant schlechter ist, als irgendein Standard PC. Somit müssten AW Desktops schon mal gänzlich uninteressant sein. Hast ja den Vergleich. Ändert ja nichts an meiner Aussage. 30-90 Minuten YT gucken. Dann biste wieder auf Höhe der Zeit. So wie ich und jeder andere irgendwann bei Null angefangen hat, nur dass man es heute deutlich einfacher hat. Zum einen sind die Systeme heute "idiotensicherer", sprich deutlich schwieriger kaputt zu bekommen und zum anderen ist die Informationsdichte wesentlich größer. Zu fast jeder Frage lassen sich zig Foreneinträge und Videos finden. Aber wie gesagt, wenn man darauf keine Lust hat, lässt man sich die Kiste halt bauen. Was ich nicht wirklich verstehen kann, sind irgendwelche Umbau-/ Tuning- oder Upgrade-Maßnahmen bei den AW-/OEM Desktop-Kisten. Man kauft die Dinger ja primär, weil man nicht dran rumfummeln möchte. Wie es dann mit Garantie/ Premium Service aussieht, ist auch bedenklich, wenn da keine Dell-verifizierte Hardware drin ist (Anspielung auf den Area51, wo alles plötzlich besser sein soll). Aus geschäftlicher Sicht sowieso fraglich, ob man als Hersteller will, dass dort Non-Dell Parts reinpassen sollen.2 Punkte
-
@Svencore @Jörg Stimmt natürlich. Asche über mein Haupt. Ich hatte es auch schon mal nachgeguckt, hatte ich nur nicht mehr so auf dem Schirm. Frank Azor war zumindest der letzte CEO, der mMn noch den echten "AW Gedanken" hatte. So war beispielsweise der Area 51m wirklich noch auf Augenhöhe mit den Desktops, auch wenn die RAM Geschichte ziemlich Anti-Consumer war. Im Desktop-Bereich wurde AW schon sehr lange abgehängt. Das Ding ist einfach, dass es ja grundsätzlich alles möglich wäre, also einen richtig gescheiten AW-Desktop aufn Markt zu schmeißen, aber Dell interessiert nur Gewinn-Maximierung. Man hätte ja auch Partnerschaften mit bewährten Marken BeQuiet, Noctua, Arctic und Co. eingehen können. Dazu dann die ganzen proprietären Stromanschlüsse, Mainboards, Cases usw. Halt wenig Standards, die das Upgraden massiv erschweren, wenn nicht gänzlich unmöglich machen. Ich bau häufig Systeme für andere. Im Grunde ist das relativ simpel und fast wie Lego, zumal es unzählige How To's und Videos online gibt. Wenn man viel RGB-Kirmes hat, muss man bisschen gucken, wie man alles sinnvoll anschließt, aber im Grunde kein Hexenwerk. Häufigsten Fragen (an mich) sind meist Komponenten-Auswahl bei Budget X und Optimierung (UV, RAM, Lüfterkurven). Und wenn man auf Selbstbau keine Lust hat, gibt's ja genug Alternativen, die es für einen machen, auch mit Garantie.2 Punkte
-
wichtig ist beim Festziehen der Schrauben, eine Box oder ähnliches unter die Heatsink zu legen. Also zwischen die beiden Lüfter, damit die Lüfter nicht gegen die Heatsink drücken, wenn Druck ausgeübt wird mit dem Schraubendreher. Wenn alles flach auf dem Tisch liegt, kann es passiere das die Heatsink sich etwas verzieht.2 Punkte
-
Ja, hab schon vor einigen Jahren mit Putty rumhantiert. Aus heutiger Sicht würde ich aber kein K5 Pro mehr empfehlen (damals gab's halt kaum was anderes). Wenn's um Wärmeleitpads geht --> Arctic TP-3 Wenn's um Putty geht --> CX-H1300 (13,5 W/mK) oder Upsiren UTP-8 Thermal Grizzly bietet seit neusten auch Putty in drei Abstufungen an. Igor's Lab hat sie getestet, falls dich die Unterschiede interessieren. Putty und Wärmeleitpads nur auf Hardware-Komponenten wie VRAM, VRM usw. Auf CPU und GPU sollte man wie vor auf klassische Paste, LM oder idealerweise auf Honeywell PTM7950 setzen.2 Punkte
-
Hothardware hat eine RTX 5090 Preview mit dem Razor 16 (2025) und dem MSI Raider A18HX mit AMD Ryzen 9955HX3D. GeForce RTX 5090 Laptop GPU Review: NVIDIA’s Best Mobile Gaming Chip Yet | HotHardware Es gibt ein paar Spiele Benchmarks und das MSI ist meistens der klare Sieger, der Abstand zu den 4090 Lösungen der letzten beiden Jahre ist aber nicht berauschend. Die mobile 5090 kommt erwartungsgemäß knapp unterhalb der Desktop 5070 heraus (mit dem MSI). Außerdem gibt es noch einen eigenen AMD Ryzen 9955HX3D Preview. AMD Ryzen 9 9955HX3D Fire Range HX3D Exclusive: Gaming Laptop Supercharger | HotHardware1 Punkt
-
Hab das Video zwar nur überflogen, finde es aber schwierig: keine Zahlen / fps wie soll ohne FG ein Plus von 65% zu Stande kommen? Das schreit nach unfairem Vergleich (Settings) und/oder auch nach anderem CPU-/Ram-Limit für mich geht es zu viel um FG (auch wenn logisch ist, dass Nvidia das massiv bewirbt und somit auch so einige YouTuber...). In AC Shadows ist FG wirklich annehmbar, für mich aber auch das erste Spiel, wo man es gebrauchen kann (bin aber zugegebenermaßen empfindlich und spiele AC Shadows lieber mit 100 fps cap ohne FG als mit mehr fps und mit FG. Das hat zwei Gründe: Erstens ist der Inputlag ohne FG natürlich immer besser und zweitens sind die 1% percentil min-fps bei so Spielen eh stets unter 100 fps, somit gibt es keine so hohe Diskrepanz zwischen average- und min-fps, woran FG nämlich nichts ändert)1 Punkt
-
Bei high end Notebooks/Monitoren war/bin ich genauso ein Fan von aw. Aber nach den schlimmen Tests der letzten Aurora Geräte sollten selbst die Leidenschaftlichen Fans aufgeklärt werden was Sie bekommen/bezahlen. Wenn ich mir nur mal die 5090 mit dem minikühler sehe ich die Probleme der Lautstärke schon vorprogrammiert.1 Punkt
-
Wie schon oben geschrieben, ich wette wenn vor dir ein PC mit 285k und ein weiterer mit einem 9950X3D steht und beide die identische Game Szene laufen haben, dass du unter Garantie ohne FPS Counter nicht sagen kannst was AMD und was Intel ist und beides gleich gut aussieht. Weil es schlussendlich einfach egal ist. Solange die CPU nicht die GPU bottleneckt ist es kein Problem. Beide Hersteller haben ihre Daseinsberechtigung und beide haben Vor- und Nachteile.1 Punkt
-
und bietet welchen Mehrwert nun genau? Optik ist Geschmackssache, aber Erweiterungen, Standards und Leistung sind halt einfach Fakten. Will ja nichts sagen (kennt's ja meine Meinung), aber in dem Preisbereich bekommst du gaaaaanz locker ein High-End Board mit 5 m.2 Slots (PCIe 5.0 und 4.0 Anbindung). Vier m.2 Slots haben selbst schon sehr viele Mittelklasse Boards. Vom BIOS, Feature-Set und Wiederverkaufswert mal ganz abgesehen. schaffst du ganz easy mit ~100€ RAM. Solange Hynix A-Die drauf ist, kein Thema. Hatte das gebinnte 6000 CL26 Kit von G.Skill da. Fand's ziemlich langweilig. Kann im Grunde nicht viel mehr als andere A-Die Kits, braucht nur etwas weniger Spannung. HWU hatte die CPU (9950X3D) durch (ich weiß nicht mehr genau) ~24 Titel gejagt. Hatte kein einziges Mal das Problem mit dem Scheduling. Bei RAM würde ich bei AW Kisten ganz vorsichtig sein. Irgendwas außerhalb der Spec führt direkt zu No-Boot. Wäre außerdem dann OC und damit keine Garantie, wenn man's genau nimmt.1 Punkt
-
Kompatibel sind eigentlich alle, günstig guckst du auf Geizhals 😉 Bitte nicht lachen, aber die habe ich selbst 2x und mehrfach woanders verbaut, laufen gut und solide bis jetzt (ca.1 Jahr die älteste), und günstig und schnell. https://amzn.eu/d/ctAwh8k Aber wenn es Marke sein soll, dann n zwanni draufpacken denke ich.1 Punkt
-
Definitiv rettungs bzw. Wiederbelebungs und Upgradewürdig!!!!!!Aber das würde hier den Rahmen sprengen 🙈🥴 Definitiv, aber kein echter AW, ich bin da sehr eigen 🙈🙈so upgradefähig wie nötig aber immer dabei am Original bleiben soweit es geht, ist zwar aufwändig aber machbar. Die Jonsbro Gehäuse gefallen mir aber grundsätzlich sehr gut. Beim installieren des leider notwendigen alten CC ist mir vorhin fast das Herz stehen geblieben. "Aktualisiere den CC Controller von Version 9.0.0 auf 7.0.0" 😱😱😱😱😱😱Nein , noch zerschießen wie damals beim M15X und Folgemodelle, aber hat er gotteseidank nicht gemacht, alles gut und Funzt und immer noch Version 9.0.0, ich habe extra die letzte verfügbare Version von Dell's Website genommen und dann oh Schreck sowas ..aber es ging gut🫣😏1 Punkt
-
@David1984, lass mal den ePSA-Test durchlaufen, es könnte auch ein Problem mit dem RAM geben.1 Punkt
-
@Robman: Ja, eine Schönheit ist es nicht, das stimmt. Wobei mich jedoch andere Sachen stören wie z.B. das Display. Zu klein und vom Seitenverhältnis und Auflösung für mich uninteressant. Wenn man schon so ein klobiges Gerät entwickelt mit Desktop-HW und auch noch Wakü, dann sollte man direkt auf 21-22" 16:9 / 16:10 Displaygröße gehen, und nicht auf 17". Besonders mobil ist man mit dem Teil ja sowieso nicht, wobei man dann natürlich an dem Punkt ankommt, wo man über den Sinn/Unsinn eines solchen Gerätes nachdenken müsste. Gruß Jörg1 Punkt
-
1 Punkt
-
Es ist ein Zusammenspiel aus mehreren Faktoren. Nicht korrekte Befestigung (warum designt man etwas das man falsch funktionstüchtig betreiben kann?) - das "umgehen" viele Hersteller jetzt mit farbigen Steckern. D.h. bei korrekter Montage ist der farbige Part nicht sichtbar. Viel gravierender ist eben, wie im Video oben verlinkt (und siehe Link unten), dass man einfach Kabel durchschneiden kann und man dennoch die GPU voll zum laufen bekommt. Die Sapphire Nitro 9070 XT hat den gleichen Mist, der Stecker wird auch sehr warm. Durch und durch ein Fail. Oder eben ein "Feature" a la "You are holding it wrong" bei Apple. Nvidia kann dann auch die Marketingfolien gleich anpassen in "Multi Flame Generation". Eigentlich müsste man die 40er und 50er Serie zurückrufen. Um jedoch fair zu bleiben, das Risiko steigt natürlich mit der GPU TDP, vermute mal ab 5070TI und drunter ist man halbwegs "sicher". Auch sind tausende Karten mit dem Stecker im Umlauf. Dennoch wäre es mir das Risiko nicht wert aktuell. V.a. bei 3.000€ aufwärts für eine 5090. Aber um beim Topic zu bleiben, vielleicht hat sich Dell hierzu etwas einfallen lassen.1 Punkt
-
Dieser Anschluss ist peak Ingenieurs Fail (vermutlich überwiegend dank Kostendruck) und eine einzige Katastrophe. Frage mich bis heute wie das Teil je eine einzige Sicherheitsprüfung bestanden hat. Da habe ich lieber 4x 8Pin und meine Ruhe. 3 Kabel mehr sind dann auch egal. Mit 3x 8Pin sind wir auch alle zurecht gekommen (RTX 3000)1 Punkt
-
Schraube lösen,SSD rausziehen, Kühler rauf und wieder rein, Schraube rein und fertig. Gibt noch kürzere SSD's. Ist eigentlich selbsterklärend und Pille Palle sind nur gesteckt.1 Punkt
-
Da hast du wohl definitiv recht Jörg, leider, ich habe ehrlich gesagt auch nix anderes erwartet. Er hätte ja auch schreiben können OK ich leite es an die zuständige Stelle weiter, meinetwegen auch gelogen,wenn es keine KI war,was ich fast glauben mag. Auch lustig wie gekonnt er den Übersetzungsfehler trotz Bildnachweis ignoriert und weiter schreibt ich bin der einzige der das behauptet 🤣🤣🤣 @kroenen04: Bei mir passen nur Kühler die die Maße der SSD nicht verändern ,weil direkt neben dem Slot für die SSD ein Kondensator verbaut ist, das dürfe dich aber nicht treffen,wenn rechts und links etwas Platz ist kannst du sowas bedenkenlos nehmen,wenn der Boden auch bedeckt ist macht das gar nix, ganz um Gegenteil, nur auf keinen Fall den Aufkleber der SSD entfernen wie viele das machen und sagen!!! Was die Kühlleistung betrifft kann ich dazu nix sagen, ich war erstaunt das der Icy Box Kühler soviel ausmacht Temperaturtechnisch, ist schon bedeutend weniger. Sehr nice... Gut sollen auch die hier sein: https://www.ebay.de/itm/204548904366?mkcid=16&mkevt=1&mkrid=707-127634-2357-0&ssspo=qzRXQd9_SqW&sssrc=4429486&ssuid=tDSxiUIeTeu&var=&widget_ver=artemis&media=COPY https://www.ebay.de/itm/234788809966?mkcid=16&mkevt=1&mkrid=707-127634-2357-0&ssspo=otNyWlJXR3S&sssrc=4429486&ssuid=tDSxiUIeTeu&var=&widget_ver=artemis&media=COPY https://www.ebay.de/itm/376003648452?mkcid=16&mkevt=1&mkrid=707-127634-2357-0&ssspo=vuydlgvcs-a&sssrc=4429486&ssuid=tDSxiUIeTeu&var=&widget_ver=artemis&media=COPY Btw. Wir sind sowas von Offtopic 🙈 🙈 🙈, aber bis jetzt gab's noch keine Schimpfe 🫣 Ich habe noch gute und passende Kühler hier, wenn du magst schicke ich dir einen für nen Zehner oder du nimmst halt was von Amazon o.â.1 Punkt
-
🤣 Absolut, wäre das besser gewesen,anbei Auszüge aus dem Chat mit dem Support, vom Fach und sehr hilfreich 🤣🤣🤣 unfassbar... Da hatte ich ja einer richtigen Experten im Chat 🙈🙈🙈Wenn es nicht so traurig wäre... Übrigens Danke @Sk0b0ld, HW Info hat die Info zu Tage gefördert bezüglich Dual-Channel. Sorry , für den ganzen Offtopic hier mal wieder von mir🙈 @Jörg: Mir geht es überhaupt nicht um's Recht haben, ist ja ein Meinungsaustausch hier, dafür sind ja Foren u.a. da. Ich sehe nur manche Dinge sehr kritisch und Differenziert, erst Recht wenn man (viel) Geld für etwas bezahlt und fehlerhafte Produkte erhält. 1St. World Probleme zwar , ich weiß, aber ich möchte auch nicht einfach so alles hinnehmen.1 Punkt
-
@kroenen04: Prima, dass es funktioniert. 😊 Du kannst ja mal berichten, ob die 64 GB dann auch entsprechend mit 5.600 MHz laufen.1 Punkt
-
1 Punkt
-
@Jörg: Ich hab da ja Spaß dran, es ist kein muss bei mir oder Druck, man muss dazu auch Lust und Elan haben und nicht mit Angst das nicht hinzubekommen daran gehen. Aber ich denke bei dir sind diese Vorraussetzungen dafür einfach nicht gegeben, was ja auch nicht schlimm ist , dann eben nach seinen Wünschen bauen lassen. Schau mal bei Dubaro vorbei, die sollen nicht schlecht sein. Es ist heutzutage wirklich kein Hexenwerk mehr oder Raketenwissenschaft wie Sk0b0ld auch richtig anmerkte,früher war das wirklich deutlich komplizierter. Ich hatte und habe beim Raumbasteln großen Spaß,außer es geht was nicht 🤬😅, Hobby halt und das holt mich halt ab. Ich hab massenweise Videos geschaut darüber, man verliert nur schnell den Überblick, aber findet sich dann doch eigentlich wieder zurecht. @Sk0b0ld: Den Aurora habe ich "sehr" günstig geschossen, wollte den schon länger haben, wegen dem Design und im Hobyzimmer mit den ganzen AW Rechnern aus einem Guß haben. Den vollen Preis würde ich niemals dafür zahlen, für das was man bekommt dafür. Habe den jetzt für kleines Geld nach meinen Wünschen umgebaut etwas (hat sogar riesen Spaß gemacht), und bin mit der Kiste zufrieden. Aber wenn dem mal die Puste ausgeht Leistungstechnisch wird was cooles eigenes zusammen gebaut wieder 💪🤞. Der neue Area 51 reizt mich null,null. wieder so eine Officekiste optisch, die ersten Videos dazu gibt es ja schon, ich finde den auch wieder AW unwürdig und lieb/seelenlos. Aber wem es gefällt und mehr zahlen will oder kann als er muß, bitteschön. Neues Projekt ist schon kurz vor Beginn, am WE hole ich, wenn alles klappt einen Area 51 R2 oder R3 für einen sehr sehr guten Preis mit fremd bzw. noch sehr gut brauchbarer HW im Gehäuse ab, restauriere den und wegen Platzmangel kommt der zum Stiefsohn ins Zimmer zur Nutzung. Wieder ein Sammlerstück mehr dazu, langsam wird's eng oder ich muss anbauen für den ganzen PC Kram 😏 Wäre mir viel zuviel RGB , aber dennoch faszinierend was so geht wenn man kann, Hammer!!!1 Punkt
-
@DrKayAlbern: Ja Windows installiert automatisch alle erforderlichen Treiber für das System und die gefundene Hardware kurze Zeit nach Abschluss der Hauptinstallation des Betriebssystems. Deshalb ist es ratsam, während und nach der Installation die Internetverbindung zu trennen bzw. erstmal getrennt zu lassen, damit man bei Bedarf erstmal alle Treiber manuell und in der richigen Reihenfolge installieren kann, wenn man sich nicht auf Windows verlassen möchte.😉1 Punkt
-
@Svencore: Natürlich, was denkst du denn ? So schaut es aus, schrieb ich ja bereits 😉. Gruß Jörg1 Punkt
-
Neee, eigentlich schon viel länger, hatte aber immer noch dran festgehalten und auch etwas Hoffnung das AW/Dell es besser machen/können und aus den zahlreichen Fehlern und Berichten mal was annehmen und draus lernen, aber die Dollars scheinen dann eben doch wichtiger. Sei's drum😉 Alienware wurde 1996 von Nelson Gonzalez und Alex Aguila in den Vereinigten Staaten gegründet nicht ganz richtig,Frank kam später dazu und seit dem er bei AMD ist hört man ja nicht mehr soviel..sein letzter großer Wurf war wohl das Area51m R1/R2 bei AW. Ich habe mal ein altes Video gesehen wo die beiden die Notebooks und Desktops noch selbst eingepackt haben voller Stolz...finde es leider nicht mehr. Ohhhh Sorry, Jörg war schneller 🤞😉🙈1 Punkt
-
Offtopic: Habe meinen Aurora R14 jetzt mit Noctua Lüftern geupgradet, eine himmlische Ruhe jetzt im Vergleich zu den lauten Foxxcon Rotoren und niedrigere Temperaturen allgemein, keine BIOS Fehlermeldungen und im CC auch alles normal. So soll's sein..🤞 Der ist echt der Hammer und auch komplett die Phasen ungekühlt lassen🙈🙈🙈Ich verstehe es echt nicht...Temu?🤣1 Punkt
-
Haha, das habe ich mir auch gerade angeschaut, bevor ich es hier gesehen habe. Ja absolute Frechheit. Hatte das Thema ja auch mal, wo Notebooksbilliger geschrieben hat es wäre eine AIO verbaut und dann war es auch dieser winzige Luftkühler. Immer wieder faszinierend wie wie lernresistent Dell ist.1 Punkt
Diese Rangliste nutzt Berlin/GMT+01:00 als Grundlage