Zum Inhalt springen

Rangliste

  1. webmi

    webmi

    Mitglied


    • Punkte

      4

    • Gesamte Inhalte

      1.795


  2. MeteorHeaD

    MeteorHeaD

    Mitglied


    • Punkte

      2

    • Gesamte Inhalte

      1.067


  3. BestBBQinTexas

    BestBBQinTexas

    Mitglied


    • Punkte

      1

    • Gesamte Inhalte

      462


  4. TOYKILLA

    TOYKILLA

    Mitglied


    • Punkte

      1

    • Gesamte Inhalte

      1.289


Beliebte Inhalte

Inhalte mit der höchsten Reputation am 12.10.2011 in allen Bereichen anzeigen

  1. Hier gehts zwar um die GTX580 (Desktop) aber vielleicht erkennt der Treiber das auch bei der 580M Im Furmark-Belastungstest zieht die GeForce GTX 580 durchschnittlich 274 Watt aus dem Netzteil und damit 10 Watt mehr als ihre Vorgängerin – sofern man eine ältere Furmark-Version als 1.8 verwendet. Im aktuellen Furmark drosselt Nvidia den Grafikchip, um ihn nach eigenen Angaben vor zu hoher Last zu schützen. Zukünftige Treiber sollen auch ältere Furmark-Versionen erkennen. Die Grafik-Hardware auch bei sehr anspruchsvollen Spielen zu drosseln ist zunächst nicht geplant, wie man in einer E-Mail mitteilte: „So far we have not seen any real world games that are affected by power monitoring or need power throttling to stay within spec.“ Dank des verbesserten Referenzkühlers, der mit Hilfe von Vapor-Chamber-Technik für eine effiziente Wärmeabfuhr sorgt, kletterte die Grafikchip-Temperatur nicht über 90 °C. Durch das Kühlsystem belegt die 27 Zentimeter lange Karte zwei Gehäusesteckplätze. GeForce GTX 580 | c't Also stimmt es doch was einige sagten das der Chip bei Furmark gedrosselt wird. Und es erkennt nicht das Bios sondern der Treiber. Ggf doch mit 3DMark11 testen, ich persönlich sehe es eh als besten Test ob ein System runtertaktet oder nicht. Weil so ein Burn-In wie Furmark bekommt auch in zukunft kein Spiel hin. Also wenn 3DMark und Spiele ohne drosseln klappt dann wird bei euch alles i.O. sein. Werd bald ein Desktopsystem mit einer GTX580 haben, dann werde ich ma den gleichen Test machen. Wenn die sich genauso verhält wie eure 580M dann wissen wir´s.
    2 Punkte
  2. 2 Punkte
  3. Sorry,ich habe noch nicht an der Umfrage teilgenommen,aber diese Aussage ist einfach schwachsinn.Ich habe mit der 580M schon Stunden BF3 gezockt ohne ein einziges Problem...Beim mir ruckelt nicht ein einziges Spiel in hohen Auflösungen/Einstellungen und ich sehe nur ein runtertakten der Karte wenn ich Furmark laufen lasse (Extremtest) .Ansonsten ist mein M17X R3 mit 580M,neuem Vbios,Schnuffel SystemBios und richtigem Wafer absolut perfekt.Ich glaube langsam dieses Thema schaukelt sich eher künstlich hoch,als dass sich die betroffenen hier dazu äussern. Aber mir solls auch egal sein.. Ich glaube wenn jeder Hardwaretester uns so einen einblick in die Materie geben würde wie Schnuffel es in diesem Thema getan hat,dürfte man garkein Gerät mehr kaufen,von keinem Hersteller.Was 911 da passiert ist finde ich auch sehr schlecht und ich kann Ihn auch verstehen wenn er zu Schenker wechsel möchte,aber dass die 580M dort 100°c heiss wird erachte ich nicht als Vorteil und der schlechte Sound,das minderwertige Display verbunden mit gewöhnungsbedürftigen Gehäuse machen dieses Gerät für mich eher noch schlechter. ---------- Beitrag hinzugefügt um 18:14 ---------- Ursprünglicher Beitrag wurde erstellt um 18:06 ---------- Hast du inzwischen mal mit deinem M17X R3 mit der 580M ein neues Game gespielt? BF3 o.ä. ?
    1 Punkt
  4. Da Furmark ein professioneller synthetischer Benchmark ist und eine !Maximalauslastung! erzeugt ist es absolut optimal für unsere Zwecke. Weiterhin werden hier schon Taktraten und Temps angezeigt. Und was für eine Routine soll denn die 580M bitte für Furmark fahren? Ich bitte euch! Die 580M von !Alienware! kommt mit ihrem vBIOS einfach nicht mit so einer synthetischen Maximalauslastung klar. Was da eingreift ist die Routine des vBIOS, die aber auch bei Spielen eingreift welche eine derartige Last erzeugen würden. Das hat nichts mit Furmark an sich zu tun... wie kommt ihr auf sowas? Nochmal, da Spiele immer eine unterschiedliche nicht genau definierte Last erzeugen ist ein Test damit quasi nicht relevant. Für das hier vorhandene Problem schon garnicht. Dass manche Spiele laufen ohne runterzutakten mag ja schön sein, ist aber keinesfalls der SOLL- bzw. MUSSzustand einer Grafikkarte und schon garnicht einer in diesem Preissegment. Wer hier nicht einsieht, dass die 580M ein Problem hat und meint er hätte keine Probleme belügt sich nur selbst!
    1 Punkt
  5. Exakt. Genauso verhält es sich mit der Umfrage. Wer da momentan "keine Problem" ankreuzt hat halt einfach noch kein BF oder ähnliches versucht länger als 15 Minuten zu spielen. Da ich das momentan auch nicht tue (weil meine Karte dann abstürzt) könnte ich auch "keine Probleme" angeben. Beim Internet surfen, Deus Ex, Starcraft 2 und Minecraft spielen hat das System tatsächlich keine Probleme... Das würde aber alles auch mit einem 1000 Euro Notebook gehen.
    1 Punkt
  6. Ich frage mich auch, wie so etwas überhaupt passieren kann? Ich meine Dell kauft bei Nvidia Grafikkarten. Diese werden dann in das Design der Geräte eingeplant. Dh. sie müssen mit einer für das Gehäuse passender Lösung gekühlt werden. Jetzt werden die Wafer von Dell zugekauft, von wo auch immer, mit einer Heatpipe versehen und samt Lüfter in das Gehäuse eingebaut. Wie kommt es also zu solchen Assembly Problemen? Hier ist beim Kauf/Auswahl der Wafer offensichtlich ein Fehler passiert. Kann mir nicht vorstellen, dass die einfach alte Wafer aus dem Lager draufschrauben konnten. Dass die Chineslein in die flasche Schachtel gegriffen haben ist auch auszuschließen. Somit mussten für die 580M passende gekauft werden. Dass Nvidia selbst "falsche" Wafer verkauft kann ich mir nicht vorstellen. Dass man unwissenltich falsche Ware kauft, kann passieren, diese kann aber sicher schnell gegen die richtige Ware getauscht werden. Man will ja den Kunden binden. Irgendwann fällt also auf, aus welchen Gründen auch immer, hier stimmt was mit den Wafern nicht. Es wird also überlegt wie man am günstigsten aus solch einer Lage kommt. Entweder war es zu teuer oder nicht ohne weiters möglich, richtige Wafer aufzutreiben. (Andere schaffen es aber auch richtige Wafer zu verbauen) Ich habe keine Ahnung um welche Mengen und somit Preise es sich bei einer derartigen Produktion handelt. Man will also den angekündigten Releasetermin halten und keine Verluste in Kauf nehmen oder gar nochmal viel Geld (verhältnismäßig wenig würde ich meinen) ausgeben. Folglich wird überlegt: Tada! Wir throtteln einfach bei einer gewissen Temp, damit die Hardware nicht verreckt und wir dank Garantie und VOS nicht tauschen müssen. Dem Entscheidungsträger(n), welche dieser Schnapsidee zugestimmt haben, gehören eigenltich... anyway Irgendwann findet man also doch die richtigen Wafer (im Lager, beim Händler, auf der Straße...) und fängt an auch diese zu verbauen. Die Katastrophe nun komplett. Falsche und richtige Wafer verbaut und ein BIOS welches den Kunden sauerst aufstößt. Sogar die großen Autohersteller schaffen es mit Rückrufaktionen Fehler zu korrigieren. Warum stellt sich also eine Firma wie Dell, bei einer verhältnismäßig geringen Anzahl verkaufter Geräte, derart dämlich an, dass es solche Ausmaße annehmen muss?
    1 Punkt
  7. Sachte Sachte! Wir klären das zunächst intern. Ich möchte hier keinen sehen, der Telefonmitschnitte oder Namen von Dell-Mitarbeitern veröffentlicht! Gemeinsam werden wir einen Weg finden, doch überstürzt bitte nichts!
    1 Punkt
Diese Rangliste nutzt Berlin/GMT+01:00 als Grundlage
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.