Zum Inhalt springen

Schnuffel

Mitglied
  • Gesamte Inhalte

    937
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    127

Alle Inhalte von Schnuffel

  1. Schnuffel meint: Zweite Platte bei den neuen Geraeten einbauen ist kein Problem, da der Plattenrahmen und der Steckadapter bei den MXX dabei ist, auch wenn man nur 1 Platte bestellt hat. Aber wenn man ein HW Raid o oder 1 machen will sollte man darauf achten, dass die Beiden Platten baugleich sind! Das ist ganz spezielle beim Stripe-Set wichtig. Beim Mirror reicht es aus, wenn beiden Platten dieselbe Kapazitaet haben. Gruesse vom Schnuffel
  2. Schnuffel wuerde auf jeden Fall den M14x nehmen. Man muss dazu sagen, dass der M14x ja nicht wirklich viel groesser als der M11 ist, aber neben einem optical Laufwerk auch noch andere Annehmlichkeiten wir ein groesseres Keyboard und ein viel besseres Soundsystem hat... Und wirft man dan noch die GPU des M14x in die Wagschale, zusammen mit dem Display... Na da sind aber die 200 Euro extre wohl bestens investiert!!!! Die Tastatur des M14 x ist uebrigens auf demselben Niveau wie die des M11x, nur groesser... Gruesse vom Schnuffel
  3. Schnuffel meint dass das wirklich kein problem ist. Die Sandy briodge unterstuetzt 4 Channels unter der Bedingung, dass ein Quad Core CPU verwendet wird. Dual Core CPU's unterstuetzen nur 2 Channel... Gruesse vom Schnuffel
  4. Das weiss Schnuffel leider nicht. Er hat keine Crucial zum esten... Diese Dinger sind in Schnuffel's umgebung Exoten... Aber schuffel geht davon aus, dass die auch betroffen sind. waere unlogisch, wenn nicht. Schliesslich haben alle diese Hersteller nach den gleichen DK's (Developmend Kit's) gearbeitet, und der Fehler hat eigentlich in einem dieser Kit's gesteckt! Gruesse vom Schnuffel
  5. Naja das weiss eigentlich niemand so genau. Dass Problem ist, dass es am Markt eigentlich im Moment kein wirklich 100% funktionikerenden GTX485m gibt... Da ist nur China-Shrot erhaeltlich... Es gibt allerdings noch einige NVIDA Referenzboards, die bekommt man ueber Spezielle Quellen. Zur Zeit zum Beispiel fuer 600.00 Euro von Kris Verbeek von mxm-upgrade.com Lieferzeit ist zur Zeit fast 3 Wochen. Aber das sind und werden auf laengere Zeit die Besten GTX485m bleiben. Wie lange Kris die noch besorgen kann, weiss Schnuffel auch nicht. Und wann Alienware den Zugriff zu funktionierenden GTX485m erhaelt, weiss er auch nciht. Bei den Dingern die z.B. Clevo verbaut, funktioniert zum Beispiel 3D nicht. Und auch die Performance ist bei diesen Karten zwar gut, aber nicht das Optimum, welches die GTX485 tatsaechlich erreichen kann. Gruesse vom Schnuffel
  6. Tja, so unrecht haste nicht. Bei SSD muss man im MOment wirklich sehr genau aufpassen, was man macht. Die Brand's mit den wenigsten Probleme sind: - Kingston - Corsair - Patriot - Samsung In der Mitte liegt Intel und ganz schlimm ist's im Moment mit OSZ.. Gruesse vom Schnuffel
  7. Achtung bei DVD und BD Firmwareupdates darauf achten dass: - Die Laendercodes bei manchen Geraeten per Software einige Male gewechselt werden koennen - Dass es bei FIrmwareupdates bei diesen Laufwerken knallen kann, wenn man die Codes bereits zum maximalen Mal gewechselt hat. Naemlich dann, wenn der Code bei der neuen Firmware eigentlich an einem anderen Ort steht. - Bei einigen Laufwerken die Firmware fuer die entsprechenden Codeeinstellungen unterschiedlich ist Dass Sony ond TEAK Laufwerke manchaml die Unart haben stiften zu gehen wenn sie nach einer Hack-Firmware (offener Code) wieder eine Original Firmware bekommen sollen. Das Alienware nicht in allen Geraeten die Stadartfirmware verwendet, sondern spezifische Anpassungen gemacht wurden (z.B. M14!!!!!) Gruesse vom Schnuffel
  8. Schnuffel meint: Die Vertex 2 ist niciht ganz so schlimm wie die 3. Die 2 ist "nur" unter 4 von 5 Saeuen... Und eine bitte an Euch: SSD Firmwareupdates IMMER machen. Das erspaart VIEL Aerger. Gruesse vom Schnuffel
  9. Hoi svl7 Das ist jetzt die letzte Antwort von Schnuffel im oeffentlich Tread zu diesem Thema... Schnuffel kann nicht ganze Physikkurse hier im Forum geben... Also Du schreibst, dass die ganze Enerie wieder als Waerme abgegeben wird! So ein Bloedsinn!!!!! Die Waerme ist nur Verlustleistung. Der Groesste Teil geht natuerlcih fuer die Bildaufbereitung "Verlohren". Also es werden im CHIP drinn ELEKTRONEN BEWEGT. So entsteht das Bild. Durch Verschieben von Elektronen! Und das ist eigentlich Weg, den diese Zuruecklegen. Also so bloed es fuer Dich toenen mag, der Groesste Teil der einer Grafikkarte zugefuehrte Energie wird IN BEWEGUNG umgewandelt. Dadurch entsteht das Bild. Daher hat die ABGEGEBENE waere UEBERHAUPT NICHTS mit der Menge der aufgenommenen Energie zu tun. Wuerde Deine Behauptung stimmen, haettest Du den N-Preis verdient, den dann wuerde eine Grafikkarte naemlich: - Entweder gar kein Bild erzeugen weil sie die gesamte Energie ewieder als Waerme abgiebt - Oder eben Energie erzeugen, da sie, obwohl sie Deiner Behauptung zufolge die gesamte Energie wieder als Waerme abgiebt ja doch noch ein Bild produziert. Nur womit denn??? Das waere dan die Loesung auf alle Energieprobleme der Erde: Die Energieproduzierende Grafikkarte! Zurueck zur Formel: Gehen wir davon aus, dass wir eine Grafikkarte "A" und eine Karte "B" haben. Karte "A" ist eine aeltere Chip-Generation, Karte "B" die neuere. Karte "A" Verbraucht maximal 120 Watt auf, "B" Maximal 150 Watt Das ist jeweils die Summe aus der Leistungsaufnahme und der Verlustleistung, welche zur Bereitstellung der Leistung anfaellt sowei die Aufgenommene Kuehlleistung (Fan, etc...) Jetzt haben wir eine Grafikleistung X definiert. Diese besteht aus Anzahl Dreicksberechnungne und der Filrate bei einer fixierten Aufloesung, Framerate und Farbtiefe. DIese Grafikleistung ist das Maximus, welches die Karte "A" erreichen kann. Karte "B" erreicht diese Leistung nun aber bereits bei 25% der maximalen Taktrate. "B" ist ja schneller. Und wir wissen, dass diese Leistung ja die Maximal-Leistung ist, die "A" bringen kann. Und wir wissen auch, das "A" dazu 75 Watt aufnimmt. Nun moechten wir berechnen, wieviel Watt "B" fuer diese Leistung braucht: Z (Max. moegliche Stromaufnahme der Karte) / 100 * V (% der Maximalleistung) + 50 Watt = ~ Stromaufnahme Das waer nun: 150 Watt (maximaler Verbrauch von und durch "B") / 100 x 25 +50 Watt = 87.5 Watt Also ist "B" mit 87.5 Watt deutlich Spaarsammer als "A". Zum Verstaendniss ist es auch wichtig zu wissen, dass diese Formel unter umstaenden ploeztlich ein hoeheres Resultat als das Maximum lifert. In unserem Beispiel zum Beispiel dann, wenn wir 65% Leistung brauchen. Dan sieht es so aus: 150 Watt (maximaler Verbrauch von und durch "B") / 100 x 75 +50 Watt = 162.5 Watt Das heisst jetzt nicht, dass die Formel Schrott ist. Sondern wenn das Resultat groesser als der Maximale Stromverbrauch ausfaellt, bedeutet das lediglich, dass die Karte in diesem Falle 150 Watt verbrauchen wird. Das heisst somit, dass aufgrund der Archithektur von Grafikkarten immer irgendeinmal ein Punkt kommt, wo eine verlangsamung kein Energiespaarpotential merh bringt. Das liegt daran, dass man nicht jeden Takt xum Besipiel X-Beliebg senken kann, sondern nur in Stuffen. Auch bei Speicher kann ich nicht nur den Speicher bedienen, den ich brauche, sondern ich kann hoechsten Baenke stillegen. Und wenn ich eine Bank nur anbrauche, muss ich sie trotzdem mit Stroom versorgen: Grafikspeicher brauch immer strom sobald die Bank in betrieb genommen wird. Also auch dann, wenn ich sie nur zu 10% benutze. Spaaren kann ich nur, wenn ich eine Bank GANZ ausschalten kann! Und noch was ganz Anders zur Leistungsberechnung: Nehmen wir das Netzteil vom M15x. Da steht hinten drauf: Input: 100-240V ~ 2.5A Output: 19.5V = 7,7 A Das bedeutet: Das Ding liefert 19,5V x 7,7 = 150.15 Watt Aber es benoetigt: 100V x 2.5A = 250 Watt Verlustleistung: 100 Watt!!! Hoffentlich hilft das nun fuer's Verstaendnis. Gruesse vom Schnuffel
  10. Tja, da machst Du, lieber svl7 so das Eine Oder das Andere durcheinander... Und das mit der Formal ist auch nich ganz richtig verstanden worden. Aber HW berechnen ist nicht jedermann's Sache, dafuer ist ja Schnuffel zustaendig, er wird dafuer sogar bezahlt! Also beginnen wir mal etwas mit dem Kurs: Es geht hi9er um Leistungsverbrauch. ALso nicht, und das betont Schnuffel deutlich, um Leistungsaufnahme!!!!!!! Warum das so ist: Abgesehen davon, dass man Energie ja nicht erzeugen sondern nur umwandeln kann, entstehen bei der Umwandlung Verluste... Und wie wir ja alle von Der Grafikkarte aus dem Desktop wissen, sind die Dinger nicht nur Leistungshungrig, sondern werden auch MIT VERSCHIEDENEN SPANNUNGEN versorgt. Beispiel: Karte A: Leistungsaufnahme an 5 V: 8 Amp. also 5V x 8A = 40W Leistungsaufnahme an 12 V: 2 Amp. also 12V x 2A = 24W Leistungsaufnahme an 3 V: Amp. also 3V x 1A = 3W Also haetten wir fuer diese Karte ein Total von 67W Karte B: Leistungsaufnahme an 5 V: 12Amp. also 5V x 12A = 60W Leistungsaufnahme an 12 V: 0 Amp. also 12V x 0A = 00W Leistungsaufnahme an 3 V: 2.33 Amp. also 3V x 2,33A = 7W Also haetten wir fuer diese Karte ein Total von 67W Frage: Welche Karte verbraucht nun mehr Leistung? Nun, Schnuffel meint, dass svl7 nun mit Inbrust der Uebrzeugung sagt: Beide gleichviel. Nun, Schnuffel mein FALSCH. Richtige Antwort: Es nehmen beide Karten gleichviel Leistung auf, aber Karte A verbraucht WESENTLICH mehr Leistung, da die Verlkustleistung zum Erzeuen der 24 Watt Leistung, welche Karte A an 12 Volt zieht, wesentlich hoeher ausfaellt als bei Karte B fuer die Erzeugung der Leistungen an den niedrigeren Spannungen. Dazu kommt, dass Das ganze noch nicht einmal die Kuehlung beruecksichtig. Die Luefter haengen naemlich am MB dran und nicht an der GPU... Und wenn die GPU extrem warm wird, muss sogar der CPU Luefter mehr arbeiten, weil er die Waerme nicht gleich gut wegbekommnt. Braucht auch mehr Strum. Und je heohert die Stroeme der hoeheren Spannungen dest niedriger der WIrkungsgrad des externen Notebook-Netzteiles und der nOtbookinternen Spannungsumwandlung. Das Notebooknetzteil liefert naemlich nur eine Spannung, naemlich 19.5 Volt. Die anderen Spannungen werden im Notebook drinn durch sogenante Step-Down Konvertoren (DC - DC Konverter) erzeugt. Also Schnuffel weis schon, was er rechnet, er macht das Tagtaeglich. Und dass die ATI Karten im Notebookbereich mehr Leistung verbrauchen ist schon lange ein wirklich alter Hut. Dass hat mit der neuen ATI Generation begonnen. Es liegt an der Chiparchithektur von ATI. Bei Desktop's ist das kein Problem, da der Unterschied wirklich marginal ist. Warum? Der Desktop liefert alle benoetigten Spnnungen direkt ab Schaltnetzteil, nicht wie der Noti nur eine, die dan erst noch nicht passt. Im Noti drinn wirnd naemlich NIERGENDS. und wirklich NIERGENDS 19.5V direkt gebraucht! Jetzt kommt sicher die Frage warum dan die 19.5 V. Erklaerung da ganz einfach. Es geht um die Leistunng. Und wenn man als Beispiel 200 Watt durch Kabel jage, kann man das auf verschiedene Arten tun. Beispiele: 1: 10 V x 20 Amp = 200 Watt 2: 20 V x 10 Amp = 200 Watt Beides ist ja dasselbe am Ende... naemlich 200 Watt... Aber es ist doch nicht dasselbe: Bei Version 1 benoetige ich einen groesseren Kupferquerschnitt im Kable. Und auch bei den Leiterbahenn im Kompi drinn einen groesseren querschnitt (breite) Braucht viel Platz und Gewicht... Ach noch was: Eine GPU hat nie eine MAXIMALLEISTUNG in WATT. Hoechstens eine Maximal moeglich LeistungsAUFNAHME in Watt (bevor sie naemlich stiften geht)... Wie wilste also die Grafikleistung berechnen? In der Framrate? Falsch. die Beruecksichtigt weder das Rendern noch die Aufloesung etc... Oder in den Pixeln? Ne, auch falsch... Am ehsten eignet sich da eine Kombination aus der Fuellrate und der Dreiecksberechnung BEI KLAR DEFINIERTER UMGEBUNGS WIE AUFLOESUNG, FARBTIEFE RAM ETC... Ist also gar nicht so einfach. Und schon gar nicht dafuer eigenen sich die so beliebten "BENCHMARK's"! So, soviel zur heutigen Physikklasse Nun noch zum direkten Vergleich der GTX 460m und der GTX 485m: svl7 wird es warscheinlich nicht glauben. aber dei GTX485 erreicht unter 43% ihrer Maximalllen Grafikleistung dieselbe Fuellrate und Dreieksberechnung wie eine GTX 460: Schnuffel gruesst aus Atlanta!
  11. Schnuffel wird in letzter Zit ab und an mal wider darauf aufmerksam gemacht, dass Alienrespawn und die OSD Applikation (On Screen Display untility, das DIng, welches die batteriesymbole, Lautsprechersymbole, etc... fuer die Funtkionstatsen auf den bildschirm zeichnet), als Wirus Wurm oder trohjaner von verschiedenen Applikationen erkannt werden Schnuffel kann Euch da beruhigen: Die Meldungen sidn Schwachsinn, beide Tool's sind absolut Sauber. Gruesse vom Schnuffel
  12. Eine Frage, welche immer wieder and Schnuffel gestellt wird ist die 3D Tiefe. Einigen ist aufgefallen, dass bei verschiedenen Fernsehern das 3D richtig aus dem Fernseher nach vorne zu springen scheint. Bei anderen, auch beim M17xR3 hat man dan das Gefuehl, dass der 3D Effekt merh in den Bildschirm hineingeht. Aber nicht alle Anwnder empfinden dass gleich. EInige sehen es gerad ungekehrt. Was ist die Erklaehrung dazu? Und was kann man da machen? Also da die Antworten vom Schnuffel: Erklaehrung fuer diesen Effekt: Bei dieser 3D Technik wird abwechslungsweise ein Bild fuer das like und ein Bild fuer das Rtechte AUge gezeigt. Diese sind Perspektivisch unterschiedlich und werdn dan von unserem Hirn zusammengesetzt. Und da kommt es jetzt darauf an, welches der Bilder unser Hirn als "Master" und welches als "Slave" nimmt. Entsprechend sehen wir den 3D effekt nach vorne oder nach hinten. Das ist ganz Individuell. Was kann man da tuen: Das ist beim M17xR3 ganz einfach: Im Nvida Kontroll Pannel finet sich ein Schieberegel fuer die 3D Paralaxe. Damit kann man die beiden Bilder gegeneinander verschieben. So laesst sich: - Die Tiefgenwirkung steuern - Der Effekt belibig nach Vorne oder Nach hinten verschieben. Unser Hirn wechselt dan automatisch die interne "Darstellung" von "Vorne" nach "hinten" je nachdem ob Master & Slave nach rechts oder nach links gegeneinander verschoben sind. Gruesse vom Schnuffel Anmerkung der Administration: Die Diskussion dieser Schnuffel-Anleitung befindet sich in folgendem Thread:
  13. Schnuffel

    Alle Modelle (Desktops) Stromverbrauch GTX485M

    SDchnuffel wir immer mal wieder nach dem Stromverbrauch der Graphikkarten gefragt. Generell gilt: ATI is stromhungriger als NVIDIA Je heoher die Leisung, desto hoeher der Stromverbruach Wirkungsgrad der Grafikkarten ist in etwas immer aehnlich, aber die Kurve verschiebt sich. Beispile: Der Stromverbrauch bei Nvidia liegt bei den aktuellen Grafikkarten etwa bei folgener Formel: Z (Max. moegliche Stromaufnahme der Karte) / 100 * V (%der Maximalleistung) + 50 Watt = ~ Stromaufnahme Daraus ist ersictlich dass zum Beispiel eine GTX 485M, wenn sie so eingestellt ist, dass sie in etwas 100% der Leistung einer GTX460M bringt, Deutlich weniger Strom braucht als eine GTX 460m Im 3D Bereich steicgt der Stromverbrauch nich an. (Sieht man vom dan eingeschaltetetn Infrarotsender fuer die Schutterbrille mal ab). Gruesse vom Schnuffel Anmerkung der Administration: Die Diskussion dieser Schnuffel-Anleitung befindet sich in folgendem Thread:
  14. Schnuffel wird in letzter Zeit immer gefragt, ob sich das #D Display beim M17xR3 lohnt. Oder ob man warten soll auf eine Brillenlose Variante... Schnuffel versucht das hier mal so gut wie moeglich zu benatworten: 3D Display mit Brille Da muss man wissen, dass hier technische Anforderungen gestellt werden, dass das Bild ueberhaupt noch nach etwas aussieht. Diese sind: Hohe Bildwiederholfrequens (weil im 3D bereich ein Auge nur jeweils jedes 2te Bild sieht), desshlab brauchen wir da ja 120 HZ, dan hat jedes Auge 60 Bilder pro Sekunde Hoehere Helligkeitr, weil wie den Helligkeitsverlust der Shutter Brille auffangen muessen Breiteres Farbraum, weil wir die Farbverfaelschung durch die Shutter Brille so klein wie moeglich halten muessen (die Brille hat auch bei 'durchgaengig" eine leichte graublau verschiebung zur Folge) Diese Fakten fuehren dazu, dass ein 3D Display wie das zur Zeit fuer den M127xR3 angebotene Display im 2D Bereich normalen 2D Displays in Bildschaerfe (120 HZ), Koontrast, Helligkeit und Farbspektrum deutlich ueberlegen ist. Nun zur Frage, ob mit Shutter Brille oder ohne besser ist, meint Schnuffel; Es kommt auf die Anwendung an: Ohne Shutterbrille: Noch besseres Bild als mit heutigen 3D Display's, da keine Farbverfaelschung Volle Helligkeit Keine stoerende Brille nun aber: nur fuer 1 Anwender guter 3D effekt, da das benoetigte Eye Tracking nur einen Betrachter erfassen und bearbeiten kann Da man ja auf @D einen echten 3D effekt sehen kann, muss sich das Hirn bei Perspekivenaenderungen (also bei Tiefenaenderungen) neu Einstellen, die Augen muessen neu fokusieren. Daher ist 3D ohne Shutter Brille fuer folgende Dinge besser geeignet: Betrachten von 3D Photos Designarbeiten (Industriedesign, Archithekten, etc...) Fuer Simulationsprogramme Sicher wenige gut geeignet als die Shutterbrillenloesung is die ohgen Brillen Loesung fuer: Spiele mit serh schnell wechselnden Perspektiven / Bildtiefen Wenn mehrere Leute vor demselben Bildschirm sitzen Wie gut die Leosung ohne Brille fuer normale Filme in 3D ist haengt davon ab, wie gut das Hirn des einzelnen die wechselnden Bildtiefen verarbeitet und die Augen neu fokusiert. Schnuffel hofft Euch damit geholfen zu haben und sendet Schnuffelige Gruesse aus Atlanta
  15. Hallo zusammen Schnuffel warnt: Es gibht mit vielen neuen BIOS groebere Probleme mit SSD Laufwerken. Die SSD's ahengen sich dan waehrend der Initialisierung des BIOS auf und dan hilft nicht smher! Das hat mit ienem Timning zu tuen... Und wenn man das Problem bis heute noch nicht hat, so heisst das nicht, dass es vielleicht mit dem naechsten BIOS Update kommt!!!! Betroffen sind viele SSD Hersteller... Bei Kingston ist die V Serie betroffen. Die von Schnuffel bempfohlene "V+" Serie ist nicht betroffen. Bei Kingston sind es folgende Serienummern: SV100S2/64GZ, SV100S2D/64GZ, SV100S2N/64GZ SV100S2/128GZ, SV100S2D/128GZ, SV100S2N/128GZ SV100S2/256GZ, SV100S2D/256G, SV100S2N/256GZ SV100S2/64G, SV100S2D/64G, SV100S2N/64G SV100S2/128G, SV100S2D/128G, SV100S2N/128G SV100S2/256G, SV100S2D/256G, SV100S2N/256G Die Serienummer der Laufwerke seht Ihr zum Beispiel im Intel Storga Manager. Das Update bei Kingston liegt hier: Kingston Technology Company - Support - Solid-State Drives Bei Samsung liegt das Update auf: Samsung Intel und OSZ haben noch keinen ProblemFix fuer deren betroffene Drives veroeffentlicht. Und nur Kingston hat sich die Muehe gegeben, das Problem wenigstens etwas zu beschreiben! Gruesse vom Schnuffel
  16. Hallo zusammen Euer Schnuffel ist unterdessen in Atlanta angekommen. Und weil Schnuffel nie ganz zufrieden ist, hat er bis zuletzt an seinen Vortraegen Fuer Atlanta gefeilt. Darum war er in den letzten Tagen etwas ruhiger! Aber es geht im gut und Schnuffel bedankt sich bei allen, die sich schon Sorgen um ihn gemacht haben! Er ist wirklih gesund und happy, sogar die Delta-Misshandlung hat er nach dem motto "geschuettelt und nicht geruehrt" einigermassen gut ueberstanden. Unterdessen weiss Schnuffel sogar wieder, wo oben und unten ist!!! Fuer die, die es interessiert: Schnuffel haelt in den naechsten Fagen da Microsoft TechEd North America 2011 Microsoft TechEd North America May 16-19 Atlanta, GA verschiedene Vortraege zur Hardwareentwicklung, etc... Und dabei trifft er auch noch Leute von Intel (die hoeren hoffentlich nach dem Sandy Bridge Debackel nun besser auf ihn) und Nvidia... So, nun zu OPTIMUS: Sicher erinnert Ihr Euch, dass Schnuffel schon einige Mahle davor gewarnt hat. Optimus wird ueberschaetzt. Betrachtet nun bitte das Bild: Die rechte Seite koennt Ihr ignorieren. Die zeigt nur an, wie das online Update der Profile funktionieren soll. Wirklich wichtig ist Links. Und Gruen ist NVIDIA, BLAU ist Intel, die SCHWARZEN Kaestchen sind die Dinge, die sich NVIDAI und INTEL teilen ... So, nun haben wir Problem Nummer 1: Das Display haengt IMMER an der Intel. Daher kann ja Optimus auch bei den 3D Aliens nicht funktionieren, da Intel die Display's nur bis zu 60Hz ansteuern kann. Auch sehen wir da gleich Problem Nummer 2: Daher kann man OPTIMUS gar nicht wirklich ausschalten!!! So nun, schauen wir weiter nach oben. vor dem Display haben wir ja das "OS Desktop Composing". Tja, was ist denn dass? EInfach gesagt, dass ist der Bildschrim, so wie in der Anwender sieht. Das kann also nur ein Bild sein (bei einem Game im Vollbildmodus zum Beispiel, oder ein Desktop, mit Fenstern drauf, was, wenn die Fenster nur Excel und Word sind, technisch auch wieder nur ein Bild ist. Aber wenn die Fenster nun zum Beispiel ein Game und ein Laufender Video Film sind, dan sind es technisch 3 Bilder, naemlich: - Das Desktop mit zwei Loechern drinn - Das Bild vom Game um Loch 1 zu fuellen - Das Bild vom Media-Palyer, also der Film, um loch 2 zu fuellen Jedes dieser Bilder wird separat berechnet. Das heisst also, ass das Desktop Bild sicher von der Intel grafikkarte kommt, die beiden anderen koennen, entsprechend den Settings, aber auch von der NVIDIA kommen. Tja, und im "OS Desktop Composing" weird das nun zu einem Bild zusammengesetzt. Das eiegtnliche Zusammensetzen erledigt hier wiederum die Intel Grafik, ein weiterer Grund, wieso wir die nicht ausschalten koennen. Nun betrachten wir den grossen gruenen Kasten Links. Der Zeigt uns, was die Nvidia im Rendern macht. Aber Hallo... Schnuffel findet da ncoh zwei ganz interessante Dinge: "Fast GPU Init" und "Optimus Copy Engine". Tja, was soll den das? Ist doch ganz logisch: Da die Nvidia eigentlich schlaeft, muss man der erst mal eine Saftige Moehre vor die Nase halten Schnuffel hat Hunger) um sie wachzukriegen. Wenn NVIDIA dan gerechnet hat, muss man NVIDA noch dazu bekommen, das Zeugs irgendwie zu kopieren.... Rechts in der blauen Kastenversion "IGP Rendering" werden einfachere DInge von der Intel gerendert. Zum Besipiel das Desktop... Tja, schauen wir nun noch weiter hoch, da haben wir noch einen Kasten: "Optimus Routing". Das ist, findet Schnuffel, das Frauenkaffekraenzchen (zwischen Madame Intel und Madame NVDIA, wo ausdiskutiert wird, wer den nun was macht...) So, nach dieser langen Erklaehrung kommt Schnuffel zu folgenden Fakten: 1.) Wir koennen OPTIMUS nicht wirklich ausschalten 2.) Ein System mit Optimus ist garantiert immer langsamer also ein System mit gleicher NVIDIA OHNE Optimus, da OHNE Optimus Dinge wie "Optimus Routing", "Fast GPU INIT", "Optimus Copy Engine" und "Desktop Composing" wegfallen 3.) Die moeglichkeiten des INTEL Graphikchipes (was dessen Hardwaretechnisches Interface zur Bilddarstellung betrifft) limitieren die Bandbreite der einsetzbaren Display's bewaltig: Naemlich bei den Punkten Aufloesung (1900 x 1080 ist das das Maximum) und Bildiederholfrequenz (da ist 60 Hz das Maximum). Dazu kommen noch wietere Limitierungen wie im Bereiche virtueller Bildraum, Ramdac etc... Produkte, die in diesen Bereichen die moeglichkeiten vom Intel - Grafikteil ueberschreiten, sind unter Optimus NICHT zu laufen zu bekommen 4.) Die Optimus-Loesung spaart Strom, da die NVIDIA GPU unter umstaenden wirklich schlaeft So, nu wollt Ihr von Schnuffel wissen, was Das heisst also , man wirklich tuen kann: Da gibt es nicht wirklich viel. Man kann natuerlich mit den bestmoeglichen Profilen versuchen, das Beste rauszuholen. Wenn aber die NVIDIA schon Rendert, bekommt man es nicht merh besser hin. Diese Profiule helfen also nur bei Applikationen, wo die NVIDIA schlaeft. Da kann man sie mit der Moehre wachruettelt. Ob die NVIDIA zur Zeit gerade schlaeft oder werkelt, koennt Ihr mit dem beiligenden Tool herausfinden. Weiter kann man im Notfalls den blauen Kasten "IGP Rendering" ganz stillegen, naemlich indem man auf dei nstallatrion des Intel Optimus Treibers verzichtet. Dieser Treiber wird naemlich vom Intel Chip benoetigt, sonst kann er nicht rendern. Seine anderen Funtkionen stecken im BIOS. So, das war viel Theorie. Nun moechtet Ihr vielleicht noch wissen, wo OPTIMUS den nun sinn macht. Das ist ganz einfach: In Ultraportablen Notebook's, wo man auch mal Filme schuaen woill und vielleicht mal ein durchschnittliches Game Zockt -sagt Ihr doch- macht es Sinn. Im Falle Alienware waeren dass dan die M11 und die M14 Serie. In High Eng Geraeten ist es Bloedsinn. Wenn Ihr nun aber fragt, wieso dass OPTIMUS auch im M17xR3 und im M18 steckt, da hat Schnuffel eine einfache Rechtfertigyung: Da das ganze ein Feature der Sandy Bridge ist, ist es ganz automatisch Verbaut sobald ein Cougar Chip, eine Sandy Bridge CPU und eine NVIDA GPU zusammenkommen. Man kann dass dan nur austricksen, indem man einen 100% eigenstaendigen Grafikchannel aufbaut, wie ihn zum Beispiel der m17xR3 mit dem 120 HZ 3D Dsiplay hat. Technisch waere es antuerlich auch moeglich, ein normales Display so anzuschliessen. Das macht dan aber niemand, da dafuer zusaetzliche HW Komponenten benoetigt werden, die man mit der Optimus Bestueckung nicht brsaucht. Und marketingtechnisch macht sich halt ein niederigerer Preis und das OPTIMUS Label nicht so schlecht... Viele Guesse vom Schnuffel OptimusTools_64bit.zip
  17. Schnuffel meint: Beim M17xR3 sollten die Aktuellen Pro-Loads in Ordnung sein. Die pre-Loads haben alle neuen treiber, nicht aber die mitgelieferte DVD. Also daher ist eine Neuinstallation nicht wirklich noetig. nicht einmal, wenn man auf SSD geht: Am besten ein System Image machen und wieder auf die SSD kippen. Fertig! Gruesse vom Schnuffel
  18. Naja, Schnuffel meint: Geplant wurde bei den Aliens schon vieles. Das da zum Beispiel: CES 2008 - Alienware Curved Widescreen LCD Screen Oder das: http://www.futurebytes.ch/wp-content/uploads/2008/02/alienware_android_mobilephone1.jpg Warten wir einfach mal ab, was entschieden wird. Sobald da definitiv was entschieden wird, weiss es Schnuffel... Und im Moment wird es kaum sinn machen, ein Tablett zu bdingen. Apple ist in der Pool position wird wird in naher zukunft mit einem 3D Tablett nachdoppeln... Wenn da mal was kommt, dann in 3D. Und nachdem Apple die Anfaengerfehler gemacht hat... Also ein Alien-Tablett ist im Moment wirklich nur lauwarme Luft! Gruesse vom Schnuffel
  19. Dass er ein B2 Board bekommt, ist niecht wirklich moeglich... Schnuffel meint, dass es heir um einen M17xR1 geht, und der hat nie eine Sandy-Bridge. Weder mit noch ohne Fehler... Gruesse vom Schnuffel
  20. Schnuffel meint: Akku und M17xR3 sowie M14x und M11XR2 / R3: Das Akkuladen oder nicht laden kann man bei den neuen geraeten heute zur Zeit nur im BIOS ein und ausschalkten. "FN" & "F2" zeigt nur den zustand an, stellt aber das Laden oder nicht laden nich ein / aus. Das geht nur im Bios. Dazu kommt, dass man solche Li-Ion Akku's nur ca. 500 x wirklich richtig aufladen kann, nachher altern sie sehr merklich. Daher sollt man das Akkuladen nur dan einschalten, wenn man den Akku tatsaechlich braucht. Gruesse vom Schnuffel ---------- Beitrag hinzugefügt um 13:01 ---------- Ursprünglicher Beitrag wurde erstellt um 12:52 ---------- Tja Leute, ganz einfach: 1366 x 768 = 1'049'088 Pixel total 1600 x 900 = 1'440'000 Pixel total Demzufolge hat das 1600 x 900 ganze 40% mehr Pixel bei DERSELBEN Diagonalen. JA, DER UNTERSCHIED IST RIESIG!!! - Das Bild erscheint viel schaerfer und kontrastreicher - Es ist viel feiner - Das 1600 x 900 Display hat weiter den besseren Kontrastwert und ein besseres schwarz. Auch das Backligt ist heller. Gruesse vom Schnuffel
  21. Schnuffel meint: Das ist absolut unmoeglich. Die Maske kann nicht falsch ausgelesen werden. Und so was wuerde Intel auch nie bestaetigen, den dann haetten die bereits den naechste Skandal! Also B2 ist BS und hat den Fehler, B3 ist B3 und ist auch wirklich fehlerfrei. Aber wie gesagt, die, die es nicht glauben, werden es dan in 2-3 Jahren auf die harte Tour lernen: Dann naemlich werden 80% der B2 Chipsaetze versagen... Gruesse vom Schnuffel
  22. @Pyronidas Versteht Schnuffel... Schnuffel hat nur gedacht, dass es vielleicht jemand motivieren wuerde, Dir ein Angebot zu machen. Weisst Du, wenn Du die Kiste verkaufen willst, muss der Kaeufer ja auch wissen, wie er sie wieder hinbekommt. Und Dell kann eben SEHR stur sein. Und das Problem ist, dass eben leider tatsaechlich meistens (Schnuffel sagt jetzt nicht bei Dir) die abgebrochene Plastikteile der USB Stecker auf Kunden fehler zurueckgehen. Man steckt etwas ein und vergisst es auszuziehen wenn man das Geraet an der anderen Seite hochhebt, zum Beispiel... Wenn man alles zerlegt, SIEHT man dan ganz deutlich ob es Kundenfehler war oder nicht. Aber offenbar fehlt Dell dazu die Motivation... Aber vielleicht kriegst Du das Ding ja mit einem kleinen Trick repariert: Sicher hat das Teil ja einen elektronischen Schaden... Stuerzt vielleicht staendig ab oder friert ein oder so... Schaden so an Dell melden. Aber darauf hinweisen, dass das geraet noch in garantie ist und dass dieser Schaden (z.B. stuerzt nach 4 Stunden ab, auch wenn Du nichts daran machst) in Garantioe zu beheben sei. Am besten per e-mail. Weise darauf hin, dass Du, da Du ausser am Wochenende nicht zuhause bist, das Geraet lieber einseden wuerdest. natuerlich laesst Dell das Ding dan bei dir abholen. Du bekommst dazu einen sogenannten RMA - Auftrag, den gibtste dan UPS mit... Schnufffel wuerde wetten, das der Alien einige Tage spaeter mit einem neuen MB bei Dir aufschlaegt. Und Ende der Geschichte... Ach ja, und wenn die mal wegen den USB Port's anrufen: Brauchste Du ja nicht... Wer benuetzt heute noch USB2? Und wenn doch, die Kiste hat ja eh genug... Also koennen die nichts verrechnen. Aber rechtlich duerfen sie natuerlich die defekten Buchsen an ein gutes MB loeten... Aber Schnuffel bezweifelt, dass bei Dell jemand weiss wei man ein Loetkolben bedient... Gruesse vom Schnuffel
  23. Tja, Leute, Schnuffel muss da mal wieder helfen... Also je nachdem, ob es ein m17xR1 oder ein M17xr2 ist, sind die betroffenen Stecker nicht unbednigt auf dem MB, sondern eventuell auf einem kleinen Schnittstellenboard... Aber wie auch immer. Es gibt eine sehr gute zuverlaessige Bezugsquelle fuer Original-Teile in Las Vegas... Und wenn man nett mit denen spricht, versenden die die Ersatzteile WELTWEIT. Dass m17xr1 MB kostet dort zur Zeit weniger als 200 us$, das m17xr2 ist fuer unter 300us$ zu haben. Und was der US $ heute noch wert ist, wissen wir ja alle. Hier der Link: Laptop Doctor | Expert Repairs for Dell, HP, Toshiba, Sony Wenn man es guenstiger haben will, kann man den leuten auch die defekten Boards senden. Sie reparieren die und senden die dan zurueck... Gruesse vom Schnuffel
  24. Da kommen immer so viele Fragen zum M18x... Naja, auf das Risiko das mal wider ein Admin hinter Schnuffel aufraeumen muss hier das Manual des M18x. Da findet ihr viele guten Infos, speziell zur frage was im Bios zum Beispiel alles freigeschaltet ist und welche Memroykonfigurtaionen laufen. Gruesse vom Schnuffel M18x US.zip
  25. @fritzilein Naja, ganz so ist es nicht. Sicher hat Schnuffel in 6 Monaten mal wieder neue Tische. Ist ja dan auch schon fast wieder CES Las Vegas. GRINS... Aber Schnuffel meint, dass der M18x ein richtiges High-End Teil sein SOLLTE. Aber noch nicht ist, da zur Zeit da: - Der 120HZ Screen vom m17xR3 besser ist der Screen vom m18X, den man im Moment ordern kann - Beide KIsten identische CPU's unterstuetzen - Beide Kisten (also auch der m17xr3) 32 GB Ram haben koennen, auch wenn DELL das nicht zugibt und sagt dass der m17xr3 "nur" 16GB kann. - DUAL GPU beim M18x erst mit 2x GTX485m Sinn macht, was man aber noch nicht bestellen kann - Der M18x eine ganze Menge mehr kostet Also will man das Mehrgeld wirklich fuer einen PC-Card Slot und eine zusaetzliche Tastenleiste bei schlechterem Display ausgeben??? Und wenn Du jetzt das Argument bringst, dass man den m18x mit ATI Crossfire kaufen kann, dan haste zwar recht, aber kaufe Dir lieber einen m17xR3 mit 120 HZ Screen und bei der Quelle die Schnuffel mal an die Admin's gegeben hat eine GTX485m dazu und Du hast am Ende weniger Geld ausgegeben und mehr Computer dafuer... Darum meint Schnuffel dass es fuer den M18x im Moment einfach zu frueh ist! Gruesse vom Schnuffel!
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.