Zum Inhalt springen

Schnuffel

Mitglied
  • Gesamte Inhalte

    937
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    127

Alle Inhalte von Schnuffel

  1. @struselix Schnuffel haelt das fuer ein Geruecht: Das ist naemlich genau anders-herum: Wenn man das 120 HZ Dispaly hat, kommt man mit der Haelfte des Backlights auch bei sehr hellen Raeumen aus. Weil das Display naemlich viel schnller ist, ist der Lichtverlust viel geringer, verglichen mit dem normalen Display. Wenn man also ein #D Geraet mit einem nicht 3D Geraet vergleicht und beide Geraete GLEICH betreibt (wobei hier gleich gleiche Funktion bedeutet, also das 3D Geraet wird zwar mit 120 HZ betrieben aber 3D bleibt ausgeschaltet, und die Displays werden so eingestellt, das sie bei beiden Geraeten OPTISCH gleich hell erscheinen), verbraucht das 3D deutlich weniger Strom. Wenn man nun noch beim 2D Optimus hinzuzieht, um Strom zu spaaren, so muss man auf dem 3D Geraet nur das fehlende Optimus mit mit dem Tool fuer NVIDA tuning, welches Schnuffel vor Monaten mal hochgeladen hat, ersetzten, und das 3D Geraet braucht wieder weniger Energie! Grund: Einer der Hauptenergieverbraucher ist das Backlight!!! Gruesse vom Schnuffel
  2. Schnuffel empfiehlt allen, die den M17xR3 ordern: Bleibt von Optimus weg! Und investiert in das 3D Display. Die 120 Hz sind es wert. Und vielleicht schreibt mal jemand wie der Alien Klingkomisch von seinem Eindruck, nachdem er ein Optimus-Teil retourniert hat und ein neues mit 3D bestellt hat. Diese Aliens haben dan naemlich den direkten Vergleich mit und ohne 120 Hz. Und das 120 Hz Display hat wirklich ein viel extremeres Schwarz und somit ein hoeherer Kontrast! Dazu kommt die volle Performance und keine Optimus-Problemchen... Gruesse vom Schnuffel
  3. Schnuffel meint: Ganz einfach: 3D ohne Optimus waere technisch auch teurer als die Loesung mit Optimus. Da die Intel-Teile dieselbigen sind und die GPU von Nvidia dan ja 100% eigentsaendig sein muesste, also auch ueber funktionierende Endstuffe und Ramdaz verfuegen. Die Sandy Bridge kann man aber bei Intel nicht ohen Optimus ordern, Geht leider nciht. Und wuerde jemand nach dem riesigen Marketinghype um Optimus verstehen, wieso er fuer DASSELBE ohne Optimus mehr bezahlen muss? Schnuffel meint nicht. Daher wird DELL das weiterhin so anboieten; Dan hat jeder das gefuehl, dass der ganze Mehrpreis von 3D kommt. Und niemand wird verlangen, dass der ganze Optimus Schrott eigentlich viel billiger sein soillte als das, was man noch vor Optimus verkauft hat! Gruesse vom Schnuffel
  4. Schnuffel meint: Nein, es hanegt NICHTS direkt an der Nvidia wenn Du optimus hast. Nicht mal HDMI... Darum kann bei GPU nicht alles eingeschaltet sein, wenn Du Optimus hast., sonst wuerde es naemlic knallen, den ndan haettest Du 2 Signale an der HDMI Buchse... Gruesse vom Schnuffel
  5. Schnjuffel meint; Ja doch. Und das 120 Hz Display (das 3D Ding) nicht vergessen. neben dem besseren Bild verhindert es die Optimus-Probleme und auch den damit verbundenen Leistungsverlust! Gruesse vom Schnuffel
  6. Schnuffel meint, das man bei Gareaetn wie dem m17xR3 ohne Optimus besser drann ist als mit. Begruendung: - Ohne Optimus ist die Performance deutlich hoeher - Ohne Optimus hat man keine Kompatibilitaetsprobleme - Gewisse Programme machen mit Optimus darstellungsprobleme (auch Applikationen, nicht nur Speile) Gruesse vom Schnuffel
  7. Schnuffel meint: Liebe Aliens bitte macht keinen Murks! Wenn man etwas irgendwo ereinstecken kann, heisst das ncicht, dass es dafuer gemacht ist. Schnuffel koennte Euch nun tausend Loecher aufzaehlen, wo man Moehren reinstecken kann, aber es nciht unbedingt tun sollte. So, nun zum Anschauungsunterricht. Da das Bildchen der Stecker: 17 und 18 sind die beiden Displaystecker. Wie Ihr seht, ist die 18 wesentlich hoeher gelegen und verfuegt ueber eine Verschraubung. Weiter haben wir eine ander Pinbelegung und Abschrimung. Und wenn ich nun einer dieser Stecker, der normalerweise in 18 drinn steckt in die 17 stecke, habe ich einen wunderschoenen Kurzschluss mit den Schrauben zu den beiden Kondensatoren oberhalb von Stecker 17. So, nun findet vielleicht noch ein rafiniertes Alien, Schnuffel hat recht aber man koennte ja ein Stecker, der in 17 drinn war nach 18 stecken. Nun ja, das funktioniert naemlich nur gerade bis man die Kiste wieder zusammenbaut. Die Kabel, die in 17 drinn stecken haben natuerlich einen anderen Stecker als die von 18. Naemlich keine Schrauben. Dafuer verhindert die Steckerkonstruktion, das die Stecker nicht rausfallen (sie stehen hinten fast am Gehaeuse an). Tja, dummerweise ist nun aber Stecker 18 hoeher als die 17. Einstecken eines Kable von 17u ist zwar moeglich, aber Geraetezusammenbauen dan nicht mehr... Gibt es in diesem Zusammnehang noch Fragen an Schnuffel???? Schnuffel haelt naemlich an seiner Darstellung fest, dass die beiden Stecker mechanisch unterschiedlich sind!!! Nun weiter gedacht: Wieso will jemand das Display umstecken? 1.) Nun, wenn er Optimus moechte... Tja, dan hat er 3D, den sonst haette er Optimus. Wenn er nun also auf Optimus wechseln wuerde, dan haette er kein 3D und keine 120 Hz mehr, dafuer die Optimus-Probleme. Schnuffel wuerde das schoen doof finden 2.) Wenn jemand Optimus hat und gerne die Optimus-Problemchen los haben moechte... Tja, das wuerde Schnuffel verstehen. Diese Versuchung ist wirklich sehr gross. Nur, wie war das mit Optimus nun gleich? Erinnert Ihr Euch an Schnuffels Optimus-Erklaehrung mit Diagramm (Admin - Bitte hier link einfuegen! Schnffelndes Dankeschoen)??? In einer Optimus-Konfiguration fehlt der NVIDIA so das eine oder andere, damit Intel das alles so schoen zusammensetzen kann. Schnuffel meint, dan fehlt so das eine oder andere wesentliche Ding um das Ganze ohen Optimus wirklich zum Laufen zu kriegen! Ein kleiner Hinweis noch: 3D kostet nicht wirklich nur wegen 3D mehr. Wenn man die 3D Option auswahlt, kriegt man eine MXM GPU, welche NICHT mit Optimus kompatiebel ist und fuer seich eine vollwertige GPU darstellt. Wenn man die 3D Option NICHT auswaehlt, bekommt man eine MXM GPU, die fuer Optimus gebaut ist. Diese wiederum ist etwas guenstiger, weil nicht alle Teile darauf sind / oder nicht alle teile darauf arbeiten muessen (oftmals werden downgrade GPU's in Optimus Systeme verkauft. So kriegt man diese GPU's auch noch los und niemanden stoert's, den der RAMdac darauf darf defekt sein, braucht man ja im Optimus betrieb nicht (nur ein Beispiel)). Gruesse vom Schnuffel
  8. Schnuffel meint: Area 52 ist kein neues Alienware-Produkte. Es geht hier um die Alienware Area 52 Tour, welche in Kuerze losgetreten wird. Dabei handelt es sich um die Groesste marketingaktion, die Aliwanware bis heute unternommen hat. Im Vordergrund steht das Komitmend von Alienware zur 3D Technik. Die Tour und die Amrketingaktionen werden und von diesem herbst fuer ca. 1 Jahr mbegleiten. In dieser Zeit wird ein Feuerwerk von neun Aliens auf den Markt kommen und bei Dell werden die XPS System komplett eingestellt. Das die positive Nachricht. Negativ koennte allenfalls zu verbuchen sein, dass Alienware in naehr Zukunft AUSSCHLIESSLICH absolute High-End Displaytechnick verbauen wird, was die Presie der Systeme etwa 20% in die Hoehe druecken wird! Also wer nicht wirklich 3D braucht oder kein absolutes High-End 3D sollte vielleicht heute zum m17xR3 (aber donnoch wegen den 120 Hz zum 3D Display) greifen. So Schnuffel hat jetzt schon sehr viel verraten. Er sollte also nicht noch mehr sagen... Aber er wiederholt sein Angebot: Kommt doch Schnuffel an der CES in Las vegas besuchen. wenn er das frueh genug weiss, kann er gerne ein Treffen mit seinem Team und den Aliens arrangieren. Das koennte dan durchaus Fun und Party bedeuten! Auch die Area 52 Show-Fahrzeuge werden in Las vegas sein. Aber nicht vergessen: Es ist eine geschlossene Show. Also einfach vorbeikommen ist nicht, da kommt man nicht rein. Das muss man im Vorfeld organisieren. Gruesse vom Schnuffel
  9. Schnuffel meint: Es gibt noch einen nicht zu verachtenden unterschied zwischen der m460 und der m560: Offenbar ist es noch niemandem aufgefallen, dass die m560 generell die viel bessere darstellung hat. Wasser, Spiegeleffekte, und andere Details werden viel sauberer gerechnet und die 560 laesst ca. 80% weniger Berechnungsfehler zu als die 460m. Das mag fuer Spiele nicht wichtig sein, aber fuer das 3D Design schon. Besipiel: Wenn ein 3D Koerper eine kleine Abweichung aufweisst, sieht man das am Bildschirm vielleicht nicht. Es mus nur sein, dass sich zwei Linien eines Koerpers oder einer Flaeche nicht treffen. Dabei reicht es, dass sie wegen einem Rundungsfehler um 1nm aneinader vorbeilaufen., Und nun will man eben diese Flaeche fuellen oder ein Materila dem Koerper zuweisen. Was passiert? Es laeuft aus und andere teile nehmen dasselbe Material, Farbe oder Flachenstruktur an. Nur ein kleines Beispiel, wieso Bildqualitaet im Professionellen Bereiche wichtig ist. Fuer Spiele koennte man nun die Darstellungsqualitaet der 560 auf dasselbe Niveau wie das der 460er senken. Dan wuerde auch die Framrate dramatisch steigen. Nur die jetzigen treiber lassen das nicht zu. Gruesse vom Schnuffel
  10. @3n0n2010 Schnuffel meint: Aslo die "Dell" Mitarbeiter am Telefon (die sind naemlich gar nicht wirklich von Dell, sondern das ist eines der groessten Call-Centern in Europa) haben KEINE Ahnung. im m17xR3 3D bundle IST EINE AKTIVE NVIDIA 3D BRILLE DABEI. Darum heisst das ding ja auch "Bundle" . Wenn schnuffel eine Moehre kauft, ist es eine Moehre. Wenn es dazu noch was gibt, wie zum Beispiel lekeren Salat oder eine gelbe spezial-Moehre ist es dan eben ein Moehren-Bundle oder Packet!! Gruesse vom Schnuffel
  11. Das ist nich ganz richtig, meint Schnuffel. Die 560m ist Praktisch di egleiche Karte wie die 460, ABER: die GPU der 560 ist komplett neu. Komplett neu heisst hier nicht ein neues GPU design, sondern die GPU der 560 wird in einem neuen x-Ray verfahren hergestellt. Faktisch hat dieser Chips (wie auch der bei der 580er) Leistungsreserven bis zum Abwinken. Im Moment ist davon allerdings noch nicht viel zu merken, da die Treiber noch nicht auf die 560er und 580er angepasst sind. Im Herbst werden die neuen treiber (nicht einfache Treiberupdates) verfuegbar werden. Dann wird sich die Differnes zwischen 460 und der 560 sowie zwischen der 480/85 und der 580 werst so richtig auftuen. Gruesse vom Schnuffel
  12. Schnuffel meint: Aufgepasst! Der i5: - Ist nicht spoarsamer als der i7 - Er bleibt auch nicht kuehler Und der i5 kann einfach kein Hypertreading!!! Zudem hat er GLEICVIELE Cores wie der i&, aber er kann kein Hypertreading. Hypertreading verduppelt die Anzahl der Tatsaechlichen Cores. So das bei eingeschaltetem Hypertreading pro Core im Windows Perfmon 2 Cpu's erscheinen! Also er braucht auch fast gleich viel Saft. Gruesse vom Schnuffel
  13. Schnuffel meint, dass ist so: Um EFI in der Zukunft unterstuetzen zu koennen, benoetigt das MB einen spezielle Chip. Diese ist bei allen neuen Alliens auf dem BM bereits vorgesehen und bei allen M14x und etwa bei 60% der M17xR3 boards, die Schnuffel schon zu Gesicht bekommen hat, vorhanden. Ist diese HW vorhanden, kann theroetisch EFI installiert werden. So, nun zu den Fargen: 1.) Ne, das kann er nicht http://ark.intel.com/products/50067/Intel-Core-i7-2720QM-Processor-(6M-Cache-2_20-GHz). Er kann das Memory zwar benutzen, aber nicht mit der richtigen Taktfrequenz und der richtigen Latenzzeit. Dafuer braucht's schon eine bessere CPU (die X-Trem kann das nach Datenblatt zwar auch nicht, aber da die Konfiguration moeglich ist, klappt es dan mit den Meisten doch). Der 2720QM wird das ganze als 1600 MHz (schneller kann er nicht) abhandeln. 2.) Das stimmt, wenn man die Plug&Play Version der Hyper X installiert. Installiert man die ohne Plug und Play muss man von Hand umkonfigurieren (und guckt in die Roehre, wenn das im BIOS gesperrt ist...). Gruesse vom Schnuffel
  14. Da gibt Schnuffel Welpi recht. Wuerde Dell ueberal die richtigen Werte angeben wuerden definitiv mehr der guten CPU gekauft. So hat man einfach das problem, dass wenn man Dell glaubt, das Gefuehl hat einen riesige Summe Aufpreis fuer ein bisschen Schneller im Turbomode hinzublaettern. Dass man mit dieser Summe aber eigentlich hauptsaechlich 2 MB mehr Cache und 4 Channel RAM support kauft, das weiss man dann eben nicht. Und so spart man sich die zusaetzlichen Ausgaben, weil man denkt, dass es nciht viel bringt... Aber eben das ist halt das Problem mit diesen Billig-Callcentern: Die leute dort haben noch nie so'n Ding gesehen. Und was in deren System steht sind zu mehr oder weniger gute Uberzsetzungen einer Indischen Billigfirma... Da kann man nicht viel mehr erwarten. Leider! Nur wenn man einen Alienware kauft, gibt man echt viel geld aus. Also sollt eman vielleicht 2-3 Tage Evaluation und Selbstinformation in die Kaufentscheidung einfliessne lassen. So kann man sicherstellen, dass man nicht gerade in jede Dell Falle tapt. Auch Schimpfen auf Dell bringt nichts. Anderswo ist es naemlich auch nicht besser! Gruesse vom Schnuffel
  15. Schnuffel meint: Die sind ein bisschen doof bei Dell. Es ist eine Brille dabei. Wie viele Moehren wettest Du mit Schnuffel ??? Die im Call Center wissen das nur nicht. Die haben ncoh nie so'n Ding gesehen!
  16. Schnuffel meint: Seien Beitraege sollten sich eigentlich schon zu lesen lohnen. wenn dem nicht so ist, dan macht Schnuffel was falsch und bittet um Nachricht. Schnuffel ist naemlich auch lernfaehig Also intel verkauft: - Mist CPU's (deklarieren die aber nicht als solche) Beispiele: Atom, i7 2630QM: Intel® Core - Brauchbare CPU's (deklarieren die auch nicht besonders) Beispiel: i7 2820QM: Intel® Core) - Super CPU's (Deklariert als "Extreme") Beispiel: i7 2920XM: Intel® Core In diesem Zusammenhang moechte Shcnuffel einmal mehr festhalten, dass die technischen Daten des i7 2820 QM in Dell's Bestellsystem immer noch nicht stimmen: Das Dell System wiesst diese CPU noch immer mit 5 MB Cache aus, korrekt waere aber 8 MB. Schnuffel vermutet schon fast dass die das extra machen um noch ihr Lager an 2630QM's loszuschlagen. Schnuffel hat das schon wiederholt gemeldet... @svl7 und auch @struselix Tja Leutchen, wie war das mit Schnuffel's postings? Bitte immer genau lesen... Also das Standart-Bios hat alle Schutzmechanismen eingebaut. Das heisst, was Ihr dort am Baseclock einstellt, ist nichts anderes als eine nette Empfehlung. Die Sandy nimmt den automatisch runter, wenn es zu Problemchen kommt. (Daher ist die Kiste im Sommer auf dem Gartensitzpaltz auch langsamer als im Winter bei 18 Grad Schlotter auf dem Tisch!) Hat also nichts wirklich mit Uebertackten zu tuen. Ist merh eine freundliche Empfehlung an die Sandy nach dem Motto mach mal 110 Mhz wenn Du moechtest und alle inverstanden sind! Da die Sandy aber in diesem Bios automatisch zurueckgeht, wenn es zu problemchen kommt oder ein Temperatursensor Fischsupper aeh, schnuffel meint natuelrich Bitsuppe nahe dem Sidepunkt anzeigt. Im Freigeschalteten Bios sagt die Sandy dan: Ok. Du willst 110 Mhz haben. Kannste haben, wer nicht will oder kann bleibt auf der Strecke! Gruesse vom Schnuffel
  17. Schnuffel meint: Die Plug & Play Version unterstuetzt bei Tunning Bios, welche hierfuer eine "Auto" einstellung haben, das automatische zuweisen der richtigen Spannung und Taktfrequenz. Kann aber natuelrich in den betroffenen Bios auch einfach umgangen werden, indem man eben nicht "Auto" einstellt... Bei den Aliens empfiehlt sich diese Version, will man die Memorys nicht ersetzen wenn dan EFI kommt Die Anderen gehen auch, aber werden mit der lieben EFI den einen oder anderen Nachteil haben... Gruesse vom Schnuffel
  18. Schnuffel meint: Aber gerne doch! Und bitten die Community wieder einmal, seine Postings genau zu lesen. Man uebrliest schnell mal eine Moehre! Und das kann in Frust enden... Also lieber etwas genauer Moehren sortieren... Und dan merkt man schnell, dass das nix B-Ware ist. Schnuffel wuerde die B-Ware oder China-Mist empfehlen. Das gibt dan frueher oder spaeter (meist frueher) eh nur faule Moehren... Gruesse vom Schnuffel
  19. Schnuffel meint: Ja, dan ist 1 Stueck der Nvidia Aktiv-Brille dabei. (Es gibt aktiv und Passivbrillen von Nvidia, die aktiven sind natuerlich die besseren). Wenn man moechte, kann man dazu noch extra-Brillen bestellen. Gruesse vom Shcnuffel
  20. Schnuffel meint: Du brauchst ekeinen 2ten Antennenanschluss. Der ist bei GMS / Edge eh scheisse. Daher haben die Handy's auch nur eine Antenne.... Das hat Schnuffel aber bereits in der Anleitung gesagt: Von der Mitgelieferter Antenne braucht man nur das weisse Kabel. Das Schwarze ab in die Tonne. Die 2 Antennenanschluesse bei GMS / EDGE Karten kommen nur daher, dass USA zum Teil noch ANALOGE netzte betreibt. Die US-Versionen betreiben dan beide Netze Parallel, daher die beiden Anschluesse. Aber in Europa ist das verboten. Das ist eben auch der Grund, wieso DELL diese Option in Europa nicht anbietet: DIe haben nur GMS / EDGE Karten fuer USA an Lager. Die duerfen in Europa nicht in den Umlauf gebracht werden... Also keine B-ware, sondern richtige Europa-Ware! So, nun zum Antenneneinbau: Gleich beim Kartenslot befindet sich im M14 ja die Beleuchtung des Pseude-Lautsprechers. Die Antenne etwas biegen und gleich hinter der Beleuchtung plazieren (Da hat sie auch guten Empfang, andere Positionen im Gehaeuse funktionieren nicht). Das Kabel aufrollen und an den Stecker der Sierra anschliessen. Die Schraube bekommt man sonst in jedem Baumarkt. Das Problem ist, dass die ersten M14x hier eine 3mm Bohrung (M3) hatten, die Neueren eine M2. Mitgeliefert werden normalerweise M3 Schrauben bei den MINI-PCI Karten. Generell gilt: Achtung, HF Technik darf nicht ohne Antenne betrieben werden, das koennte die Entstuffe beschaedigen. Also immer die Antenne auch anschliessen. Noch einmal: Ihr braucht nur die Weisse. Die Schwarze kommt in die Tonne. (Die weisse ist die kuerzere ). Antenne wie oben beschrieben einbauen, sonst hat sie keinen Empfang! Gruesse vom Schnuffel
  21. Schnuffel meint: Also mit dem Basclock und Bustakt ist es wie folgt: Der Bus hat eine Geschwindigkeit. Nehmen wir mal 100 MHz an. nun haben wir noch einen Clock multiplyer, welcher fuer die Synchronisation des CPU Clock's zustaendig ist. Sagen wir mal, der lauft mit 20 (dan ist's einfach zum rechnen, ist ja ncoh fruehmorgens, Schnuffel hat noch Jetleg und eben erst die erste Kaffeemoehre reingezogen) so haben wir nun eine CPU, die mit 2 Ghz arbeitet (100 Mhz x 20 = 2 Ghz). Wenn wir die CPU nun beschleunigen wollen, so haben wir verschiedene Moeglichkeiten. Wir koennen zum Besipiel den Bustakt bei 100 MHz belassen und den CPU Multiplyer auf 22 setzen. das Ergibt nun 200 Mhz x 20 = 2,4 Ghz. Ist die CPU damit einverstanden, ist alles Paletty, der rest vom System bekommt nichts mit ausser dass der Cpu vielleicht ein bisschen waermer wird und das Netzteil etwas mehr Moehren nachschaufeln muss, da die CPU nun etwas hungriger ist. Auch die Winbelastung koennte etwas steigen, da der Fan schneller wird, schliesslich ht die CPU nun etwas waermer... bei der Variante 2 lassen wir nun den CPU Multiplyer bei 20 stehen und heben den Bustakt auf 110 Mhz an. Dan laeuft die CPU mit 110 MHz x 20 = 2,2 Ghz. Auch schoen, aber da muss nun alles, was am Bus dranhaengtm, auch mitspielen. Und da wird die ATI definitiv den Dienst quitieren, die wird nun naemlich auch mit 110 Mhz angesprochen. Das fuerht bei der ATI frueher oder spaeter zum Hitzetot. Da die Nvidia etwas mehr reserven hat und den DDR5 bei der NVIDIA vom Bos losgekoppelt ist, kann man mit der NVIDIA Archithektur eher solche Spiele machen. Das haet Schnuffel gemeint... Ihr musst naemlich beruecksichtigen, dass bei diesem Speziellen Bios alle Schutmechanismen stillgelegt wurden. So kann man nun auch mit verschiedenen Tool's aus dem Windows heraus die Frequenzen aendern. Wie man das von high-end Desktop-Systemen kennt. Wenn man die Management-Tools von diesen Geraeten einsetzen will, muss man entweder bei den Tools lediglich die Herstellerabfrage entfernen oder im Alien mit einem DMI Editor (in Google nach DMI Editor schnuffeln - eh gute Idee--- wieso gibt's nicht ein Schnuffel statt Google um das Internet abzusuchen? Werbefreie Suchmaschiene "Schnuffel", Google ist schon so zugemuellt- ) einen enstprechenden Tag ins BIOS setzen, dass das Tool, welches Ihr einsetzen moechtet meint, es waere z.b. ein Ausus oder Gigabyte was weiss Schnuffel auch nicht - Board .... Alles klar? Gruesse vom Schnuffel
  22. Tja, was soll Schnuffel den zu einem neuen Gehaeuse fuer den M18x sagen? Schnuffel weiss davon gar nichts. Was Shcnuffel weiss, ist das fuer den M18x noch ein IVY Bridge MB kommen wird. Das heisst, es wird eine neue Revision (im bestehenden Gehaeuse) geben. Die wird sicher das ganze 2012 halten. Was nachher mit dem M18x passiert, steht in den Sternen. Die Verkauszahlen des m18x sind unterirdisch. Der Dell -verkauf ist im Moment angewiesen, soviele dieser Kiste wie moeglich zu verkaufen. Daher hat man auch beim M17xR3 auf die Konfigurationen mit dem Extreme CPU bis jetzt verzichtet. Schnuffel waehre ehrlich gesagt sehr erstaunt, wenn wir in 3 Jahren noch einen M18x haetten... Der Schranktop-Verkauf laeuft halt nicht ganz wie erwartet... Da war der Anfangs-Hype und das war's dan auch schon. Was eben auch ncoh zu beruecksichtigen ist: Die Zukunft dieser Geraete gehoert definitiv der 3D Technology. Und wie alle Technologieen, die neu sind, ist die erst einmal teuer. Und fuer 18" Screen's ist sie natuerlich teurer als fuer 17". Das ist ein weiterer negativpunkt fuer den 18" Screen. Dazu kommt, dass die Echten 3D Dispaly's (also diejenigen, die bald im m17xR3 anzutreffen sein werden (uuupppsss Schnuffel vermutet, er hat mal wider etwas verraten) 3 Glasscheiben besitzen, da sie 2 LCD Christalflaechen haben. Das wiederum gibt mehr Gewicht. Und ein18" Display hat eben nicht nur 8% mehr glas als ein 17" Display.... Gruesse vom Schnuffel
  23. Schnuffel meint: M17xR3 und M18x sind weitgehend IDENTISCH vom Aufbau und Chipset.... Einen kleinen Eingriff im DMI und einen kleinen Patch auf dem BIOS-Installationstool und schon ist das M18x Bios auf dem M17xR3... Oder es geht auch so: UND JETZT KOMMT DIE GANZ GANZ GROSSE WARNMOEHRE!!!!!!!!!!!!!!!!!!! Alles was Ihr ab da lest ist weder von Dell freigegeben noch hat es im entferntesten mit Dell zu tun. Und es gefaehrdet auch tatsaechlich die HW. Alle Schutzfunktionen werden ausgeschaltet. Also bitte: MACHT NUR WAS IHR VERSTEHT!!!!! Weiter ist zu beachten, dass Ihr eine Extrem CPU und eine NVIDIA Grafikkarte zwingend braucht, um alle Optionen verwenden zu koennen. Beim Einsatz einer ATI Grafikkarte DARF DER BUSTACKT KEINESFALLS ANGEHOBEN WERDEN. Beachtet, dass es mit dem neuen Bios zwei "Main" Menues gibt... So nun zur Praxis: Ihr braucht einen USB Stick, welcher ihr mit dem Tool, das Schnuffel schon einmal hochgeladen hat Bootfaehig macht. Download des USB Tools: Anschliessend das File aus der Anlage darauf kopieren und den M17xR3 von diesem Stick aus starten. Dazu muss der Stick zwingend an den e-SATA / USB Kombi Port angeschlossen werden. Nun noch das file aufrufen. Fertig!!! (Achtung: Den Alien schoen in Ruhe lassen waehrend er flasht... Sonst gibt's Aerger...) Schnuffel weisst aber jede Verantwortung fuer allfaellige zerstoerte oder missgebildete Moehren von sich. Er kann ja schliesslich nicht immer alle Kisten testen. Und das Ganze ist sehr heikel. Und Schnuffel weiss nicht, was Dell mal wider alles so zwischendrinn auf den Motherboards weglaesst. Auf den Kisten, die Schnuffel hat, funktioniert es. So, da Ihr ja jetzt mit dem Bios rumzuspielen beginnt, wird Schnuffel warscheinlich in den naechtsen Tagen einmal eine Bios Rettungsanleitung fuer den M17xR3 schreiben. Macht er auch, versprochen... Aber erst wenn er sich mal wieder etwas von den USA erholt hat! ZUM DOWNLOAD des unlocked BIOS: Hinweis: Version A04 herunterladen Gruesse vom Schnuffel Anmerkung der Administration: Die Diskussion dieser Schnuffel-Anleitung befindet sich in folgendem Thread:
  24. Schnuffel meint: Das sieht ganz nach einem M17xR3 mit IRQ Problemchen aus... (Die Kiste muss sich mal wieder etwas sortieren) Loesung: Schalte mal im BIOS den Card reader aus. Wenn's dan nicht mehr knallt, dan nimm doch den Cardreader Treiber vom Schnuffel, meint SchnuffelXD Der ist irgendwo in den Foren drinn... Schnuffel hat den dort vor ca. 4 Monaten abgeladen... Gruesse vom Schnuffel, der eben erst wieder in der Schweiz ist. Daher hat er nicht gleich geantwortet...
  25. Schnuffel meint: Fuer den M18x gibt es eigentlich nur EINEN EINZIGEN Grund: Naemlich wenn Ihr unbedingt eine Intel Extrem haben moechtet (die wird auf dem M17xR3 nicht angeboten, obwohl sie dort auch funktioniert... Der M17x ist ein sehr gutes Geraet und mit der GTX580m wirklich optimal ausgeruestet. Schnuffel wuerde aus technischen Geruenden die NVIDIA-Karten den ATI's vorziehen. Die NVIDIA's haben einfahc noch viel mehr potentzial. Schnuffel ist der festen ueberzeugung, dass sich die NVIDIA's in den naechsten MOonaten noch deutlicher von den ATI's absetzten. Treibermaessig ist bei den NVIDIA's noch viel reserve drinn, bei den ATI's nicht. Dazu kommt, dass die Nvidia's weniger heiss werden und dort beim M17x das 120 Hz Display geordert werden kann. Die Nvidia kan ma n auch noch sehr gut runtertakten, um Leistung zu spaaren. Auch das ist dort auf der haben-Seite zu verbuchen. Klappt bei ATI nicht so gut. Der Leistungszuwachs der Ivy Archithektur gegenueber der Sandy bezifert Intel auf 20%, Schnuffel meint, wenn es den bis zum Ende 10% sind, so wird man zufrieden sein muessen. Nicht vergessen solltye man, dass die Sandy nun langsam aber sicher sehr stabiel laeuft. Und auch das wird bei der Ivy wohl einige Monate dauern. Die naechste Grafikkartengeneration fuer Notebooks wird weniger im Zeichen der Performance als mehr im Zeichen der 3D Technick und der Aufloesung nach 1920 x 1200 stehen. Weiter arbeitet Ndvidia an einem Totalueberholten Treiberset fuer die Generationen GTX4xxm und aufwaerts, also alle Direct x11 Karten... Gruesse vom Schnuffel
×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung und Community-Regeln. Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.