Hier mal ein Vergleichstest zwischen zwei Games, die extrem gut aufzeigen, wie stark sich der Verbrauch (und somit auch Takt) unterscheiden kann. Die meisten Games liegen dazwischen.
A Plagues Tale: 0,775-0,831v
Assassins Creed Odyssey: 0,969 - 1,044v (stock um die 1900-2000 MHz)
Beide erreichen so die 350W Limit meiner MSI GeForce RTX 3090 Ventus 3X 24G OC. Natürlich (nur) bei 2160p. Bei 1440p und ähnlich sind die Verbrauchswerte um einiges geringer (und somit der Takt höher).
Mein Afterburner-Profil cappt aber bei 0,9v, wo mein Chip glücklicherweise stabile 1950 MHz schafft. Mehr als 0,9v gilt es aufgrund des Spulenfiepens zu vermeiden (ich kenne keine Karte die über 0,9v leise genug für mich ist - ich habe aber auch stets kleine sowie luftige, also nicht geräuschdämmende, ITX-Gehäuse).
So verschenke ich keine Leistung in wenig fordernden Games wie Odyssey. Und bei fordernden Games ändert sich ja nichts. So komme ich einfach fast in jedem Game ins TDP-Limit, egal wie fordernd es ist. Odyssey verbraucht bei fixen 0,9v „nur“ ca. 320W bei 7X Grad). Je nach Game schwanke ich also mit meinem AB-Profil zwischen 0,775 - 0,9v bzw. 1740-1950 MHz bzw. 320-350W. Da die meistens Games wohl dazwischen liegen, liegen meist mehr als 1800 MHz an.
Und die mehr als 0,9v würden eh nur bei wenig fordernden Games was bringen. Ich könnte dann statt 1950 MHz um die 2000 MHz fahren, das wäre der einzige Vorteil. Bei den heftigsten Games würde sich eh nichts ändern, da die 350W TDP Limit ja bereits bei rund 0,8v erreicht werden.
Das TDP Limit von 350W zu erhöhen, macht natürlich bei einem ITX Gehäuse und ohne Wasserkühlung keinen Sinn. Ich bin so sehr zufrieden. 1740 - 1950 MHz je nach Game finde ich für ITX und Luft echt super. Wer in allen Games konstant 1950 MHz und mehr mit einer 3080/3090 haben möchte, muss dann eben für entsprechende Kühlung sorgen (und das Limit per evtl. verfügbaren vBIOS erhöhen oder eine Karte kaufen, die eben 450-500W zulässt).