Da nicht jeder hier die News liest:
Einen sehr interessanten Artikel zum Thema Energieeffizienz aktueller und vergangener Grafikkarten hat Technic3D erstellt. Dort werden zahlreiche Grafikkarten auf ihre "fps pro Watt" Leistung untersucht und aufgrund ehemaliger ATI-Nvidia Marketing-Grabenkämpfe die Konsequenz für den Energieverbrauch des Verbrauchers gezogen.
Sehr lesenswert, zumal PC-Erfahrung als Quelle für die Chipdaten diente
http://www.technic3d.de/?site=article&a ... ticle&a=81
@Mods: => Sammelstelle?
FPS pro Watt Artikel
Moderatoren: coolmann, eXcLis0
Es steht nicht auf PC-Erfahrung!
Auf PC Erfahrung stehen die Chipdaten, da steht weder die fps-pro Watt Tabelle, noch die Ausführungen zur Strategie beider Konzerne noch die Bedeutung und Deutung des ganzen.
Sieht man schön auf der letzten Seite des Artikels, da wurden gut 10 Quellen genannt und EINE war eben PC-Erfahrung (Chipdaten).
Auf PC Erfahrung stehen die Chipdaten, da steht weder die fps-pro Watt Tabelle, noch die Ausführungen zur Strategie beider Konzerne noch die Bedeutung und Deutung des ganzen.
Sieht man schön auf der letzten Seite des Artikels, da wurden gut 10 Quellen genannt und EINE war eben PC-Erfahrung (Chipdaten).
Die Xbitlabs haben die aktuellen Grafikkarten erneut auf Stromverbrauch getestet.
Interessant dabei ist die ECHTE Messung der GPU-Verbräuche. Normalerweise werden stets die System-Verbräuche gemessen, diese hier sind also aussagekräftiger.
So kommen einige interessante Tatsachen ans Licht:
Die X1900XTX verbrät gut 125W, die GF7800GT 512 dagegen maximal um die 100W.
Die GF6800 ist stromsparender als eine GF6600GT!
Aber liest selbst:
http://www.xbitlabs.com/articles/video/ ... n2006.html
Interessant dabei ist die ECHTE Messung der GPU-Verbräuche. Normalerweise werden stets die System-Verbräuche gemessen, diese hier sind also aussagekräftiger.
So kommen einige interessante Tatsachen ans Licht:
Die X1900XTX verbrät gut 125W, die GF7800GT 512 dagegen maximal um die 100W.
Die GF6800 ist stromsparender als eine GF6600GT!
Aber liest selbst:
http://www.xbitlabs.com/articles/video/ ... n2006.html
man sieht auch das gerade nvidia seit der fx reihe echt was am stromverbrauch getan hat! ati dagegen hat sich zum negativen entwickelt!
ich finde aber trotzdem dass meine 6800er sehr sparsam für die leistung ist! man bedenke mal was meine 5900xt an strom gebraucht hat!
aber ich stufe meine karte im moment eher bei einer 6800gt ein weil ich ja selber übertaktet habe!
ich finde aber trotzdem dass meine 6800er sehr sparsam für die leistung ist! man bedenke mal was meine 5900xt an strom gebraucht hat!
aber ich stufe meine karte im moment eher bei einer 6800gt ein weil ich ja selber übertaktet habe!
Also, ich finde es ja erschreckend, was die Karten von ATI so verbrauchen. Die X1800XL lag im 3D-Betrief noch unter 60 Watt, während die XT über 100 Watt hinausschoss (von der X1900 will ich gar nicht erst reden ). Selbst die 7800GTX512 ist da genügsamer.
Der Stromverbrauch zwischen 7800 GT und GTX ist auch exorbitant für die geringe Taktsteigerung und die paar Pipelines.Woran liegt sowas, dass der Stromverbauch bei einigen "übertakteten" Karten so in die Höhe schießt?
Der Stromverbrauch zwischen 7800 GT und GTX ist auch exorbitant für die geringe Taktsteigerung und die paar Pipelines.Woran liegt sowas, dass der Stromverbauch bei einigen "übertakteten" Karten so in die Höhe schießt?
Weil die Hersteller von HighEnd Grafikkarten nichts anderes machen als der gemeine Übertakter:
Spannung rauf, Taktfrequenz rauf.
So läuft das. Und dann kommen eben diese indiskutablen Verlustleistungen heraus. Und übrigens auch eine schlechte Zuverlässigkeit der Karten (eben ganz wie beim Übertakten).
Nicht ohne Grund fallen so viele FX5900'er Karten aus. Gleiches gilt für die R9800Pro/XT'er Karten. Die wurden hochgejagt ohne Ende, der dumme Kunde zahlt dafür auch noch viel Geld...
Und genau das gleiche Spiel treibt ATI gerade mit der X1900XT und XTX. Sie mußten gewinnen, um jeden Preis. Das die Karten deswegen früher kaputt gehen - wen kümmert's.
Von daher lohnt es sich auch nie die aktuellen HighEnd Modelle zu kaufen! Meist sind die Refresh-Chips genauso schnell, verbrauchen dann aber wieder wesentlich weniger Strom. Den HighEnd Versionen der Refresh-Chips ereilt dann natürlich wieder das gleiche Schicksal...
Sehr lesenswert:
http://www.orthy.de/modules.php?name=Ne ... e&sid=1438
Spannung rauf, Taktfrequenz rauf.
So läuft das. Und dann kommen eben diese indiskutablen Verlustleistungen heraus. Und übrigens auch eine schlechte Zuverlässigkeit der Karten (eben ganz wie beim Übertakten).
Nicht ohne Grund fallen so viele FX5900'er Karten aus. Gleiches gilt für die R9800Pro/XT'er Karten. Die wurden hochgejagt ohne Ende, der dumme Kunde zahlt dafür auch noch viel Geld...
Und genau das gleiche Spiel treibt ATI gerade mit der X1900XT und XTX. Sie mußten gewinnen, um jeden Preis. Das die Karten deswegen früher kaputt gehen - wen kümmert's.
Von daher lohnt es sich auch nie die aktuellen HighEnd Modelle zu kaufen! Meist sind die Refresh-Chips genauso schnell, verbrauchen dann aber wieder wesentlich weniger Strom. Den HighEnd Versionen der Refresh-Chips ereilt dann natürlich wieder das gleiche Schicksal...
Sehr lesenswert:
http://www.orthy.de/modules.php?name=Ne ... e&sid=1438
- Cryss
- Moderator
- Beiträge: 4257
- Registriert: 16.07.2005, 13:28
- Wohnort: Berchtesgaden, ursprünglich Baden
- Kontaktdaten:
Juhu, wiedermal ein neues Grafikkarte Power Consumption RoundUp bei XBit:
http://www.xbitlabs.com/articles/video/ ... noise.html
("Faster, Quieter, Lower: Power Consumption and Noise Level of Contemporary Graphics Cards")
..
Wer den alten Bericht (ca. 3 Monate alt) nochmal lesen will:
http://www.xbitlabs.com/articles/video/ ... n2006.html
("The Grand Clash for Watts: Power Consumption of Modern Graphics Cards")
http://www.xbitlabs.com/articles/video/ ... noise.html
("Faster, Quieter, Lower: Power Consumption and Noise Level of Contemporary Graphics Cards")
..
Wer den alten Bericht (ca. 3 Monate alt) nochmal lesen will:
http://www.xbitlabs.com/articles/video/ ... n2006.html
("The Grand Clash for Watts: Power Consumption of Modern Graphics Cards")
Vielleicht tickt Porsche einfach anders... TROTZDEM
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast