Neue Grafikkarte

Übersicht Sonstiges Smalltalk

Gehe zu Seite Zurück  1, 2, 3  Weiter

Neue Antwort erstellen

Pummelie

BeitragSo, Jul 19, 2009 19:34
Antworten mit Zitat
Benutzer-Profile anzeigen
@ the_nici
Würd dir entweder die gefource 275 gt(x) empfehlen oder eben 2 ATI auf crossfire (schön viel gddr).
@ umwelttherad
Mein PC Netzteil schaltet sich Nicht ab, egal ob der PC aus ist oder nicht, also verbraucht der schonmal
zwischen 200 und 500 watt dauerhaft.
Dann hab ich da noch ein Microsoft Side Winder Wheel, verbraucht dauerhaft 20 watt.
Da wäre noch eine Home Theater 5.1 Anlage, die ich nie abziehe, verbraucht dauerhaft 600 watt.
Der Bildschirm zieht noch 150 watt.
Und mein Laptop zieht fast dauerhaft (allerdings weiß ich den Stromverbrauch nicht [noch nicht gemessen]).
und noch ein bisschen schnick schnack, 200 watt.
It's done when it's done.
  • Zuletzt bearbeitet von Pummelie am So, Jul 19, 2009 19:36, insgesamt einmal bearbeitet

ZaP

BeitragSo, Jul 19, 2009 19:35
Antworten mit Zitat
Benutzer-Profile anzeigen
Warte halt die HD 4890 X2 ab. Die wird bestimmt in der Preisspanne liegen und die ach so tolle gtx295 zum Frühstück mampfen.
Starfare: Worklog, Website (download)

DaysShadow

BeitragSo, Jul 19, 2009 19:47
Antworten mit Zitat
Benutzer-Profile anzeigen
Pummelie, kein Netzteil der Welt wird von einem abgeschalteten Rechner 200, geschweige denn 500(harhar), Watt Leistung ziehen, wozu auch!?
Außerdem heißt das Dingen GeForce, merks dir, mir sträuben sich sämtliche Haare wenn man sich ständig diese Fehler ansehen darf...

@ Zap: Ich bezweifle dass die 4890 X2 noch kommt, wo es schon nicht sicher war ob sie überhaupt erscheint, zudem kommt ja wie gesagt bald die neue Generation eingeflogen Wink
Außerdem ist eine 4890 ja nur eine höher getaktete 4870, also soviel wirds wohl dann auch nicht an Mehrleistung bringen.

MfG DaysShadow
Blessed is the mind too small for doubt

Chester

BeitragSo, Jul 19, 2009 19:53
Antworten mit Zitat
Benutzer-Profile anzeigen
@PSY:
Der Wirkung von AA hängt aber auch von der Pixeldichte deines Monitors ab.

Zitat:
Es liegt wohl am fehlenden PhysX Chip meiner Grafikkarte, dass manche Spiele ruckeln.


Erwischt! Du suchst also doch nur ein Argument für eine NVidia Grafikkarte.
Abgesehen davon - dass selbst wenn es so wäre, es eben nicht so ist - unterstützt nämlich deine Grafikkarte CUDA, also auch PhysX.
Allerdings ist es aber auch unbestreitbar, dass deine Grafikkarte eher im MidRange Bereich anzusiedeln ist, weshalb es kein Wunder ist, dass Spiele in gehobener Qualität in deiner Auflösung 1920x1080 beginnen zu ruckeln. Gerade Features wie AA in einer solchen Auflösung ziehen sehr viel Leistung.
Hier gib ich allerdings Hectic recht, wer bei FullHD in 24" Kantenglättung benötigt, der sitzt wahrscheinlich näher am Bildschirm als es gesund ist. Wink

BladeRunner

Moderator

BeitragSo, Jul 19, 2009 20:51
Antworten mit Zitat
Benutzer-Profile anzeigen
Erstens: Bremse treten, alle. Der nächste Flame macht den Thread dicht und den Flamer um eine Verwarnung reicher.
Zweitens: Ich hab mir noch nie eine High-End-Karte gekauft und konnte trotzdem alle Spiele in einer zufriedenstellenden Quali spielen. Es ist wohl auch mit abhängig davon welchen Erwartungsdruck man sich selbst baut. Ich denke der Preis moderner Hochleistungskarten steht in keiner Relation zur zusätzlichen Leistung.
Und der Umweltaspekt kommt noch hinzu. Die fossilen Energieträger und das Uran gehen uns aus und wir machen alle als obs für ewig reichen würde. Traurig das. Noch dazu kommen die Finanzen. Wer seinen Strom selbst bezahlen muss überlegt sich zweimal ob er wirklich 1-2€/Tag nur für die Grafikkarte investieren will.
Vielleicht sollten eure Eltern die Betriebskosten bei euch zurückfordern.
Zu Diensten, Bürger.
Intel T2300, 2.5GB DDR 533, Mobility Radeon X1600 Win XP Home SP3
Intel T8400, 4GB DDR3, Nvidia GF9700M GTS Win 7/64
B3D BMax MaxGUI

Stolzer Gewinner des BAC#48, #52 & #92

mpmxyz

BeitragSo, Jul 19, 2009 20:57
Antworten mit Zitat
Benutzer-Profile anzeigen
Zitat:
...unterstützt nämlich deine Grafikkarte CUDA, also auch PhysX.

...und ist eine von Nvidia.
So, wie ich das jetzt verstanden habe, meinst du, dass ATI eine Unterstützung für CUDA hätte.
Hat ATI diese Entwicklung nicht abgelehnt?
In Zukunft könnte es höchstens PhysX in OpenCL für ATI-Karten geben.
Aber ob PhysX das Argument ist, sollte jeder selbst entscheiden.
Ich persönlich bin froh, wenn neuere Spiele unter Minimaleinstellungen überhaupt spielbar sind. Neutral
@Pummelie
Was hast du an deinem Schreibtisch stehen?
Alleine dein Bildschirm verbraucht fast das, was mein ganzes System verbraucht. Shocked

mfG
mpmxyz
Moin Moin!
Projekte: DBPC CodeCruncher Mandelbrot-Renderer
 

Zauberwürfel

BeitragSo, Jul 19, 2009 21:00
Antworten mit Zitat
Benutzer-Profile anzeigen
Zitat:

...und ist eine von Nvidia.
So, wie ich das jetzt verstanden habe, meinst du, dass ATI eine Unterstützung für CUDA hätte.
Hat ATI diese Entwicklung nicht abgelehnt?


Nein, er meinte, dass The_Nici's jetztige schon CUDA und damit auch PhysX unterstützt.
Ja ich bin audiophil. Jetzt ist es raus.

ozzi789

BeitragSo, Jul 19, 2009 21:22
Antworten mit Zitat
Benutzer-Profile anzeigen
Chester hat Folgendes geschrieben:

@Ozzi:
Zwei Dinge:
- Das mit den "pseudo Stromstecker" ist Mist.
- Mit einem guten 80+ Markennetzteil reichen auch locker 500 Watt


Ehm nein?
Die Karte brauch 406 Watt (max leistung)
und die CPU sicherlich 85-130 Watt geht nicht ganz auf oder O_o

und das mit dem Pseudo Stromstecker ist kein Mist, ich hatte Probleme, ich gebe nur meine Erfahrung kunde, wenns bei dir klappt ist das ja toll
0x2B || ! 0x2B
C# | C++13 | Java 7 | PHP 5

hectic

Sieger des IS Talentwettbewerb 2006

BeitragSo, Jul 19, 2009 21:49
Antworten mit Zitat
Benutzer-Profile anzeigen
The_Nici, ich habe mir mein ersten Beitrag noch ein paar mal durch gelesen, und ich kann keine Beleidigung dir gegenüber feststellen. Alles was danach klingt, wurde von mir mit als ''eigene Meinung'' deklariert. Daher verstehe ich deine erste Reaktion nicht ganz. Vielleicht eine wunde Ader erwischt?

Zum anderen wollte ich noch folgendes Ergänzen. In beiden Bildschirmauflösungen -1024x... mit AA, und einmal -2048x... ohne AA hat die Grafikkarte ähnlich viel Berechnungen zu tätigen. Auf 2048 ohne AA wird man allerdings trotzdem mehr Details erkennen können. Auf 1024 mit AA wird es wiederrum ''homogener'' aussehen. Ich empfinde es allerdings als Greul, wenn man nun zum Beispiel 2048 und AA und ein aktuelles Spiel damit flüssig erwartet. Dafür ist AA eben nicht angedacht, und das ist meine eigene Meinung.

Mein Argument ''pro ATI'' ist nun auch so, dass ATI eben in den letzten Monaten sehr gute Produkte auf dem Markt gebracht hat. Man sollte sich auf jeden Fall nicht durch Vorurteile gute Chancen vermiesen lassen. NVidia die hier von vielen so hoch gelobt wird hat im übrigens so Sachen in ihren Treibern eingebaut gehabt, welche die auszuführende EXE überprüft. Hiess die EXE zum Beispiel ''3D Mark ...'', dann wurden einfach ein paar Effekte nicht mitberechnen, obwohl die Software die Anweisung dazu gegeben hat. Das ganze diente nur dem einzigem Zweck, dass Testergebnisse verfälscht wurden. 3D Mark ist ein Testprogramm welches von vielen Redaktionen benutzt wird, und somit auch die Testergebnisse vieler Zeitschriften und Indernetseiten nicht stimmen. Schon allein die Tatsache das NV das gemacht hat, erlischt für mich jegliche Seriösität so eines Unternehmens. Wer von all den Menschen von NVidia verarscht wurde, könnt ihr euch nun selbst aussuchen.
Download der Draw3D2 V.1.1 für schnelle Echtzeiteffekte über Blitz3D

Chester

BeitragSo, Jul 19, 2009 23:45
Antworten mit Zitat
Benutzer-Profile anzeigen
ozzi789 hat Folgendes geschrieben:

Ehm nein?
Die Karte brauch 406 Watt (max leistung)
und die CPU sicherlich 85-130 Watt geht nicht ganz auf oder O_o

und das mit dem Pseudo Stromstecker ist kein Mist, ich hatte Probleme, ich gebe nur meine Erfahrung kunde, wenns bei dir klappt ist das ja toll


Nachdem was du geschrieben hast ("beim zocken immer der PC abgekackt, grund grafikkarte bekam zuwenig strom"), klingt das eher nach einem überlasteten, oder stark schwankendem, Netzteil.
Wenn der Stecker zuwenig Leistung liefert, erscheint - zumindest bei NVidia - eine Hinweismeldung, die besagt, dass die Grafikkarte nicht mit ausreichend Strom versorgt und deshalb die Leistung automatisch heruntergeschraubt wird.
Und nach allen Gesetzen der Physik sollte es bei einem vernünftigen Netzteil mit so einem Stromstecker keine Probleme geben. Sei denn jemand hat mies gelötet. Smile

Und mich würde mal deine Quelle interessieren, denn 406 Watt nur für eine Grafikkarte halte ich für fiktiv.

Wie man hier erkennt, verbraucht das Gesamtsystem unter Last mit einer 295 um die 400 Watt. Und das Gesamtsystem in diesem Fall ist zusätzlich sehr verschwenderisch(z.B. Quadcore auf 4 Ghz, zieht auch noch ein Haufen Strom)
Und (Achtung Killerargument Razz)außerdem kenne ich selbst jemanden, der eben diese Geforce 295 mit einem 500 Watt Netzteil betreibt und keine Probleme hat.

@Hectic:
Von sowas würde ich mich aber auch nicht leiten lassen. ATI hat bestimmt auch irgendwo Dreck am Stecken. Momentan hat ATI natürlich das bessere Preis/Leistungsverhältnis(4850/4870), aber wenn NVidia mal wieder attraktivere Produkte auf den Markt bringt, würde ich sicherlich keinem davon abraten, nur weil sie bei gewissen Dingen "schummeln".

@Topic:
Was das ursprüngliche Thema betrifft, würde ich folgene Aussage unterstreichen und es damit gut sein lassen:
The_Nici hat Folgendes geschrieben:
So, ich warte jetzt auf DX11.
 

#Reaper

Newsposter

BeitragSo, Jul 19, 2009 23:59
Antworten mit Zitat
Benutzer-Profile anzeigen
@Pummelie: Also ich frage mich gerade, ob du wirklich nachgemessen hast. 600 Watt für eine Soundanlage im StandBy? Und was (Typ, Größe) für einen Monitor hast du denn, welcher 150 Watt verbraucht?

Im übrigen hat keine einzige Grafikkarte einen PhysX-Chip. PhysX wird bei den "neueren" NVidia-GraKa's über CUDA (also GPGPU) auf dem normalen Grafikchip berechnet. Außerdem wird PhysX nicht von all zu vielen (großen) Spielen verwendet. Es gab Diskussionen, ob ATI auch PhysX unterstützen wird, was genau daraus geworden ist, weiß ich nicht. Vermutlich hat ATI kein interesse daran, da ATI an OpenCL mit arbeitet (NVidia im übrigen auch). CUDA ist außerdem nur von NVidia und wird hoffentlich auch bald vergessen werden. PhysX wird also vorraussichtlich in naher Zukunft aussterben, da es nicht mehr benötigt wird. (PhysX ist dennoch eine gute Physik-Engine, auch ohne Hardwarebeschleunigung.)


@hectic: Danke für diese Info. Ich nehme aber auch gerne solche Infos gegenüber ATI an.
AMD Athlon 64 3500+, ATI AX800 Pro/TD, 2048 MB DRR 400 von Infineon, ♥RIP♥ (2005 - Juli 2015 -> sic!)
Blitz3D, BlitzMax, MaxGUI, Monkey X; Win7

The_Nici

BeitragMo, Jul 20, 2009 0:05
Antworten mit Zitat
Benutzer-Profile anzeigen
hectic, deine Quellen will ich sehen. Wahrscheinlich hast du das mit der nVidia-Betrügerei von irgend einem hochseriösen Halbwisserforum, darf ich raten?

Habe von dir auch noch keinen spezifischen Grafikkartenvorschlag gesehen, nur rumgemotze.

Danke an die Leute, die mir halfen.

MfG

EDIT: Noch eine Randbemerkung: Ich habe auch vor eine Recordingkarte zu kaufen, und anzufangen Machinima zu drehen. Auch dies ist ein Grund für eine neue Grafikkarte.

DAK

BeitragMo, Jul 20, 2009 1:13
Antworten mit Zitat
Benutzer-Profile anzeigen
n schirm mit 150 watt is nicht soo selten.. meine beiden röhrenschirme, die ich hier hab, fressen 120 (samsung syncmaster 959nf, 19 zoll) bzw 160 (samsung syncmaster 17gli, 17 zoll) watt...
Gewinner der 6. und der 68. BlitzCodeCompo

Pummelie

BeitragMo, Jul 20, 2009 8:46
Antworten mit Zitat
Benutzer-Profile anzeigen
@ Reaper
Ich schrieb doch das ich die net auschalte, laso nicht im standby läuft
@ PhysXship
Wie jetz, ich habe ne 7600 gt und son anderen Phys treiben ( von Nvidia ) und der sagt, ich hab den benötigten chip...
It's done when it's done.

D2006

Administrator

BeitragMo, Jul 20, 2009 10:24
Antworten mit Zitat
Benutzer-Profile anzeigen
Bezüglich Betrug bei Benchmarks: Hier ein Fall, an den ich mich auch noch erinnere, mit Crysis:
http://www.grafikkartenblog.de...hmark.html

Aber wie schon in dem Artikel erwähnt, hat das auch ATI schon getan.
Intel Core i5 2500 | 16 GB DDR3 RAM dualchannel | ATI Radeon HD6870 (1024 MB RAM) | Windows 7 Home Premium
Intel Core 2 Duo 2.4 GHz | 2 GB DDR3 RAM dualchannel | Nvidia GeForce 9400M (256 MB shared RAM) | Mac OS X Snow Leopard
Intel Pentium Dual-Core 2.4 GHz | 3 GB DDR2 RAM dualchannel | ATI Radeon HD3850 (1024 MB RAM) | Windows 7 Home Premium
Chaos Interactive :: GoBang :: BB-Poker :: ChaosBreaker :: Hexagon :: ChaosRacer 2

joKe

BeitragMo, Jul 20, 2009 11:49
Antworten mit Zitat
Benutzer-Profile anzeigen
Schau dich mal auf www.edel-grafikkarten.de um. Das ist mein Arbeitgeber und ich hab meine zwei letzten Karten von dem besorgt. Der kauft normale Karten, übertaktet diese und verbessert den Kühler (oder baut ein besseren drauf) und liefert seine Karten in schicken Holzschatullen aus. Er gibt auch Garantie auf seine Produkte und hat schon ziemlich viele Auszeichnungen für seine Karten bekommen.
Projekt: Pollux Renegades Coop
[Maschine: Intel DualCore2 2x 3Ghz | 4096 DRR2 | GeForce GTX 260 Ultra]

hectic

Sieger des IS Talentwettbewerb 2006

BeitragMo, Jul 20, 2009 18:09
Antworten mit Zitat
Benutzer-Profile anzeigen
@Chester
Klar hatte ATI, nachdem das bereits gängige Praxis war, es auch so gemacht. Schliesslich musste ATI um ihre Existenz kämpfen, wärend NVidia sich da gemütlich zurück lehnen und beobachten konnte.

@#Reaper
Wurde denke ich schon geklärt. So weit ich mich erinere hat heise.de da auch mal ein Bericht darüber geschrieben. Da ging es allerdings nicht um das optimieren von Spielen, sondern um das manipulieren von Benchmarks. Zwei unterschiedliche Dinge, aber mit eindeutigen Zielen.

@The_Nici
Hat nun unter anderen D2006 erledigt. Ansonsten liefert Google sicherlich auch gute Ergebnise dazu. Zum anderen habe ich wirklich keine Lust darauf, stundenlang nach guten Grafikkartenn vom Hause ATI zu suchen, wenn dein Entschluss bereits vom Anfang an auf NVidia gelegt wurde. Da kann ich ja genauso gut versuchen dir ein paar ganz tolle Barbiepuppen zu verkaufen. Das Dessinteresse wird sicherlich genauso groß sein. Im übrigen suche ich mir selbst ein neues System zusammen, und da opfere ich lieber meine Freizeit für.

The_Nici hat Folgendes geschrieben:
Danke an die Leute, die mir halfen.


Oh bitte. Immer wieder gern!

Lese mal bitte alle meine Beiträge noch einmal und zeige mir - auch gerne per PN - womit ich die Hasskappe verdient habe. Exclamation Schriftliche Ausernandersetzungen laufen oft fehl, da die Emotionen die durch Laute und Stimmlage gesetzt werden, komplett fehlen.
Download der Draw3D2 V.1.1 für schnelle Echtzeiteffekte über Blitz3D

The_Nici

BeitragMo, Jul 20, 2009 18:33
Antworten mit Zitat
Benutzer-Profile anzeigen
Zitat:
Zum anderen habe ich wirklich keine Lust darauf, stundenlang nach guten Grafikkartenn vom Hause ATI zu suchen


Dann poste nicht.

Randall Flagg

BeitragMo, Jul 20, 2009 19:20
Antworten mit Zitat
Benutzer-Profile anzeigen
Pummelie hat Folgendes geschrieben:
@ the_nici
Würd dir entweder die gefource 275 gt(x) empfehlen oder eben 2 ATI auf crossfire (schön viel gddr).
@ umwelttherad
Mein PC Netzteil schaltet sich Nicht ab, egal ob der PC aus ist oder nicht, also verbraucht der schonmal
zwischen 200 und 500 watt dauerhaft.
Dann hab ich da noch ein Microsoft Side Winder Wheel, verbraucht dauerhaft 20 watt.
Da wäre noch eine Home Theater 5.1 Anlage, die ich nie abziehe, verbraucht dauerhaft 600 watt.
Der Bildschirm zieht noch 150 watt.
Und mein Laptop zieht fast dauerhaft (allerdings weiß ich den Stromverbrauch nicht [noch nicht gemessen]).
und noch ein bisschen schnick schnack, 200 watt.


Was bist du denn für einer? xD

Wenn ich den Rechner runterfahre wird unten an der Steckdose so ein schöner, leuchtender Schalter umgelegt, damit die Sau nicht mehr frisst als sie eigentlich sollte. Auch beim Hardwarekauf versuche ich immer, dass alles vom 450 Watt Netzteil versorgt wird. Verschwenderisch werde ich erst, wenn ich ein eigenes Haus mit Solarzellen aufm Dach habe, dann kann mich die Umwelt mal an meinem dreckigen Hintern lecken, denn ich schade ihr dadurch nicht mehr wirklich xD
Meine Parodien & Geschichten

The_Nici

BeitragMo, Jul 20, 2009 20:07
Antworten mit Zitat
Benutzer-Profile anzeigen
Hallo,
so, ich habe mir mal die ARMAII-Demo angeschaut. Benchmark-Ergebnisse: 17FPS.
Ich lese hier, dass dieses Spiel Shader Model 3 braucht.
Ebenfalls las ich irgendwo, dass manche Grafikkartem Shader Model 3 nur emulieren und deswegen langsamer sind. Kann es sein, dass meine Grafikkarte zu diesen gehört?

Gehe zu Seite Zurück  1, 2, 3  Weiter

Neue Antwort erstellen


Übersicht Sonstiges Smalltalk

Gehe zu:

Powered by phpBB © 2001 - 2006, phpBB Group