Neue Grafikkarte
Übersicht Sonstiges SmalltalkGehe zu Seite Zurück 1, 2, 3 Weiter
Pummelie |
So, Jul 19, 2009 19:34 Antworten mit Zitat |
|
---|---|---|
@ the_nici
Würd dir entweder die gefource 275 gt(x) empfehlen oder eben 2 ATI auf crossfire (schön viel gddr). @ umwelttherad Mein PC Netzteil schaltet sich Nicht ab, egal ob der PC aus ist oder nicht, also verbraucht der schonmal zwischen 200 und 500 watt dauerhaft. Dann hab ich da noch ein Microsoft Side Winder Wheel, verbraucht dauerhaft 20 watt. Da wäre noch eine Home Theater 5.1 Anlage, die ich nie abziehe, verbraucht dauerhaft 600 watt. Der Bildschirm zieht noch 150 watt. Und mein Laptop zieht fast dauerhaft (allerdings weiß ich den Stromverbrauch nicht [noch nicht gemessen]). und noch ein bisschen schnick schnack, 200 watt. |
||
It's done when it's done. |
- Zuletzt bearbeitet von Pummelie am So, Jul 19, 2009 19:36, insgesamt einmal bearbeitet
ZaP |
So, Jul 19, 2009 19:35 Antworten mit Zitat |
|
---|---|---|
Warte halt die HD 4890 X2 ab. Die wird bestimmt in der Preisspanne liegen und die ach so tolle gtx295 zum Frühstück mampfen. | ||
Starfare: Worklog, Website (download) |
DaysShadow |
So, Jul 19, 2009 19:47 Antworten mit Zitat |
|
---|---|---|
Pummelie, kein Netzteil der Welt wird von einem abgeschalteten Rechner 200, geschweige denn 500(harhar), Watt Leistung ziehen, wozu auch!?
Außerdem heißt das Dingen GeForce, merks dir, mir sträuben sich sämtliche Haare wenn man sich ständig diese Fehler ansehen darf... @ Zap: Ich bezweifle dass die 4890 X2 noch kommt, wo es schon nicht sicher war ob sie überhaupt erscheint, zudem kommt ja wie gesagt bald die neue Generation eingeflogen Außerdem ist eine 4890 ja nur eine höher getaktete 4870, also soviel wirds wohl dann auch nicht an Mehrleistung bringen. MfG DaysShadow |
||
Blessed is the mind too small for doubt |
Chester |
So, Jul 19, 2009 19:53 Antworten mit Zitat |
|
---|---|---|
@PSY:
Der Wirkung von AA hängt aber auch von der Pixeldichte deines Monitors ab. Zitat: Es liegt wohl am fehlenden PhysX Chip meiner Grafikkarte, dass manche Spiele ruckeln.
Erwischt! Du suchst also doch nur ein Argument für eine NVidia Grafikkarte. Abgesehen davon - dass selbst wenn es so wäre, es eben nicht so ist - unterstützt nämlich deine Grafikkarte CUDA, also auch PhysX. Allerdings ist es aber auch unbestreitbar, dass deine Grafikkarte eher im MidRange Bereich anzusiedeln ist, weshalb es kein Wunder ist, dass Spiele in gehobener Qualität in deiner Auflösung 1920x1080 beginnen zu ruckeln. Gerade Features wie AA in einer solchen Auflösung ziehen sehr viel Leistung. Hier gib ich allerdings Hectic recht, wer bei FullHD in 24" Kantenglättung benötigt, der sitzt wahrscheinlich näher am Bildschirm als es gesund ist. |
||
BladeRunnerModerator |
So, Jul 19, 2009 20:51 Antworten mit Zitat |
|
---|---|---|
Erstens: Bremse treten, alle. Der nächste Flame macht den Thread dicht und den Flamer um eine Verwarnung reicher.
Zweitens: Ich hab mir noch nie eine High-End-Karte gekauft und konnte trotzdem alle Spiele in einer zufriedenstellenden Quali spielen. Es ist wohl auch mit abhängig davon welchen Erwartungsdruck man sich selbst baut. Ich denke der Preis moderner Hochleistungskarten steht in keiner Relation zur zusätzlichen Leistung. Und der Umweltaspekt kommt noch hinzu. Die fossilen Energieträger und das Uran gehen uns aus und wir machen alle als obs für ewig reichen würde. Traurig das. Noch dazu kommen die Finanzen. Wer seinen Strom selbst bezahlen muss überlegt sich zweimal ob er wirklich 1-2€/Tag nur für die Grafikkarte investieren will. Vielleicht sollten eure Eltern die Betriebskosten bei euch zurückfordern. |
||
Zu Diensten, Bürger.
Intel T2300, 2.5GB DDR 533, Mobility Radeon X1600 Win XP Home SP3 Intel T8400, 4GB DDR3, Nvidia GF9700M GTS Win 7/64 B3D BMax MaxGUI Stolzer Gewinner des BAC#48, #52 & #92 |
mpmxyz |
So, Jul 19, 2009 20:57 Antworten mit Zitat |
|
---|---|---|
Zitat: ...unterstützt nämlich deine Grafikkarte CUDA, also auch PhysX.
...und ist eine von Nvidia. So, wie ich das jetzt verstanden habe, meinst du, dass ATI eine Unterstützung für CUDA hätte. Hat ATI diese Entwicklung nicht abgelehnt? In Zukunft könnte es höchstens PhysX in OpenCL für ATI-Karten geben. Aber ob PhysX das Argument ist, sollte jeder selbst entscheiden. Ich persönlich bin froh, wenn neuere Spiele unter Minimaleinstellungen überhaupt spielbar sind. @Pummelie Was hast du an deinem Schreibtisch stehen? Alleine dein Bildschirm verbraucht fast das, was mein ganzes System verbraucht. mfG mpmxyz |
||
Moin Moin!
Projekte: DBPC CodeCruncher Mandelbrot-Renderer |
Zauberwürfel |
So, Jul 19, 2009 21:00 Antworten mit Zitat |
|
---|---|---|
Zitat: ...und ist eine von Nvidia. So, wie ich das jetzt verstanden habe, meinst du, dass ATI eine Unterstützung für CUDA hätte. Hat ATI diese Entwicklung nicht abgelehnt? Nein, er meinte, dass The_Nici's jetztige schon CUDA und damit auch PhysX unterstützt. |
||
Ja ich bin audiophil. Jetzt ist es raus. |
ozzi789 |
So, Jul 19, 2009 21:22 Antworten mit Zitat |
|
---|---|---|
Chester hat Folgendes geschrieben: @Ozzi: Zwei Dinge: - Das mit den "pseudo Stromstecker" ist Mist. - Mit einem guten 80+ Markennetzteil reichen auch locker 500 Watt Ehm nein? Die Karte brauch 406 Watt (max leistung) und die CPU sicherlich 85-130 Watt geht nicht ganz auf oder O_o und das mit dem Pseudo Stromstecker ist kein Mist, ich hatte Probleme, ich gebe nur meine Erfahrung kunde, wenns bei dir klappt ist das ja toll |
||
0x2B || ! 0x2B
C# | C++13 | Java 7 | PHP 5 |
hecticSieger des IS Talentwettbewerb 2006 |
So, Jul 19, 2009 21:49 Antworten mit Zitat |
|
---|---|---|
The_Nici, ich habe mir mein ersten Beitrag noch ein paar mal durch gelesen, und ich kann keine Beleidigung dir gegenüber feststellen. Alles was danach klingt, wurde von mir mit als ''eigene Meinung'' deklariert. Daher verstehe ich deine erste Reaktion nicht ganz. Vielleicht eine wunde Ader erwischt?
Zum anderen wollte ich noch folgendes Ergänzen. In beiden Bildschirmauflösungen -1024x... mit AA, und einmal -2048x... ohne AA hat die Grafikkarte ähnlich viel Berechnungen zu tätigen. Auf 2048 ohne AA wird man allerdings trotzdem mehr Details erkennen können. Auf 1024 mit AA wird es wiederrum ''homogener'' aussehen. Ich empfinde es allerdings als Greul, wenn man nun zum Beispiel 2048 und AA und ein aktuelles Spiel damit flüssig erwartet. Dafür ist AA eben nicht angedacht, und das ist meine eigene Meinung. Mein Argument ''pro ATI'' ist nun auch so, dass ATI eben in den letzten Monaten sehr gute Produkte auf dem Markt gebracht hat. Man sollte sich auf jeden Fall nicht durch Vorurteile gute Chancen vermiesen lassen. NVidia die hier von vielen so hoch gelobt wird hat im übrigens so Sachen in ihren Treibern eingebaut gehabt, welche die auszuführende EXE überprüft. Hiess die EXE zum Beispiel ''3D Mark ...'', dann wurden einfach ein paar Effekte nicht mitberechnen, obwohl die Software die Anweisung dazu gegeben hat. Das ganze diente nur dem einzigem Zweck, dass Testergebnisse verfälscht wurden. 3D Mark ist ein Testprogramm welches von vielen Redaktionen benutzt wird, und somit auch die Testergebnisse vieler Zeitschriften und Indernetseiten nicht stimmen. Schon allein die Tatsache das NV das gemacht hat, erlischt für mich jegliche Seriösität so eines Unternehmens. Wer von all den Menschen von NVidia verarscht wurde, könnt ihr euch nun selbst aussuchen. |
||
Download der Draw3D2 V.1.1 für schnelle Echtzeiteffekte über Blitz3D |
Chester |
So, Jul 19, 2009 23:45 Antworten mit Zitat |
|
---|---|---|
ozzi789 hat Folgendes geschrieben: Ehm nein? Die Karte brauch 406 Watt (max leistung) und die CPU sicherlich 85-130 Watt geht nicht ganz auf oder O_o und das mit dem Pseudo Stromstecker ist kein Mist, ich hatte Probleme, ich gebe nur meine Erfahrung kunde, wenns bei dir klappt ist das ja toll Nachdem was du geschrieben hast ("beim zocken immer der PC abgekackt, grund grafikkarte bekam zuwenig strom"), klingt das eher nach einem überlasteten, oder stark schwankendem, Netzteil. Wenn der Stecker zuwenig Leistung liefert, erscheint - zumindest bei NVidia - eine Hinweismeldung, die besagt, dass die Grafikkarte nicht mit ausreichend Strom versorgt und deshalb die Leistung automatisch heruntergeschraubt wird. Und nach allen Gesetzen der Physik sollte es bei einem vernünftigen Netzteil mit so einem Stromstecker keine Probleme geben. Sei denn jemand hat mies gelötet. Und mich würde mal deine Quelle interessieren, denn 406 Watt nur für eine Grafikkarte halte ich für fiktiv. Wie man hier erkennt, verbraucht das Gesamtsystem unter Last mit einer 295 um die 400 Watt. Und das Gesamtsystem in diesem Fall ist zusätzlich sehr verschwenderisch(z.B. Quadcore auf 4 Ghz, zieht auch noch ein Haufen Strom) Und (Achtung Killerargument )außerdem kenne ich selbst jemanden, der eben diese Geforce 295 mit einem 500 Watt Netzteil betreibt und keine Probleme hat. @Hectic: Von sowas würde ich mich aber auch nicht leiten lassen. ATI hat bestimmt auch irgendwo Dreck am Stecken. Momentan hat ATI natürlich das bessere Preis/Leistungsverhältnis(4850/4870), aber wenn NVidia mal wieder attraktivere Produkte auf den Markt bringt, würde ich sicherlich keinem davon abraten, nur weil sie bei gewissen Dingen "schummeln". @Topic: Was das ursprüngliche Thema betrifft, würde ich folgene Aussage unterstreichen und es damit gut sein lassen: The_Nici hat Folgendes geschrieben: So, ich warte jetzt auf DX11.
|
||
#ReaperNewsposter |
So, Jul 19, 2009 23:59 Antworten mit Zitat |
|
---|---|---|
@Pummelie: Also ich frage mich gerade, ob du wirklich nachgemessen hast. 600 Watt für eine Soundanlage im StandBy? Und was (Typ, Größe) für einen Monitor hast du denn, welcher 150 Watt verbraucht?
Im übrigen hat keine einzige Grafikkarte einen PhysX-Chip. PhysX wird bei den "neueren" NVidia-GraKa's über CUDA (also GPGPU) auf dem normalen Grafikchip berechnet. Außerdem wird PhysX nicht von all zu vielen (großen) Spielen verwendet. Es gab Diskussionen, ob ATI auch PhysX unterstützen wird, was genau daraus geworden ist, weiß ich nicht. Vermutlich hat ATI kein interesse daran, da ATI an OpenCL mit arbeitet (NVidia im übrigen auch). CUDA ist außerdem nur von NVidia und wird hoffentlich auch bald vergessen werden. PhysX wird also vorraussichtlich in naher Zukunft aussterben, da es nicht mehr benötigt wird. (PhysX ist dennoch eine gute Physik-Engine, auch ohne Hardwarebeschleunigung.) @hectic: Danke für diese Info. Ich nehme aber auch gerne solche Infos gegenüber ATI an. |
||
AMD Athlon 64 3500+, ATI AX800 Pro/TD, 2048 MB DRR 400 von Infineon, ♥RIP♥ (2005 - Juli 2015 -> sic!)
Blitz3D, BlitzMax, MaxGUI, Monkey X; Win7 |
The_Nici |
Mo, Jul 20, 2009 0:05 Antworten mit Zitat |
|
---|---|---|
hectic, deine Quellen will ich sehen. Wahrscheinlich hast du das mit der nVidia-Betrügerei von irgend einem hochseriösen Halbwisserforum, darf ich raten?
Habe von dir auch noch keinen spezifischen Grafikkartenvorschlag gesehen, nur rumgemotze. Danke an die Leute, die mir halfen. MfG EDIT: Noch eine Randbemerkung: Ich habe auch vor eine Recordingkarte zu kaufen, und anzufangen Machinima zu drehen. Auch dies ist ein Grund für eine neue Grafikkarte. |
||
DAK |
Mo, Jul 20, 2009 1:13 Antworten mit Zitat |
|
---|---|---|
n schirm mit 150 watt is nicht soo selten.. meine beiden röhrenschirme, die ich hier hab, fressen 120 (samsung syncmaster 959nf, 19 zoll) bzw 160 (samsung syncmaster 17gli, 17 zoll) watt... | ||
Gewinner der 6. und der 68. BlitzCodeCompo |
Pummelie |
Mo, Jul 20, 2009 8:46 Antworten mit Zitat |
|
---|---|---|
@ Reaper
Ich schrieb doch das ich die net auschalte, laso nicht im standby läuft @ PhysXship Wie jetz, ich habe ne 7600 gt und son anderen Phys treiben ( von Nvidia ) und der sagt, ich hab den benötigten chip... |
||
It's done when it's done. |
D2006Administrator |
Mo, Jul 20, 2009 10:24 Antworten mit Zitat |
|
---|---|---|
Bezüglich Betrug bei Benchmarks: Hier ein Fall, an den ich mich auch noch erinnere, mit Crysis:
http://www.grafikkartenblog.de...hmark.html Aber wie schon in dem Artikel erwähnt, hat das auch ATI schon getan. |
||
Intel Core i5 2500 | 16 GB DDR3 RAM dualchannel | ATI Radeon HD6870 (1024 MB RAM) | Windows 7 Home Premium
Intel Core 2 Duo 2.4 GHz | 2 GB DDR3 RAM dualchannel | Nvidia GeForce 9400M (256 MB shared RAM) | Mac OS X Snow Leopard Intel Pentium Dual-Core 2.4 GHz | 3 GB DDR2 RAM dualchannel | ATI Radeon HD3850 (1024 MB RAM) | Windows 7 Home Premium Chaos Interactive :: GoBang :: BB-Poker :: ChaosBreaker :: Hexagon :: ChaosRacer 2 |
joKe |
Mo, Jul 20, 2009 11:49 Antworten mit Zitat |
|
---|---|---|
Schau dich mal auf www.edel-grafikkarten.de um. Das ist mein Arbeitgeber und ich hab meine zwei letzten Karten von dem besorgt. Der kauft normale Karten, übertaktet diese und verbessert den Kühler (oder baut ein besseren drauf) und liefert seine Karten in schicken Holzschatullen aus. Er gibt auch Garantie auf seine Produkte und hat schon ziemlich viele Auszeichnungen für seine Karten bekommen. | ||
Projekt: Pollux Renegades Coop
[Maschine: Intel DualCore2 2x 3Ghz | 4096 DRR2 | GeForce GTX 260 Ultra] |
hecticSieger des IS Talentwettbewerb 2006 |
Mo, Jul 20, 2009 18:09 Antworten mit Zitat |
|
---|---|---|
@Chester
Klar hatte ATI, nachdem das bereits gängige Praxis war, es auch so gemacht. Schliesslich musste ATI um ihre Existenz kämpfen, wärend NVidia sich da gemütlich zurück lehnen und beobachten konnte. @#Reaper Wurde denke ich schon geklärt. So weit ich mich erinere hat heise.de da auch mal ein Bericht darüber geschrieben. Da ging es allerdings nicht um das optimieren von Spielen, sondern um das manipulieren von Benchmarks. Zwei unterschiedliche Dinge, aber mit eindeutigen Zielen. @The_Nici Hat nun unter anderen D2006 erledigt. Ansonsten liefert Google sicherlich auch gute Ergebnise dazu. Zum anderen habe ich wirklich keine Lust darauf, stundenlang nach guten Grafikkartenn vom Hause ATI zu suchen, wenn dein Entschluss bereits vom Anfang an auf NVidia gelegt wurde. Da kann ich ja genauso gut versuchen dir ein paar ganz tolle Barbiepuppen zu verkaufen. Das Dessinteresse wird sicherlich genauso groß sein. Im übrigen suche ich mir selbst ein neues System zusammen, und da opfere ich lieber meine Freizeit für. The_Nici hat Folgendes geschrieben: Danke an die Leute, die mir halfen.
Oh bitte. Immer wieder gern! Lese mal bitte alle meine Beiträge noch einmal und zeige mir - auch gerne per PN - womit ich die Hasskappe verdient habe. Schriftliche Ausernandersetzungen laufen oft fehl, da die Emotionen die durch Laute und Stimmlage gesetzt werden, komplett fehlen. |
||
Download der Draw3D2 V.1.1 für schnelle Echtzeiteffekte über Blitz3D |
The_Nici |
Mo, Jul 20, 2009 18:33 Antworten mit Zitat |
|
---|---|---|
Zitat: Zum anderen habe ich wirklich keine Lust darauf, stundenlang nach guten Grafikkartenn vom Hause ATI zu suchen
Dann poste nicht. |
||
Randall Flagg |
Mo, Jul 20, 2009 19:20 Antworten mit Zitat |
|
---|---|---|
Pummelie hat Folgendes geschrieben: @ the_nici
Würd dir entweder die gefource 275 gt(x) empfehlen oder eben 2 ATI auf crossfire (schön viel gddr). @ umwelttherad Mein PC Netzteil schaltet sich Nicht ab, egal ob der PC aus ist oder nicht, also verbraucht der schonmal zwischen 200 und 500 watt dauerhaft. Dann hab ich da noch ein Microsoft Side Winder Wheel, verbraucht dauerhaft 20 watt. Da wäre noch eine Home Theater 5.1 Anlage, die ich nie abziehe, verbraucht dauerhaft 600 watt. Der Bildschirm zieht noch 150 watt. Und mein Laptop zieht fast dauerhaft (allerdings weiß ich den Stromverbrauch nicht [noch nicht gemessen]). und noch ein bisschen schnick schnack, 200 watt. Was bist du denn für einer? xD Wenn ich den Rechner runterfahre wird unten an der Steckdose so ein schöner, leuchtender Schalter umgelegt, damit die Sau nicht mehr frisst als sie eigentlich sollte. Auch beim Hardwarekauf versuche ich immer, dass alles vom 450 Watt Netzteil versorgt wird. Verschwenderisch werde ich erst, wenn ich ein eigenes Haus mit Solarzellen aufm Dach habe, dann kann mich die Umwelt mal an meinem dreckigen Hintern lecken, denn ich schade ihr dadurch nicht mehr wirklich xD |
||
Meine Parodien & Geschichten |
The_Nici |
Mo, Jul 20, 2009 20:07 Antworten mit Zitat |
|
---|---|---|
Hallo,
so, ich habe mir mal die ARMAII-Demo angeschaut. Benchmark-Ergebnisse: 17FPS. Ich lese hier, dass dieses Spiel Shader Model 3 braucht. Ebenfalls las ich irgendwo, dass manche Grafikkartem Shader Model 3 nur emulieren und deswegen langsamer sind. Kann es sein, dass meine Grafikkarte zu diesen gehört? |
||
Gehe zu Seite Zurück 1, 2, 3 Weiter
Übersicht Sonstiges Smalltalk
Powered by phpBB © 2001 - 2006, phpBB Group