GeForce 8800 GTX auch DX 10.1

Übersicht Sonstiges Smalltalk

Gehe zu Seite Zurück  1, 2

Neue Antwort erstellen

peacemaker

BeitragSo, Dez 02, 2007 21:40
Antworten mit Zitat
Benutzer-Profile anzeigen
Diese ganze Dx10.1-Story iss ja sowieso bescheuert. Neue Hardware...
Ich hoffe doch das es von nich allzu vielen genutzt wird, hat sich sicher wieder die ganze API geändert, wie es mit Dx so oft der Fall ist....


MfG
~Tehadon~
www.tehadon.de
http://www.blitzforum.de/worklogs/14/

ChaosCoder

BeitragSo, Dez 02, 2007 22:31
Antworten mit Zitat
Benutzer-Profile anzeigen
Das mit den DX 10.1 Karten, das sind DX 10 Karten die folgende Features unterstützen müssen(laut Wikipedia):

* Shader Model 4.1
* 4x Anti-Aliasing mit veränderbaren Subpixel-Mustern
* durchweg mit 32-Bit-Gleitkommazahlen rechnen
* dynamisch adressierbare Cubemap-Arrays
* rendern in blockkomprimierte Framebuffer

Falls eines der Features nicht unterstützt wird funktioniert DX 10.1 nicht... Ansonsten wäre die DX 10 Karte DX 10.1 fähig und somit alles Paletti Very Happy Musst also mal schaun, ob deine Karte sowas kann, wo man das rausfindet, frag mich was besseres xD
Projekte: Geolaria | aNemy
Webseite: chaosspace.de
 

Dreamora

BeitragSo, Dez 02, 2007 22:38
Antworten mit Zitat
Benutzer-Profile anzeigen
ATI tuts, NVIDIA tuts net, so simpel.

Allerdings hat SM 4.1 kein Feature das man wirklich braucht (wenn das selbst die Crysis machen, heisst das was), insofern ist eine DX10 karte kein weltuntergang.

Bis die features potentiell in 3 jahren zum tragen kommen, haben es alle karten Smile
Ihr findet die aktuellen Projekte unter Gayasoft und könnt mich unter @gayasoft auf Twitter erreichen.

ozzi789

BeitragMo, Dez 03, 2007 15:55
Antworten mit Zitat
Benutzer-Profile anzeigen
Jetz tust du aber Nvidia unrecht ... *NVidiaKartestreichel*

Du sagst es .. Dx 10 wird selbst heute noch nicht wirklich ausgenutz...

Shader Model 4.0 Hat die 8800 Sad nuuuuuur 4.0 ! *ironischgetuhe*
0x2B || ! 0x2B
C# | C++13 | Java 7 | PHP 5
 

Dreamora

BeitragMo, Dez 03, 2007 16:05
Antworten mit Zitat
Benutzer-Profile anzeigen
Willst du die Pisa Studie stützen bzw. Textverständnis oder war das nur ein dummer Zufall?
Wenn du nicht weisst was ich meine, lies mein Posting bitte nochmal.

Dort steht, das es kein Problem ist wenn man SM 4.1 net hat, weil man es defakto nicht brauchen wird.
Die Features die da drin sind, klingen schön. Die heutigen Karten haben aber für einige der davon wirklich interessanten Features nicht Mal im Ansatz ausreichend Power, denn niemand hat Quad 8800GTX und drunter kann man einen Teil einfach rauchen wenn man gescheite Frameraten will.
Schon DX10 ist für die DX10 Karten schier ein Overkill wenn man davon ausgeht das auch die Highestend Karten net wirklich über 40FPS raus kommen in den High Grafiksettings.
Ihr findet die aktuellen Projekte unter Gayasoft und könnt mich unter @gayasoft auf Twitter erreichen.

ozzi789

BeitragMo, Dez 03, 2007 21:31
Antworten mit Zitat
Benutzer-Profile anzeigen
ozzi789 hat Folgendes geschrieben:


Shader Model 4.0 Hat die 8800 Sad nuuuuuur 4.0 ! *ironischgetuhe*


Dachte das wär klar genug Smile
0x2B || ! 0x2B
C# | C++13 | Java 7 | PHP 5

Kernle 32DLL

BeitragMo, Dez 03, 2007 23:48
Antworten mit Zitat
Benutzer-Profile anzeigen
Ok kiddis, runterkommen ^^

Klarer Tisch: DX 10.1 benötigt zwar neue Hardware, aber Entwickler werden (hoffentlich ?) davon absehen diese "tollen" Features zu nutzen. Denn selbst für DX 10 haben moderne Grafikkarten von Heute nicht die Leistung. Und ich habe da schon diverses durchprobiert (Crysis ist da nur die Spitze des Eisberges).

Ich habe eine nette ATI HD 2900 XT die dank Wasserkühlung notfalls noch ordentlich Tuningpotenzial hat.

Ich warte auf die nächste Grafikkarten Generation von ATI, und die geht nach GC '07 Gespräch am ATI Stand zu den Anfang 2008 erscheinen "Dualcore Karten". Also Grafikarten mit 2 GPU's. Der erste schritt dahin war diese neue Naotechnologie (Aktuelle 3xxxx Reihe von ATI), die es erst möglich macht ein solches Monster zu kühlen.

Wenn diese "Power" dann ohne große Umwege in Spielleistung umgesetzt werden kann (und net umständlich als Extra support eingebaut werden muss, siehe Crossfire und SLI), dann dürfte das erstmal die Grafikkarten Generation sein die ordentlich wasaus DX 10 holt ^^

Für weitere Infos lese man die Computerzeitschrift seines Vertrauens (GameStar) + viel Eigensuche im Internet ^^

Mal was am Rande....
Crysis würde echt bei vielen Leuten besser laufen wenn die Entwickler endlich mal Support für Dual/Quadcores einbauen würden (Physik), bzw. vielmehr endlich Crossfire und SLI Verbunde unterstützen. Besitzer selbiger schauen nämlich momentan tief in die Röhre xD

Grüßle:
Kernle
Mein PC: "Bluelight" - Xtreme Gamer PC [Video]
Meine Projekte: Cube-Wars 2010 [Worklog]
Anerkennungen: 1. Platz BCC #7 , 1. Platz BCC #22 , 3. Platz BAC #89
Ich war dabei: NRW Treff III, IV ; Frankfurter BB Treffen 2009
 

ChristianK

BeitragMo, Dez 03, 2007 23:58
Antworten mit Zitat
Benutzer-Profile anzeigen
Crysis und auch einige andere Spiele unterstützen schon Dual- und Quadcore-Prozessoren -> http://www.computerbase.de/new...core-cpus/
Laut der PC Games läuft Crysis auf einem Quad sogar bis zu 23% schneller als auf Dual.
AdvanceLcd
Intel Core 2 Duo 3.2 GHz, 4 GB RAM, GeForce 8800 GTX | MacBook Pro 15,4″ Intel Core 2 Duo 2.4 GHz, 2 GB RAM, GeForce 8600M GT
 

Dreamora

BeitragDi, Dez 04, 2007 0:12
Antworten mit Zitat
Benutzer-Profile anzeigen
Dualcore Karten sind nix neues, NVIDIA hatte die letzten 2 Generationen schon welche und wirds mit den G95 ja wieder machen.

Nur bringen die soviel wie SLI, nämlich keine Weltwunder
Konsequenz ist aber eine weitere erhöhung der schon inakzeptabel hohen stromverschleisserei ... will heissen für mich gehören alle hersteller von GPU die mehr als 200-220W ziehen einfach nur noch gebüsst wegen aktiver Umweltschädigung
Ihr findet die aktuellen Projekte unter Gayasoft und könnt mich unter @gayasoft auf Twitter erreichen.

Kernle 32DLL

BeitragDi, Dez 04, 2007 14:43
Antworten mit Zitat
Benutzer-Profile anzeigen
ChristianK hat Folgendes geschrieben:
Crysis und auch einige andere Spiele unterstützen schon Dual- und Quadcore-Prozessoren -> http://www.computerbase.de/new...core-cpus/
Laut der PC Games läuft Crysis auf einem Quad sogar bis zu 23% schneller als auf Dual.


Auch wenns da steht, es stimmt nicht. Oder selbst wenn, dann nur sehr unzureichend. Mit meiner G15 Tastertur lasse ich mir während dem gamen abwechselnd Temeperatur von Prozessor, GPU, etc. , Auslastung der einzelnen Cores, und Auslatung der Grafikkarte anzeigen.

Ergebnis:
Grafikkarte läuft auf vollast (99-100%), bei mier Quadcore tuckert aber nur ein Kern auf 99%, während die anderen wie im Leerlauf auch nur auf 1-2% laufen. Das trifft üprigens auf jedes Spiel was ich so far gespielt habe. Also z.b. Crysis, World in Conflict, Timeshift (dx 9 Wink ), Unreal Tournament 3 (angeblich OpenGL ?), Hellgate London, The Witcher... Um mal die wichtigsten zu nennen. Und bei allen gabs das gleiche oben genannte Ergebnis (Bei World in Conflict ist die CPU netmal vom 2D/Leerlauf Takt â 1,4ghz pro Core auf 3D-Takt â 2,4ghz pro Core hochgegangen... Dabei war die eine Core total ausgelastet)

Fazit:
Entweder hab ich ne Scheiß CPU, die "ausgelagerten" Rechenaktivitäten sind so unaufwändig das die CPU netmal um 1% höher geht, oder die Entwickler protzen schlicht mit Features die sie nicht haben. Besonders die aufwändige Physikberechnung von Crysis sollte doch gut auf mehrere Kerne verteilbar sein !

Dreamora hat Folgendes geschrieben:
Dualcore Karten sind nix neues, NVIDIA hatte die letzten 2 Generationen schon welche und wirds mit den G95 ja wieder machen.[...]


Wenn das stimmt, dann hat NVIDIA diese Power aber sehr mies genutzt. Natürlich verdoppelt sich die Leistung durch 2 Cores nicht... Aber einen starken Anstieg sollte es schon geben (sofern die Treiber das richtig gebacken kriegen *misstrauisch zu NVIDIA's Treibern schiel*). Heißt für mich kurzum, wenn ATI ohne Dualcore Karten halbwegs gleichauf mit NVIDIA's Dualcore Karten ist, dann dürfte die nächste Grafikkarten Generation von ATI NVIDIA's Gegenstück davon rennen. Nunja, wir werden wohl Anfang nächsten Jahres sehen wie das "Wettrüsten" der Grafikkarten weitergeht... mööp

Edit:
Nochwas zum Stromverschleiß... zusätzliches Problem ist ja auch, das man so ne Karten dann schwer gekühlt kriegt... Daher fertigt ATI ja ihre 3xxx Serie ja erstmals mit irgentsoeiner neuen Nanotechnologie... da kenne ich mich nicht so gut aus... meine aber mitbekommen zu haben das die Leistung minimal abnimmt, während Fertigungsfehler abnehmen, und die Karte nurnoch halb so Warm wird... Aber wie gesagt, das kann ich nicht genau bestätigen...

Grüßle:
Kernle

PS: Ja, moderne Karten saugen ordentlich Strom ^^ deshalb hat mein neuster PC auch ein 750W Netzteil *gg*
Mein PC: "Bluelight" - Xtreme Gamer PC [Video]
Meine Projekte: Cube-Wars 2010 [Worklog]
Anerkennungen: 1. Platz BCC #7 , 1. Platz BCC #22 , 3. Platz BAC #89
Ich war dabei: NRW Treff III, IV ; Frankfurter BB Treffen 2009
 

Dreamora

BeitragDi, Dez 04, 2007 14:57
Antworten mit Zitat
Benutzer-Profile anzeigen
NVIDIA hat die technik gut genutzt, es hat nur so gut wie niemand diese Karten da sie teurer sind als die normalen Flagschiffe.


Was die Physik von Crysis betrifft: Die ist unter DX10 voll shaderbasierend, darum hast du im DX10 multiplayer auch physik während dx9 multiplayer sie net hat (DX9 hat keine unified shader)

ansonsten muss wohl mit deiner tastatur was futsch sein, denn mindestens einige der spiele verteilen sich sauber über mehrere cores, zb WiC verteilt sich auf meinem System (Core 2 Duo, 2x3ghz, 8800GTS SC) relativ gleichmässig, da ist es nicht so das ein core nix tut und der andere alles.
Und ja, ich hab auch eine G15. Vermutlich is dein tool das du nutzt hin, Ich nutze SirReals Plugin
Ihr findet die aktuellen Projekte unter Gayasoft und könnt mich unter @gayasoft auf Twitter erreichen.

Gehe zu Seite Zurück  1, 2

Neue Antwort erstellen


Übersicht Sonstiges Smalltalk

Gehe zu:

Powered by phpBB © 2001 - 2006, phpBB Group