Blitz ruckelt - Hardware hat noch nichts zu tun...

Übersicht BlitzBasic Allgemein

Neue Antwort erstellen

 

onkelz89

Betreff: Blitz ruckelt - Hardware hat noch nichts zu tun...

BeitragFr, Jul 17, 2009 7:55
Antworten mit Zitat
Benutzer-Profile anzeigen
Hi,

kann es sein das die Engine - Blitz3D - an sich iwann ruckelt, auch wenn ein neuartiges System weitaus mehr können sollte?

Habe ein Spiel, das läuft auch schnell, auch auf älteren Systemen, nur wollte ich die Grenzen testen und habe ne Menge Häuser erstellt.

Folgenden Daten:
FPS: 11-19
Trieangles: 300.000
CPU Auslastung: Je ca. 5 - 10 % (Quad)
Ram: 600 MB / 2GB
Graka: Temp bleibt konstant auch ein und der selben Temperatur (auch vor Spielstart)
Ist eine passive 1950 Pro - Bei Fear zB geht sie hoch auf ca. 60°C, bei meinem Game (obwohl es ruckelt) nur 45°C - dies ist auch bei normalen Win Anwendungen so...

Es ist auch NICHT so dass ich iwas lade in der Schleife, es werden nur die massige Anzahl an Tries angezeigt, nichts geladen und nichts verändert - im Sinne von Texturen, Farben, Positionen...


Weiß einer Rath?
Achja die Häuser habe je nur ein Surface... aber 11 Stockwerke, wo jede Teilwand ein Objekt war, welche mit Addmesh zusammengesetzt und später Texturiert werden.

Danke jetzt schon fürs lesen Wink

ozzi789

BeitragFr, Jul 17, 2009 8:13
Antworten mit Zitat
Benutzer-Profile anzeigen
Hast du vlt was ausfühbares?
Vlt mal Treiber updaten
0x2B || ! 0x2B
C# | C++13 | Java 7 | PHP 5

NightPhoenix

BeitragFr, Jul 17, 2009 8:53
Antworten mit Zitat
Benutzer-Profile anzeigen
Jopp gib uns mal den Source.
Blitz wird nicht langsamer, nein das Problem muss bei dir liegen Wink

Pummelie

BeitragFr, Jul 17, 2009 10:10
Antworten mit Zitat
Benutzer-Profile anzeigen
Blitz kann nur einen core nutzen...
und soweit ich weiß benutzt blitz meißt den cpu für grafik dank dx7, das würde die temperatur erklären.
It's done when it's done.

NightPhoenix

BeitragFr, Jul 17, 2009 10:34
Antworten mit Zitat
Benutzer-Profile anzeigen
Zitat:
und soweit ich weiß benutzt blitz meißt den cpu für grafik dank dx7

Blödsinn.
B3D nutzt die Grafikkarte genauso wie anderen DX Versionen, nur werden Postprocessing Effekte, etc. nicht auf die Grafikkarte wie bei modernen DX Versionen ausgelagert. Die werden dann auf der CPU berechnet.
Das Rendering geschieht aber alles auf der Grafikkarte.

Benutzt du also folglich nur das einfache Renderworld ohne "Bloom", etc. Schnickschnack geht alles über die Grafikkarte.

Tankbuster

BeitragFr, Jul 17, 2009 11:36
Antworten mit Zitat
Benutzer-Profile anzeigen
Hast du die einzelnen Meshs nach dem Zusammenfügen mit Addmesh wieder gelöscht?
Twitter
Download Jewel Snake!
Windows|Android

hectic

Sieger des IS Talentwettbewerb 2006

BeitragFr, Jul 17, 2009 15:31
Antworten mit Zitat
Benutzer-Profile anzeigen
Das beste Argument ist noch von Pummelie,.. oje. Blitz3D ist alt, aber auch nicht aus der Steinzeit.

Nur noch zur Info: Ein einzelner Prozessor eines billigen Quads muß nicht zwangsweise besser oder schneller sein als ein guter alter Pentium single Core (jeweils im Vergleich eines einzelnen Prozessorkernes). Und da Blitz3D nur ein Kern nutzen kann, ist es eh schnuppe ob man nun dual/quad oder sonst viele Kerne im System hat.

Eine einmal erstellte Szene dauert dann so lange, wie optimiert die Treiber auf das entsprechende DirectX sind. Bei moderneren Rechnern könnte es durchaus sein, dass die älteren Spiele dann wieder langsamer werden. Allerdings bräuchten wir schon den Code um eventuelle Programmierfehler auszuschliessen. Manche Grafikkarten mögen es zum Beispiel gar nicht wenn unzählige Surfaces vorhanden sind. Da spielt dann auch die Anzahl der Triangles eine sehr untergeordnete Rolle.
Download der Draw3D2 V.1.1 für schnelle Echtzeiteffekte über Blitz3D
 

onkelz89

BeitragMo, Jul 20, 2009 18:11
Antworten mit Zitat
Benutzer-Profile anzeigen
Erstmal Danke für die vielen Antworten.

Das mit dem Source hochladen ist schlecht, weil es doch sehr viel Code ist. Ca. 350 KB -> 8.000-10.000 Zeilen

Die muss und brauch Niemand sehen Razz


Habe nen Quad, jedoch ist nicht ein Kern mit mehr als 20% ausgelastet, wenn das Game ruckelt.

Es ruckelt auch NUR wenn ich auf die Gebäude schaue und meine Trie-Zahl steigt (sichtbare)

Habe alles per EntityAutoFade - momentan.... vielleicht ist das auch ein Problem?


Hoffe ihr könnt damit was anfangen.

Nicdel

BeitragMo, Jul 20, 2009 18:13
Antworten mit Zitat
Benutzer-Profile anzeigen
Versuchs mal mit ner besseren Grafikkarte und nimm weniger Tris für deine Gebäude.
Desktop: Intel Pentium 4 2650 Mhz, 2 GB RAM, ATI Radeon HD 3850 512 MB, Windows XP
Notebook: Intel Core i7 720 QM 1.6 Ghz, 4 GB DDR3 RAM, nVidia 230M GT, Windows 7

NightPhoenix

BeitragMo, Jul 20, 2009 18:20
Antworten mit Zitat
Benutzer-Profile anzeigen
Wieviele Triangles haben die Gebäude denn?
Wieviele Surfaces hat die Szene?
Was für eine Grafikkarte hast du?

Nicdel

BeitragMo, Jul 20, 2009 18:26
Antworten mit Zitat
Benutzer-Profile anzeigen
Grafikkarte ist anscheinend von ATI:

Zitat:
Graka: Temp bleibt konstant auch ein und der selben Temperatur (auch vor Spielstart)
Ist eine passive 1950 Pro - Bei Fear zB geht sie hoch auf ca. 60°C, bei meinem Game (obwohl es ruckelt) nur 45°C - dies ist auch bei normalen Win Anwendungen so...
Desktop: Intel Pentium 4 2650 Mhz, 2 GB RAM, ATI Radeon HD 3850 512 MB, Windows XP
Notebook: Intel Core i7 720 QM 1.6 Ghz, 4 GB DDR3 RAM, nVidia 230M GT, Windows 7

Valnar

BeitragDi, Jul 21, 2009 2:39
Antworten mit Zitat
Benutzer-Profile anzeigen
Um das Argument von Pummelie nochmal aufzugreifen:
Ich hab bis jetzt gedacht das bei DX10 - also Vista - DX7 nur Emuliert wird und (auch daher) langsamer ist, weil die Grafik in der CPU sowie in der GPU erstellt wird.
Oder hab ich da was falsches im Hinterkopf? *Kopfkratz*
 

onkelz89

BeitragDi, Jul 21, 2009 6:56
Antworten mit Zitat
Benutzer-Profile anzeigen
Ja genau, ist eine ATI Radeon 1950 Pro (DX 9 Karte)

Die Szene hat X Surfaces:
1x SkyBox
1x MeshTerrain
5-10 Objekte (kleinere)
10x Häuser
____
Max. 22 Surfaces also

Jedes Haus hat ca. 24.000 Tris (11 Stockwerke)

Restliche Szene hat weniger als 1000 Tris


OS ist Win XP Home

-> ich weiß das 240.000 ne Menge an Tris ist, aber warum zeigt keine meiner Hardwarekomponenten die Auslastung an? Oder liegt es doch noch an ner anderen Sache?

DerHase

BeitragDi, Jul 21, 2009 13:10
Antworten mit Zitat
Benutzer-Profile anzeigen
Ich denke 240.000 sind einfach zu viel für Blitz3D. Wozu hat ein Gebäude soviel Tris, mach mal einen Screenshot, ich kann mir nicht vorstellen wozu man die braucht?
Play Satyr!
 

onkelz89

BeitragDi, Jul 21, 2009 15:54
Antworten mit Zitat
Benutzer-Profile anzeigen
Geht definitiv mit weniger... aber
Alle 1,5x1,5 (ca.) Meter großen Stücke werden einzeln zusammengesetzt...

Sind dann pro Wand/Fenster/Türstück min. 12 Points...

WEIL:
- Kann bei späterer Beschädigung - nur diese Teile austauschen
- Kann beliebig und fix Texturieren (über U/V Koords)

Ist aber nur ein Surface / eine Texture... dachte es geht dann noch...

Nicht?

BladeRunner

Moderator

BeitragDi, Jul 21, 2009 18:39
Antworten mit Zitat
Benutzer-Profile anzeigen
240k Tris sind für eine flüssige Darstellung definitiv zu viel.
Zu Diensten, Bürger.
Intel T2300, 2.5GB DDR 533, Mobility Radeon X1600 Win XP Home SP3
Intel T8400, 4GB DDR3, Nvidia GF9700M GTS Win 7/64
B3D BMax MaxGUI

Stolzer Gewinner des BAC#48, #52 & #92

Neue Antwort erstellen


Übersicht BlitzBasic Allgemein

Gehe zu:

Powered by phpBB © 2001 - 2006, phpBB Group