das Zauberwort ist DLSS 3.0 Frame Generation.
Ja, stimmt, und wenn man wüsste, wie lange man mit 16GB gut hinkommt und wie sich die Preise gestalten, wäre die Frage nach der nächsten Karte schon fast beantwortet.
mfg Kai
das Zauberwort ist DLSS 3.0 Frame Generation.
Ja, stimmt, und wenn man wüsste, wie lange man mit 16GB gut hinkommt und wie sich die Preise gestalten, wäre die Frage nach der nächsten Karte schon fast beantwortet.
mfg Kai
Soweit ich weiß, kann der Sim auch FSR-2, was das Gegenstück von AMD zu DLSS ist.
Soweit ich weiß, kann der Sim auch FSR-2, was das Gegenstück von AMD zu DLSS ist.
Nincht gänzlich das Gegenstück aber ähnlich. FSR3 soll im kommenden Jahr ja dann auch kommen, was wiederum zu DLSS3 Konkurrenz liefern soll. Ob der FPS Gewinn so hoch ausfällt wie bei DLSS, muss man natürlich abwarten.
Hier noch eine Kaufentscheidung für die Unentschlossen, so wie ich
Vielleicht warte ich noch auf die neuen AMD CPUs
FSR 3 wird aber noch 1 Jahr brauchen und dann muss noch das Spiel kompatibel sein.
Also das nutz dir jetzt gar nichts.
Zum Thema neue Grafikkarte kann ich auch noch eine Erkenntnis teilen:
Hatte eine 1080ti in meinem i7 8700 laufen, und war damit für Xplane und MSFS im Medium Settings Bereich gut unterwegs, richtig aufdrehen (also auch in VR) ging aber nicht ohne FPS- und damit Flüssigkeitsverluste (sprich "stutters").
Also Upgrade auf eine 3080ti - und mit grossen Erwartungen den MSFS gestartet und alle Einstellungen auf Ultra: sah alles sofort besser aus, aber die kleinen Ruckler blieben. Warum?
Nach diversen Nächten des Rumprobierens hatte ich die Lösung: es bedarf der richtigen Arbeitsverteilung (....wie im Leben, ha). Heisst; mein alter i7 sollte entlastet werden, wenn es um CPU lastige Berechnungen geht. Wenn da also der MSFS schon auf einem Kern massiv rödelt, daneben noch Szenerie streamt, LittleNavMap und Oculus werkeln, LiveTraffic und FSUIPC heftig Daten austauschen, dann muss man im MSFS halt bestimmte Parameter reduzieren, u.a. Level of Detail bei Objekten und Szenerien.
GPU lastige Berechnungen hingegen dürfen hochgeschraubt werden, also z.B. statt Performance nun Qualität priorisieren (in diversen Programmen, also nicht nur bei Nvidia, auch bei Oculus, Systemsteuerung usw.) - speziell im MSFS können Ultra Wolken und 16x16 Anisotropic Filtering viel ausmachen, auch Precaching setzt die GPU unter Last.
Und genau das wollte ich: die CPU muss immer vor der GPU sein. Sobald die GPU auf die CPU "warten" muss, entstehen Ruckler. Wer also eine 30er oder 40er Graka zu Weihnachten bekommt, aber keinen i10 oder i12 Rechner hat, sollte dies berücksichtigen. Meine Einstellungen kann ich bei Interesse gerne irgendwo teilen (oder hier auf meiner FB Gruppe stehen sie auch MSFS Einstellungen 3080ti in VR)
Gruss, Michael
Und genau das wollte ich: die CPU muss immer vor der GPU sein. Sobald die GPU auf die CPU "warten" muss, entstehen Ruckler.
Jo,hat sich seit Jahren am Flusi Himmel nicht`s geändert, hatte schon mit meinem Athlon 900 und der GPU damals auch schon die Probleme.
Hallo,
ich stehe auch gerade vor der Entscheidung welche aktuelle Grafikkarte ich mir zulegen sollte!? Ich tendiere zwischen einer RTX 4090 und RTX 4080....
Wie ist denn da so euere Erfahrung, solls gleich eine 4090 sein oder tuts nicht die RTX 4080 auch für die nächsten zumindest ca. 3 Jahre?
Momentan nutze ich noch eine RTX 2080Ti, CPU ist ein i9 13900k und ein bequiet Netzteil mit 1200W. Also momentan bremst mich noch die Grafikkarte ein.
Vielen dank für euere Meinungen!
Schöne Grüße aus Salzburg
Markus
Welche Auflösung gedenkst du zu verwenden? Nur Flusi oder auch andere Spiele?
Also momentan bremst mich noch die Grafikkarte ein.
Das hast du wie genau herausgefunden? Developermodus?
Welche Auflösung gedenkst du zu verwenden? Nur Flusi oder auch andere Spiele?
Also momentan bremst mich noch die Grafikkarte ein.
Das hast du wie genau herausgefunden? Developermodus?
Nur Flusi, Auflösung sollte 4K sein .
Im Taskmanager kann man sehr gut beobachten wie die Grafikkarte am Anschlag läuft und sich die CPU langweilt. Ich möchte halt einfach mit mehr Leistung bzw. halt höheren Einstellungen flüssig fliegen.
Wenn es das Budget erlaubt, machst du mit der RTX 4090 definitiv nichts falsch. Die Karte hat brachiale Leistung. Meine läuft bei Ultra Settings in 4K meistens so um die 60-70% Auslastung mit 16 GB VRAM Auslastung. Ich bin also trotz 4K dauerhaft im CPU Limit. Daher ist ein 13700K oder 13900K eigentlich Pflicht, aber den hast du ja. Alternativ die neuen X3D Ryzen 7000, die jetzt Ende Februar kommen.
Die Preise purzeln ja derzeit recht massiv...
Für mich zum Verständnis:
wenn die CPU-Auslastung um die 60% beträgt (lt. Taskmanager peakt keiner der Kerne auf 100%, alle "schwimmen" quasi etwas über mittig) und die GPU ebenfalls bei 65% Auslastung liegt, bei VRAM-use von, sagen wir mal 10GB, - limitiert dann da überhaupt eine Komponente, und wenn ja, warum? Oder läuft dann das Game in dem Falle ausgewogen - mit den Möglichkeiten, die die CPU und GPU haben? Im developermodus wird ja immer eine Komponente rot sein sein und die schlechteren ms-Werte haben - aber ist das dann gleich ein Limitieren?
mfg Kai
Ich fliege gerade mit der PMDG 737 den Landeanflug in Helsinki, dabei habe ich mal einen Screenshot vom Task Manager gemacht. Man sieht dass die GPU mit 99% arbeitet und die CPU nur 19% Auslastung hat.
Für mich zum Verständnis:
wenn die CPU-Auslastung um die 60% beträgt (lt. Taskmanager peakt keiner der Kerne auf 100%, alle "schwimmen" quasi etwas über mittig) und die GPU ebenfalls bei 65% Auslastung liegt, bei VRAM-use von, sagen wir mal 10GB, - limitiert dann da überhaupt eine Komponente, und wenn ja, warum? Oder läuft dann das Game in dem Falle ausgewogen - mit den Möglichkeiten, die die CPU und GPU haben? Im developermodus wird ja immer eine Komponente rot sein sein und die schlechteren ms-Werte haben - aber ist das dann gleich ein Limitieren?
mfg Kai
Das CPU Limit erkennst du nicht anhand der Auslastung, wegen der Vielzahl an Threads. Die oben genannte Situation spiegelt daher ein CPU Limit wieder.
Es limitiert immer eine Komponente, es sei denn die FPS sind gedeckelt, z.B. durch V-Sync auf die Monitor Refreshrate, sagen wir 60 Hz. Ist das bei dir der Fall?
Nein, es ist nichts gedeckelt. Die dargestellte Grafik von mir würde ein CPU-Limit bedeuten? Interessant...Ich dachte immer, Limit bedeutet am Anschlag, was ja bei mir aber nicht unbedingt der Fall wäre.
Aber du hast recht, ein Blick im Developermodus zeigt es:
Die Überlast des Main-Threads ist zwar nicht riesig, aber vorhanden.
Würdest du denken, das meine CPU auch geeignet für eine 4090 wäre?
mfg Kai
Naja es geht hier ja auch um Millisekunden in der Varianz.
Würdest du denken, das meine CPU auch geeignet für eine 4090 wäre?
Es gibt keine CPU, die eine RTX 4090 befeuern kann.
Es gibt keine CPU, die eine RTX 4090 befeuern kann.
Okay... .
Naja es geht hier ja auch um Millisekunden in der Varianz.
So sieht es aus.
mfg Kai
@Grafikkarte würde ich bei 4K unbedingt zur 4090 raten. Mit der 4000er Generation möchte man natürlich auch Ultra Settings fahren und da hat bei mir die 4080 tatsächlich schlapp gemacht in Sachen VRAM, FG macht da auch nochmal den Unterschied.
Ich habe jetzt die 4090 und bin bestens damit zufrieden. Mit Vsync an und Undervolting liege ich meistens unter 200 Watt Verbrauch, falls sich jemand von den 450 TDP eingeschüchtert fühlen sollte.
CPU mäßig würde ich defintiv auf die neuen Ryzen 3D Prozessoren warten. Ich habe die 5800X3D und die geht mal so richtig ab. Ist der 13900K ebenbürtig, wenn nicht sogar überlegen, wenn wir nur vom Flusi reden, wie diverse Benchmarks zeigen.