Beiträge von Alexander1970 im Thema „NVIDIA DLSS - Eure Erfahrungsberichte bitte.“

Guten Abend Gast. Schön, dass Du hereinschaust! Einen angenehmen Aufenthalt wünscht das CompiWare-Team.

    Wieso hab ich jetz grad ein Deju wü.... 8|

    Nvidia und deren scheiss niemals ordentlich weiterentwickelten "neue" Technologien....

    T & L - Hat bis heute nie so funktioniert wie es uns damals von den ganzen Promotorenwürschteln versprochen wurde.....

    Manchmal komm ich mir vor wie ein kleines Kind,das jedes Jahr ein Stückerl von der wirklich guten Schokolade bekommt....wo das Haltbarkeitsdatum aber schon vor 20 Jahren abgelaufen ist,aber Ware (immer noch) in Ordnung..... :face_with_steam_from_nose:

    Vielen Dank bommel888 min Jung,vieles davon hab ich schon durchgeackert. :) :thumbup:


    Vielen Dank r-o-t-z-i min Jung.❤️😉

    Also ich kann bei meiner Radeon ja nur von FSR und aktuell FRS 2.0 sprechen. Da gilt es, eine Auflösung von 3840x2160 (4K) so zu rendern, damit es bei schwächeren Produkten zu ähnlicher Bildqaulität kommt. In den Stufen von Leistung bis Qualität tun sich natürlich Unterschiede auf. Da Du eine Renderingauflösung von 1980 x 1080 (HD) als native Auflösung Deines Monitors vorgibst, macht sich da nicht besonders viel. Du musst mal div. Tests vergleichen: Performante Grafikkarten weisen in der HD-Auflösung größere Performancesprünge auf als in höheren Auflösungen. Das bedeutet, dass sich genau hier die größte Diskrepanz in DLSS als auch FSR ergibt. Würde ich immer noch auf meinem 22" Samsung in 1920x1200 zocken, wäre ich mit Deiner Graka da, wo andere mit ihrer Graka bei 8K sind. Ach und überhaupt. Warum gleich so hoch gegriffen: 8K ?!? ;)

    Genau.Deshalb war meine Frage ob ich mit DLSS mein System quäle oder entlaste.

    Also das mit dem Stromsparen hab ich nun gecheckt.

    Nochmal Requiem genommen mit 1920x1080

    Ohne DLSS:

    68 - 70° Kartentemperatur

    150 / 170 Watt "Verbrauch" (Durchschnitt/Höchstwert)

    Mit DLSS:

    60 - 62° Kartentemperatur

    90 / 100 Watt "Verbrauch" (Durchschnitt/Höchstwert)

    Ok,DASS wollte ich nur wissen und damit haben die :lovecw: Profis mir mit wenigen Handgriffen geholfen.

    Vielen Dank an alle min Jungs.❤️❤️❤️❤️❤️❤️


    PoooMukkel

    Echt sehr schwer,da immer nur einem die "Beste Antwort" zu geben.😢

    Danke min Jung.❤️😉

    DLSS ist sehr gut für die Leistung, also weniger FPS wirst du dadurch nie haben.

    Genau das isses ja was ich meine - Brauch ich das für mein System ? Ich kann keinen sichtbaren Unterschied feststellen in den Fall (Plague Tale Requiem).

    Auf Youtube erklären´s aber meistens,aktiviertes DLSS bringt MEHR FPS und ENTLASTET das System. 8|

    Ich frag deshalb,da ich mit heute bemerkt habe,das mein PC schön langsam mit den steigenden Aussentemperaturen wieder etwas schneller zu "Schwitzen" beginnt

    (Lüfterkurven für Grafikkarten/CPU/Gehäuse von Winter auf Sommerbetrieb umgestellt)

    und ich hätte gerne a bissal Reserven.😉

    Da ich mich schon die ganze Zeit frage,ob ich mein nicht mehr ganz junges PC System mit dem DLSS quäle oder entlaste,auf Youtube immer wieder verstörende Testberichte sehe,frage ich lieber die Leute,die sich am Besten auskennen -> Euch,liebe :lovecw: Freunde.

    Habe hier mal versuchsweise versucht,zwei Screenshots zu machen,auf denen ich als Laie absolut keine Unterschiede erkennen kann:

    RTX 3060 mit 12 GB

    Die Auflösung ist wie immer 1920 x 1080

    Mit DLSS auf Qualität / Settings auf Maximum:


    DLSS OFF / Quality Settings auf Maximum/Ultra:



    Da ich keinen HDR Gaming 8K Monitor verwende (ein alter LCD 32 Zoll per Displayport/HDMi),sehe ich da für mich keinen Qualitäts Unterschied.

    Würde deaktiviertes DLSS Zeugs also etwas mehr Performance bedeuten ?

    Leider ist mir auch klar,dass das Spieleabhängig ist,sprich bei zum Beispiel Resident Evil Engine Spielen kann die Sache wieder ganz anders aussehen....korrekt ?


    Ein Dankeschön für Eure Erfahrungsberichte.❤️😉