Die Grafikkarten der Community

  • Malachai80

    Sehe ich auch so, zwar kann solch ein Upgrade auch was mit dem "Haben Wollen" was zu tun haben, aber oft macht man sich auch Gedenken bezüglich mehr Leistung dazu.

    In meinem Fall kam ich auch mit meiner 1070 Grafikkarte noch gut aus, aber die 2080 war dann doch noch besser da ich einen UWQHD Monitor mit 120 Hz habe. Damit bin ich dann mit mehr Settings näher oder gar an meine 120 FPS gekommen die ich haben wollte. Ganz so neben bei habe ich auch noch eine UHD Fernseher mit dran und damit läuft es nun viel besser.

    Der Wechsel von meiner 2080 zu meiner 2080 Super hatte nur was mit dem defekt der Grafikkarte was zu tun.

    Und da die 2080 in der RMA war ist mir nicht bekannt gewesen wie lange ich mit der IGPU hätte überbrücken müssen. Am ende gab es ehe keine neue Grafikkarte sondern nur ein Teil meines Geldes zurück.

  • Eine 1080 ist ja auch etwas Älter als eine aktuelle 2080. Da sieht es anders aus. Ich bezog mich auf die Aufrüster, die jede noch so kleine Neuerscheinung sofort haben müssen.

    Im Prinzip reicht es, wenn man frühestens jede neue Generation mal überspringt. Meine Erfahrung.

    Ja, deckt sich auch mit meiner Erfahrung, sieht man auch auch meinem Kartenverlauf. Nur der Sprung von der 9er auf die 10er Serie war wirklich stark, v.a. noch mit der Memorythematik der 970er ...

    Malachai80

    Sehe ich auch so, zwar kann solch ein Upgrade auch was mit dem "Haben Wollen" was zu tun haben, aber oft macht man sich auch Gedenken bezüglich mehr Leistung dazu.

    In meinem Fall kam ich auch mit meiner 1070 Grafikkarte noch gut aus, aber die 2080 war dann doch noch besser da ich einen UWQHD Monitor mit 120 Hz habe. Damit bin ich dann mit mehr Settings näher oder gar an meine 120 FPS gekommen die ich haben wollte. Ganz so neben bei habe ich auch noch eine UHD Fernseher mit dran und damit läuft es nun viel besser.

    Der Wechsel von meiner 2080 zu meiner 2080 Super hatte nur was mit dem defekt der Grafikkarte was zu tun.

    Und da die 2080 in der RMA war ist mir nicht bekannt gewesen wie lange ich mit der IGPU hätte überbrücken müssen. Am ende gab es ehe keine neue Grafikkarte sondern nur ein Teil meines Geldes zurück.

    Die 1070er war schon bei meinem normalen WQHD 144Hz Screen am Limit. Die 1080ti hab ich bei erscheinen der 2000er Serie gebraucht um 480€ geschossen, da war nicht viel vertan. Und weil es eine kleinere ist (EVGA SC) passt sie dann in meinen HTPC. Das bringt beim jetzigen 1080p Fernseher net viel, aber spätestens nächstes Jahr soll ein 4k einziehen und da brauch ich dann wieder Power.

  • Mit meinen 3440x1440 Pixel und 120 Hz kam es auf Spiel mit an.

    Wobei ich echtes G-Sync habe und es mir auch nicht so wichtig war.

    Mit der 2080 (Super) passt es nun viel besser. Aber würde ich jetzt auf die neuen Grafikkarten umsteigen hätte ich zwar Leistungstechnisch auch Vorteile, aber es hätte auch wieder mit dem "Haben wollen" was zu tun.

    Als ich 2018 von meinem 6700K auf meinem 9900K umgestiegen bin hatte es auch hauptsächlich mit dem "Haben Wollen" was zu tun, auch wenn ich dann später einige Vorteile damit hatte. Wobei es den Rechner mit dem 6700K und der 1070 Grafikkarte bei uns noch gibt, denn der Rechner meiner Tochter war Technisch veraltet und daher hat sie den Rechner von mir bekommen.

    2 Mal editiert, zuletzt von IICARUS (14. September 2020 um 12:58)

  • Bei den CPU's ist es ja besonders "Schlimm. Jede neue Generation bringt schon etwas mehr an Leistung, aber im Alltag merkt man davon nicht viel.

    Wen ich da an meinen Pentium Denke. War glaub ich ein 75. und dann ein Upgrade auf einen MMX. Da war die M

    Mehrleistung noch wirklich zu spüren.

  • Doch ich habe was gemerkt, ich habe damals BF5 noch viel gespielt und mit meinem 6700K und der 1070 musste ich sogar bereits die Skalierung der Auflösung im Spiel etwas zurück setzen um an die 60 FPS zu kommen. Hatte zu dem Zeitpunkt erst nur meinen 9900K ersetzt, denn die 2080 Grafikkarte kam erst zum Monatsende noch mit dazu. Alleine der Prozessor da BF5 auch von allen Kerne profitiert hat ein Unterschied mit den selben Settings im Spiel von etwa 20-30 FPS ausgemacht. Die minimalen FPS waren auch viel besser.

    Diese 4 Kerne mehr was ich hatte haben da schon je nach Anwendung was bewirkt.

    Zu dem Zeitpunkt lief mein Prozessor sogar noch mit der Intel Spekulation und nicht allcore 5 GHz.

    Natürlich hat das ganze nur dann was ausgemacht sobald alle Kerne genutzt wurden, denn mit Overwatch als Beispiel was nicht alle Kerne nutzt hatte ich kein großen Unterschied.

    Natürlich nutzt eine Anwendung die nicht so programmiert sind nicht von sich aus alle Kerne.

    Das sieht von seiten von Windows nur so aus, da Windows alles abwechselnd immer wieder auf andere Kerne verteit.

    Mit einem OSD (Afterburner) ist dann zu sehen das manche Kerne stark ausgelastet werden und andere wiederum fast nur Däumchen drehen.

    Einmal editiert, zuletzt von IICARUS (14. September 2020 um 15:53)

  • Ist wie bei den Graka. Kommt immer darauf an, was man damit macht und welche Spiel man spielt.

    In meinen Hauptlappis habe ich eine Intel 6700HQ und einen Intel 8750H drin.

    beim Benchmarks merkt man einen Unterschied. Bei der alltäglichen Arbeit und spielen eigentlich nicht, bzw ist der Vorteil nicht wahrnehmbar.

    Wenn ich z.B. mit dem TS-Doctor einen 10GB Spielfilm schneide (ts Format) und dann neu ertselle, ist mir nie ein Unterschied aufgefallen.

  • Habe mal in einem Benchmarks (3Dmark) mit 5,4 Ghz besser als ein Intel mit 12 Kerne vor 2 Jahren abgeschnitten. Lag nur daran das mein Singelcore höher anlag und 3DMark zu der Zeit keine 12 Kerne unterstützte. Daher hängt es von deinen Anwendungen ab ob auch 6 Kerne in deinem Fall genutzt werden, denn wenn nicht wirst du kein Unterschied merken.

    In einem Spiel merke ich auch kein Unterschied ob ich 100 FPS anliegen habe oder 160 FPS, am ende sehe ich es auch nur daran wenn ich mir die FPS dazu anzeigen lasse. Aber ich merke ein Unterschied zwischen 60 FPS oder 120 FPS mit meinem 120 Hz Monitor.


    Zumindest wenn G-Sync dazu deaktiviert ist oder ein Monitor kein Bildsynchronisation dazu besitzt.

    4 Mal editiert, zuletzt von IICARUS (14. September 2020 um 16:37) aus folgendem Grund: Ein Beitrag von IICARUS mit diesem Beitrag zusammengefügt.

  • Das stimmt. Es ist immer wieder Überraschend, wenn ich von meinen "alten" Lappi mit 60 Hz zu meinen "Guten" mit 144 Hz wechsle.

    Selbst wenn die 144 Fps nicht erreicht werden ist das ein wirklich riesen Unterschied.

    Ich würde jeden empfehlen, mehr Geld für einen Monitor von mind. 144 Hz auszugeben. Vor allen kann da aktuelle hardware Ihren Vorteil erst richtig Nutzen.

    Was nutzt Dir eine olle 60 Hz Krücke, wenn Du Dir eine RTX 3080 oder 3090 zulegst?

  • Aus diesem Grund wird heute auch auf mehr Kerne gesetzt, genau so sieht es auch mit einem hohem Takt aus. Mein 9900K habe ich deshalb nicht ständig auf 5 GHz Allcore am laufen, da meine Spiele genau so gut mit nur 4,7 GHz laufen. Der Unterschied macht sich dann auf die Spannung und die draus resonierenden Temperaturen bemerkbar. Wobei mit 5 Ghz mein Prozessor unter Last nur 1,225v benötigt und mit der Wasserkühlung hier auch keinerlei Probleme mit den Temperaturen hätte.

    Mein Prozessor macht sogar noch 5,2 GHz mit 1,320v unter Last (24/7) gut mit.

    Hatte aber auch etwas Glück mit der Güte des Prozessors gehabt und meine Wasserkühlung macht bezüglich der Spannung auch ein klein wenig was mit aus.

    6 Mal editiert, zuletzt von IICARUS (14. September 2020 um 16:47)

  • Wasserkühlung hatte ich Früher auch. Ich sah den größten Vorteil in der Lautstärke, oder besser lautleise :), und das die Temperaturen nicht so extrem geschwankt sind wie bei Luftkühlung. Ist garantiert auch besser für die CPU. Heute würde ich sogar auf eine WaKü für die GraKa setzen.

  • Bei mir war auch die Lautstärke und die Optik dazu der Hauptgrund.

    Gute Temperaturen hatte ich bereits mit dem 6700K, da der geköpft war und da ich auch mehrere Lüfter verbaut hatte war der Rechner noch nicht mal so laut. Aber mit meinem Mora bleibt mein Rechner sogar unter Last komplett lautlos. Wobei ich hier nur einen leisen Rechner angestrebt hatte, das ich damit mit nur 500 U/min auskomme habe ich erst später festgestellt. Ich könnte mit der Drehzahl sogar noch niedriger gehen, aber da die Lüfter damit bereits nicht zu hören sind bevorzuge ich lieber die besseren Temperaturen.

    Das ist mir auch wichtig, da ich mit meinem Rechner im Wohnzimmer sitze.

  • Am ende ist mir nur wichtig das meine Grafikkarte voll ausgelastet wird und das habe ich in einem Test bereits schon mit 4,2 GHz erreicht.

    Die Spannung dazu lag bei nur 1,000v unter Last. :klatschen:

    Zumindest in COD und Overwatch was ich dazu ausgetestet hatte.

    So ähnlich sehe ich es auch bei der Grafikkarte an.

    Mit OC geht da mit Nvidia ehe nicht mehr viel, da die Spannung auf 1,094v im Bios der Grafikkarte begrenzt ist und ob man eine Grafikkarte um 10-15% mehr Leistung raus zu bekommen OC betreiben muss, steht auf einem anderem Blatt geschrieben. Meine Grafikkarte habe ich deshalb noch nicht mal übertaktet. Früher habe ich hierzu nur UV betrieben. Aber mit meiner Wakü muss ich da auch nicht zwingend UV anliegen haben, da es am ende auf die paar MV auch nicht mehr mit ankommt.

    Meine Grafikkarte würde aber mit 2050/9000 Mhz 24/7 auch noch gut laufen.

    6 Mal editiert, zuletzt von IICARUS (14. September 2020 um 17:02)

  • Ich möchte sogar die Behauptung aufstellen, das OC nicht mehr den Stellenwert und auch Nutzen hat wie noch vor vielleicht 10 jahren.

    Im Vordergrund steht eher ein Schneller, Stabiler und Leiser PC, der auch noch Sparsam sein kann.

    Ist ja logisch. Weniger Strom bedeutet weniger Stromkosten und wichtiger: Weniger Wärmeentwicklung.

  • Ich möchte sogar die Behauptung aufstellen, das OC nicht mehr den Stellenwert und auch Nutzen hat wie noch vor vielleicht 10 jahren.

    Im Vordergrund steht eher ein Schneller, Stabiler und Leiser PC, der auch noch Sparsam sein kann.

    Ist ja logisch. Weniger Strom bedeutet weniger Stromkosten und wichtiger: Weniger Wärmeentwicklung.

    Richtig, des weiteren sind die aktuellen Komponenten alle mit dynamischen Taktraten ausgestattet, und einem Boost der sowieso ziemlich dich am Maximum der Güte des Silicium liegt.

  • Das stimmt, da ist OC heute nicht mehr das was es vor einigen Jahren waren.

    Bein Intel ist der Grundtakt schon sehr hoch, so das da meist nur Allcore das Maximum ist.

    AMD Prozessoren takten meist ehe schon was sie max. können und so ist hier auch nicht mehr viel raus zu holen.

  • IICARUS Schon blöd, wenn man nicht mehr editieren kann und alles so stehenbleiben muss :*

    Aber nein, Grundtakt, maximaler Takt, maximaler Boost, knapp am maximum des Möglichen...

    An sich hast du dich inhaltlich richtig ausgedrückt, und nur wer wirklich gar keine Ahnung von der Materie hat, der wird es nicht verstehen.

  • sowohl die Grafikkarten als auch die Prozessoren holen so viel aus den automatischen OC Möglichkeiten, dass in erster Linie um die Ausschöpfung dieser durch Wärmeabführung geht.

    Ist wie bei den Graka. Kommt immer darauf an, was man damit macht und welche Spiel man spielt.

    In meinen Hauptlappis habe ich eine Intel 6700HQ und einen Intel 8750H drin.

    beim Benchmarks merkt man einen Unterschied. Bei der alltäglichen Arbeit und spielen eigentlich nicht, bzw ist der Vorteil nicht wahrnehmbar.

    Wenn ich z.B. mit dem TS-Doctor einen 10GB Spielfilm schneide (ts Format) und dann neu ertselle, ist mir nie ein Unterschied aufgefallen.

    gut, da hast Du schon was ordentliches verbaut. in meinem Laptop werkelt ein i5-6300HQ und der Unterschied beim Videorendern (Vegas) zum 3800x ist massiv, aber sind halt doppelte Kerne und höherer Boost - wär ja traurig, wenn man nichts merkt. Für Desktop und Surfen ist nicht viel um.