Beiträge von KoH im Thema „Asus ROG oder TUF Gaming? -> RTX 3090“

Guten Abend Gast. Schön, dass Du hereinschaust! Einen angenehmen Aufenthalt wünscht das CompiWare-Team.

    Ich hatte auch mal eine Zotac Karte. Diese zeigte unter Last Pixelfehler an. Bekam dann eine neue Karte als Ersatz und auch hier wieder Fehler. Erst die dritte Karte schaffte die Tests unter Last ohne Fehler... :/

    Das würde zumindest bestätigen, dass Zotac grundsätzlich das minimum verbaut. Allerdings soll das hier kein Zotc bashing werden, es sind noch andere Hersteller mit im Boot.

    Ich denke es wird demächst via Treiber bzw BIOS update einfach ein weiteres PowerLimit geben, bzw es wird im BIOS direkt die Spannung eingeschränkt, ebenfalls der Boosttakt ein wenig gekürzt. Ich kann mir nicht vorstellen, dass sämtliche Karten jetzt "vernichtet" werden die schon seit Monaten produziert wurden.

    Edit:
    Golem.de: IT-News für Profis

    Golem hat auch mal was gefunden. Die haben bei EVGA angeklopft, interessante Aussage und gut genutztes Marketing, einfach mal behaupten, dass bei denen selbstverständlich sowas nicht ausgeliefert wird. Ob das stimmt wird sich bestimmt in den nächsten Tagen klären, nach so einer Aussage wird das bestimmt geprüft von irgendwem.

    Das grenzt ja schon an Betrug.

    Ja und nein, ich weiß nicht wie die Kommunikation zwischen Nvidia und den Boardpartnern gelaufen ist. Wenn Nvidia auf ihrer Liste klar alle Details mitgeteilt hat. Dann muss man wirklich sagen, dass die Boardpartner versucht haben mit allen Mitteln Geld zu sparen und der Kunde muss es ausbaden. Asus wusste scheinbar genau was sache war, weil die selbst stärkere Kondensatoren/Spannungswandler als Nvidia mit ihrer FoundersEdition verbaut haben. Ich kann mit persönlich nur sehr schwer vorstellen, dass Zotac zB. tatsächlich nicht wusste welche Herausforderungen an das Material gestellt werden.

    Falls allerdings Nvidia im Mai/Juni/Juli den Partnern eine gewisse Spanne gegeben haben, und Zotac (wurde einfach mehrfach als negativ Beispiel von Igor genannt) ganz unten angesetzt hat, dann kann man Zotac nur bedingt einen Vorwurf machen. Hinterfragen der Kompetenz wäre trotzdem verständlich.

    Aber letztendlich bin ich selbst nicht tief genug drin in der Materie um wirklich 100% beurteilen zu können, ich weiß lediglich, dass auch viele AM4 Mainboards Probleme mit den Spannungswandlern hatten und zB ein 3900X nur auf wenige Boards wirklich bedenkenlos geschnallt werden kann. Deshalb schrieb ich in der Kaufberatung von PoooMukkel auch, dass das B550 Tomahawk von MSI erneut bessere SpaWas bekommen hat und das alte B450 Tomahawk ist schon in der Hinsicht oft nah an dem Niveau von X570 Boards.

    Wie sagt man so schön, die Bananen reifen schließlich auch erst beim Kunden.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.

    Sehr interessant !


    Kurzfassung für Laien oder faulen Säcke;P:
    Viele Boardpartner haben minderwertige Komponenten auf den Karten verbaut, zB Kondensatoren die mit der Leistung einer 2070 klar kommen würden, jedoch nicht mit den Lastspitzen einer 3080/3090.

    Die FoundersEdition hingegen hat deutlich bessere Komponenten verbaut. Ich erspare euch mal die einzelnen Details der verschiedenen Komponenten.


    Fazit:
    Fingerweg von vielen Custom Karten wenn man auf der sicheren Seite sein will. Ein positives Beispiel war jedoch Asus, die TUF 3080 Gaming wurde im Video gezeigt, die ist mehr als anständig bestückt worden.

    Aktuell würde ich gar keine RTX 30xx Karte kaufen.

    Jedenfalls nicht bevor die Probleme mit den Karten gelöst sind:

    GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen - ComputerBase

    Aber das hat man ja eigentlich bei fast jeder Generation wenn ich mal so zurück denke.

    Was war das noch für ein Aufschrei vor über 10 Jahren mit den vermeintlich so bösen Treibern von AMD, damals noch ATi...

    Klingt für mich eher wie ein nicht ganz sauberes BIOS, sowas ähnliches gab es 2009-2010 nämlich bei ATi bei der HD5770, hatte selbst zwei solcher Modelle.

    Damals hat man einfach den Takt und die Spannung angepasst und alles war chico. Heutzutage ist das alles viel komplexer...

    Ist es richtig (habe ich mal so gelesen), dass die 3070 schneller ist als eine 2080Ti ?

    Rein von den Rohdaten auf jeden Fall, wie es am Ende aussieht bleibt aber erstmal abzuwarten. Ich bin mal gespannt wann man erste Benchmarks finden kann, im besten Fall neutrale.

    Die von Nvidia sind nämlich mit Vorsicht zu genießen, da wird dann zB darauf geachtet, dass explizit gezeigt wird wie viel schneller die neue Karte als die alte ist. Allerdings werden nahezu ausschließlich Ray-Traycing Berechnungen in den Spielen als Vergleich genommen, und dann kommen so schöne Werte wie "80% schneller" zustande.

    öhhh... also wenn du darauf bezug nimmst ob die in mein Gehäuse passt, dann ja ^^
    da ist Platz genug. Netzteil sollte mit 850W auch ausreichend sein.

    Also in dem Shop steht sie für knapp 1600Pfund.
    Was so ca. 1780€ entspricht.

    Ja ich meinte lediglich die Maße. Auf welcher Auflösung daddelst du wenn ich fragen darf ? Falls es irgendwo oben steht, mein Posting-Counter freut sich ^^

    Ich spiele mit dem Gedanken meine 5700XT abzugeben und vielleicht nächstes Jahr auf Ryzen 4000 umzusteigen und dann mit ner 3070/3080. Meine 5700XT geht nämlich bei 3840:1200 teilweise in die Knie.

    Wird spannend ob AMD was zeigt. Ich fürchte nur, die Verfügbargkeit wird bei Nvidia bis nach Weihnachten (Umtauschgeschäft) schlecht bleiben und die Nachfrage die Preise über den UVP treiben. Irgendwie erinnert mich der jetzige Launch an Pascal, da wars auch so.

    Eine Highendkarte um 250€ werden wir unabhängig von der Konkurrenzsituation nicht mehr sehen (btw. Inflationsbereinigt mit durschnittlich 2% sinds 370€)

    Gut möglich, dass es Lieferschwierigkeiten geben wird. Ich denke schon, dass AMD liefern wird. Die 5700XT war ja immer nur die "Mittelklasse" da wird noch was kommen.

    Ja die Inflation habe ich jetzt mal außen vor gelassen um meinen Unmut noch zu steigern :D

    Super, danke für deine ausführliche Antwort.

    Auch wenn es nur deine Vermutung ist, macht es dennoch sinn.
    Habe tatsächlich das Powerlimit nicht bedacht.
    Wäre aber die einzig logische Erklärung warum die ROG 3x8Pin "benötigt".


    Warten wir mal ab was die Karten am Ende wirklich kosten und was die Testberichte sagen.
    Ich denke mal einige (Hersteller, Youtuber, Influencer) werden schon früh genug eine
    zum Testen bekommen.

    In erster Linie scheint für mich aber die Entscheidung auf die ROG Variante gefallen zu sein.

    Freue mich auch schon sehr darauf. Upgrade von 1070 auf ne 3090 wird sicher gut :saint:

    Eine Kleinigkeit fällt mir dazu noch ein, hast du dir mal die Maße der 3090 angesehen ?
    Das ist ein ziemliches Beast... Aber die Mehrleistung wird definitv gigantisch sein, ich bin vor allem auf die AMD Karten gespannt.

    Nvidia platziert die Karten schließlich aus nur einem Grund so "günstig" sie gehen stark davon aus, das AMD selbige Power liefern wird. Anderenfalls würde Nvidia einige Profite "verschenken".

    Vielleicht wird es mal wieder ein richtig enges Kopf an Kopf rennen was am Ende für uns alle wieder faire Preise bedeutet !

    Eine HD4870 hat im Jahre 2008 ca 250€ gekostet und war das "High-End" Modell, GTX295/HD4870X2 mal außen vor.

    Und was zahlen wir jetzt für das "High-End" Modell ?

    Dann will ich mal das Strom Thema von hinten aufrollen:

    Basis Infos:
    - Pci e. Slot kann 75 Watt liefern

    - jedes 8 Pin Kabel liefert weitere 150Watt

    - Nvidia gibt 350Watt als Verbrauch an

    - neues "innovatives" Kühlkonzept

    Die 3080 und 3090 gibt es tatsächlich beide in verschiedenen Varianten, und Asus ist nicht der einzige Laden der sich denkt:
    Nvidia gibt den verbrauch mit 350 Watt an, also sorgen wir dafür, dass die Karte auch über 500Watt ziehen könnte.

    Achja MSI macht selbiges sogar mit der 3080.

    So nun meine Vermutung, ich denke es handelt sich um OC Modelle, ich gehe davon aus, dass bei den 3x8 Pin GPU´s das Powerlimit entsprechend "offener" ist.

    Wenn die Karte wirklich mit 350Watt arbeitet ist man mit 375Watt aus zwei 8 Pin Kabeln (die übrigens bei fast allen Netzteilen im Netzteil nur noch mit 6pin ankommen, kleine Info am Rande)

    und 75Watt aus dem pci e. Slot bestens versorgt. Daher wird es ein Powerlimit geben, dass die Taktraten dem Verbrauch angepasst werden. Ergo -> je höher das Powerlimit desto höher taktet die Karte, desto schneller ist diese. Einziger potentiell limitierender Faktor wäre die Kühlung, diese soll aber deutlich besser sein.

    Ganz kurzes Beispiel, ich habe eine 5700XT die hat ein Powerlimit von eigentlich ca. 180Watt mit entsprechender Kühlung habe ich das Powerlimit auf 275Watt gestellt, und ihr somit mehr Spielraum gegeben wie hoch sie takten kann. Standardmäßig taktet sie bei 1600Mhz bis 1750Mhz im maximalen boost, Es gibt keine fixen Taktraten mehr, es ist alles dynamisch. Hat die kleine allerdings ne längere Leine ist sie glücklicher, aber es wird dann auch teurer. Am Ende des Tages darf sie saugen soviel sie kann und arbeitet mit 2.1- 2.2 Ghz ist damit fast auf dem Niveau einer 2080Super.

    Daher denke ich, dass dort noch Leistungsreserven schlummern.