Beiträge von Malachai80

Guten Abend Gast. Schön, dass Du hereinschaust! Einen angenehmen Aufenthalt wünscht das CompiWare-Team.

    Das würde ich so nicht sagen. Es kann mit Freesync Monitoren funktionieren, muss aber nicht. Gibt da aber eine Liste.

    FreeSync Monitore sind halt deutlich günstiger, als welche mit GSync.

    Bei einer 1070 kann es dir viel bringen, wenn du G/Freesync nutzt.

    Das was Keksi sagt - Ich hab einen G-Sync Monitor, zuerst mit einer 970er und dann mit einer 1070er betrieben. Skyrim muss man z.B. auf 60fps kappen, sonst schießt es die Physikengine. Hatte unansehnlichstes Tearing, aber mit G-Sync nicht mehr. Gerade bei niedrigeren Frames bringt es total viel und Spiele werden flüssiger, insofern gerade beim genannten UHD Monitor empfehlenswert. Bei BF1 hatte ich mit der 1070er Schwankungen von 60-90 fps in WQHD und hab dank G-Sync nix davon mitgekriegt.

    Die Liste der kompatiblen Free-Sync Monitore:

    Diese FreeSync-Monitore funktionieren mit Nvidia-Grafikkarten - PC Magazin

    Gar nichts (mehr). Außer du magst es, wenn dir die Nvidia-Systemsteuerung dir anzeigt, dass du mit einem G-Sync-Monitor verbunden bist. :P

    Stimmt so nicht. Dank engerer Spezifikation MUSS G-Sync bei JEDEM lizenzierten Monitor zwischen 30-144Hz funktionieren.

    Das ist bei Freesync nicht so, da gibts in Abhängigkeit des Monitors die verschiedensten Frequenzbereiche.

    Zum Herausfinden im AMD Treiber. You can instantly tell the FreeSync range of your monitor! : Amd

    Finds eine Schande, dass das nicht in den Monitorspezifikationen aufgelistet sein muss.

    Hier noch eine umfassende Liste:

    FreeSync Monitor List 2019 [Always Updated] - DisplayNinja


    Imo ist G-Sync wesentlich besser als Freesync, aber Nvidias Gier (Lizenzkosten, ist ja nicht so, dass die Grafikkarten nicht schon genug Aufschlag hätten) hat halt das Grab für die Technologie geschauftelt. Wenn PS5 und XBOX whatever rauskommen und Freesync bei den Fernsehern Einzug hält (die ersten gibt es ja schon) wirds für Gsync ohnehin eng.

    Hallo , Ich hab mir das MMX 300 ja die Tage geholt , allerdings leider nicht in der 600 Ohm Variante , aber ich persönlich muss sagen das es das beste Headset ist was ich je hatte .

    Danke, bin echt am überlegen. Das Steel Series ist auch gut, aber eben am Soundlaster AE-5 geht eben mehr. Dafür würd ich dann 1-2 Kopfhörer in der Familie weitergeben. :/ Für eine meiner Schwestern als Weihnachtsgeschenk z.B., die bekam damals die ersten Aurvana von mir und hatte sie so lange, bis sie auseinanderfielen - und war begeistert.

    Und die Alternate Black Friday Deals haben mir grad reingegrätscht. Hab den 3800X um 349€ gekauft, also fast 3700x Preis (Plus ein Lego Friends Set um 80)

    Wermutstropfen: den 2700x kann ich nun verkaufen, aber der war zeitgleich um 149 im Angebot =O Da kriegt man wohl nicht mehr viel dafür. Aber auch schon vergriffen ...

    Würd mich auch interessieren wie gut die Headsets sind - die haben ja ganz gute Black Friday angebote, Leider waren die 990er schon ausverkauft - per Manufaktur gibt es sie noch verbilligt aber eben teurer bzw die 880er und das MX300 auch per Manufaktur:

    Black Friday Deals | beyerdynamic

    Wobei mich das Creative SFXAir auch reizen würde ... und eigentlich brauch ichs auch nicht weil neben dem brauchbaren Headset (Steel Series 9H) eh schon die Creative Aurvana 2, Razer Kraken Forged (die mit Alu) und als offene Variante die Philips Fidelio X1 herumliegen. Aber ich hätt gern noch was mit hoher Ohmzahl (200+) wenn es die Soundkarte schon packt.

    Und da wär das MX 300 in der Manufaktur mit 600 Ohm glaub ich die einzige Alternative, sonst gibts glaub ich kaum höherohmige Headsets oder? Hat das zufällig wär bzw. Erfahrung damit? Für einen Blindkauf ists doch teuer

    Okay, danke !

    Das würde also heissen, mein Sys. packt das entspannt,,!

    Oh man Leute, jetzt komm ich echt ins grübeln.......eventuell doch eine höhrere Auflösung.......aber wie Malachai80 schon schrieb, werden mich auch die 1920er schon so ähnlich schrieb,"blenden"........!

    Aber packen wirds das.

    Ich spiele schon seit längerer Zeit in WQHD/1440p. Zuerst mit einem 3770K übertaktet auf 4,2GHz mit einer GTX 1070, und jetzt mit einem Ryzen 2700X und einer GTX 1080ti.

    Man kann sagen, dass ich mit der GTX 1070 bei AAA Titeln (Wildlands, Battlefield 1, Division, PUBG ...) 70-90 FPS bei "high" settings hatte. Mit der 1080ti ist es ca das gleiche bei Ultra Settings. Da hast Du auf jeden Fall genüg Power, Dein Prozessor ist meinem zusätzlich bei für Spiele relevanten Leistung/Takt pro Kern überlegen.

    Der Unterschied ist nur, dass der C32JG52 noch ein HDMI-2.0-Anschluss hat. Den Monitor sollte man aber eh mit dem Displayport betreiben.

    Das kann man nur unterschreiben, grad wenn man über 60fps geht, denn manche Monitore limitieren bei HDMI auf eben diese 60fps, ebenso HDMI Kabel.

    Ob die 980er es pakt hängt halt auch von den Spielen ab. RDR in 1440p wird nur sehr runtergedreht gehen. Ältere/ressourcenärmere Spiele und Indies profitieren dennoch von den 1440p. Hab den Sprung bei u.a. Pillars of Eternity gemacht und das sah in WQHD+IPS so viel besser aus als in Full HD/TN Panel.

    Schade das Du den Monitor noch nicht in Reallife gesehen hast, ich denke Du würdest mich dann verstehen :)

    Das stimmt, leider stehen solche Monitore sehr selten in Geschäften herum. Wenn man nicht gerade in einer Großstadt mit einem Super-Wasweißich-Store wohnt ... Der Kremser Mediamarkt ist qualitativ überschaubar sortiert. ;) In jedem Fall werd ich mir das nächste mal die Dell Bildschirme genauer ansehen, wenn mir einer unterkommt, bin ja lernfähig. :)

    Mag sein, dass ich auch ein kleiner Acer Fanboy bin ;) , alle meine drei Modelle sind super und noch im Einsatz und mein Acer Nitro Laptop läuft auch brav und performant.

    Gegenüber einem Non-HD Bildschirm wird der Sprung auf einen technisch ausgereiften Full-HD jegwelcher Art von 200€ aufwärts ein immenser sein. ^^

    Dell baut sehr gute Monitore, stimmt, wenn auch eher - korrigiere mich wenn ich falsch liege - im Pro als im Gaming Bereich.

    Die Quelle ist persönliche Erfahrung, kenne zwei Personen mit Alienware Laptops und beide sagen niemals wieder so ein Teil. Da gingen Spiele aufgrund Treiberinkompatibilitäten nicht (die wurden auch ewig und bald nicht mehr upgedated), die auf schwächeren oder vergleichbaren Notebooks problemlos liefen. Temperaturprobleme, extreme Lautstärke, Verarbeitung dem Preis z.T. unangemessen ... und ich kenn niemanden der je mehr als ein Alienware Produkt gekauft hat.

    Mag sein, dass das bei den Bildschirmen nicht so ist. Dennoch ist er 50% bzw. 150€ über der angegebenen Preisrange. Bei 470€ für TN/Full HD ... da sind dann schon gute WQHD Monitore in Schlagweite. Testsieger hin und her, vom Preis spielt er in einer anderen Liga. Das ist so wie wenn man als Grafikkarte bis 1000€ für 4k eine Titan RTX empfiehlt. ;)

    Du hast keinen Full-HD Monitor, aber eine 1080Ti? =O

    Dann wirds höchste Eisenbahn ;)

    mit Acer bin ich immer gut gefahren - der ist G-Sync kompatibel, 144Hz und ein schnelles TN Panel

    https://www.amazon.de/Acer-Reaktions…&tag=comp016-21

    Oder gleich mit echtem G-Sync:

    https://www.amazon.de/Acer-XB241Hbmi…&tag=comp016-21


    Von Alienware würde ich eher die Finger lassen, da die dazu neigen propriätere Treiber zu nutzen, mit denen es dann Probleme gibt. Plus ordentlicher Aufschlag für den Namen.

    Vielleicht zwei größere USB-Sticks, auf die ich mir meine Wii- und Wii-U-Spiele ziehen kann. Und evtl. noch Arbeitsspeicher, wenn irgendwann mal eine PC-Aufrüstung ansteht. Viel billiger als zur Zeit wird der RAM wohl nicht werden.

    Hab ich unglängst auf 32 GB aufgerüstet, weil meine G.Skill Trident Z 3200 CL 16 um via Gutschein auf Geizhals 93€ zu haben waren - und ich bereue nichts :thumbup:

    zwei Sachen haben wir gemeinsam:

    1TB SSD

    Akkus (bevorzugt Eneloop, zur Not Amazon Basics)

    dazu:

    Dremelzubehör (Verlängerung, Station zum Einspannen)

    Kinderspielzeug für Weihnachten

    Was ich fürchte: alles geflutet von China-Müll.

    Was ich mir wünsche: bessere Filtermöglichkeiten und ein Hakerl um den ganzen Schas auszublenden.

    Microsoft hat ja jetzt den "Tresor" für Onedrive eingeführt, der zusätzliche Authentifikation benötigt. Vielleicht schieben die ja eine stärkere Verschlüsselung noch nach. Auf der Festplatte ist das ja auch mit Bitlocker verschlüsselt

    Bilder hab ich kaum persönliches auf Onedrive, nur so Sachen wie z.B. unverfängliche Fotos (z.B. von mir, die ich für Autorenzeugs verwende, Dinge die ich verkaufe). Fotos meiner Kinder - niemals.

    Den Tresor nutze ich jetzt aber für Führerschein, Pass, etc. Natürlich besteht da immer noch das Risiko, dass das wegkommt - in der Regel ist aber eine Situation, wo man eben die Dokumente zumindest digital braucht und nicht verfügbar hat, mindestens ebenso kacke.

    eigentlich brauchst du nur ein Brett mit 3 oder 4 Punkten abhängen und dort die Box draufstellen, ähnlich wie früher bei einem Beamer, als die noch zum Aufstellen waren, z.B.:

    Alternativ kannst Du schauen, ob Dein Center hinten ein Gewinde hat (meine Teufel-Boxen haben das), dann reicht eigentlich ein L-Blech/Holz, dass Du einerseits an die Decke Schraubst und von hinten dann anbohrst und via dem Gewinde befestigst oder du nimmst sowas:

    https://www.amazon.de/LYXMY-Lautspre…/dp/B07X3HCWZJ/

    Das wundert mich, dass der Ordner wieder auftaucht... Auf jeden Fall darf der Ordner nicht im Download-Ordner dort liegen. Ich glaube, was da drinnen liegt, installiert Galaxy beim nächsten Start. :/

    Im download-Ordner liegt das Epic Plugin und wenn ich es lösche ist es beim nächsten Start auch wieder da. ganz komisch. Hab ein bisschen bei den Fehlermeldungen gestöbert, dürfte nicht der einzige mit dem Problem sein.

    Ich fürchte, ich werde nicht drum rum kommen Galaxy ganz zu deinstallieren und neu zu installieren, was ich eigentlich vermeiden wollte, wenn nicht bald ein Update kommt.

    Nein, sowohl die Voodoo und die Voodoo2 hatten auf der Rückseite (Slotblech) jeweils einen VGA-Eingang und -Ausgang. Der VGA-Eingang wurde mit einen kurzen, beiliegenden, VGA-Kabel mit den Ausgang der normalen (primären) Grafikkarte verbunden. Der VGA-Ausgang (der Voodoo) wurde mit dem Monitor verbunden.

    Danke für die Aufklärung :thumbup: das hatte ich so nicht mehr im Kopf - nur noch das ich zwei Karten drin hatte - jetzt bin ich fälschlicherweise statt primär + Voodoo2 von 2x Vodoo2 ausgegangen. Damals war ich noch nicht so hardwareaffin und lang her ists auch schon :)