Beiträge von Sybok im Thema „Kaufempfehlung für NAS-HDDs gesucht“

Schon so früh aus den Federn, Gast? Schön, dass Du hereinschaust! Einen angenehmen Aufenthalt wünscht das CompiWare-Team.

    TLER spielt im NAS keine große Rolle, die meisten NAS-Systeme für den privaten Einsatz verwenden Software-RAID, da braucht man kein TLER, denn das RAID kann die Funktion unabhängig davon abbilden. TLER macht nämlich genau nichts anderes als das Error-Handling an das RAID zu übergeben, statt einen Fehler zurückzumelden. Ganz mal abgesehen davon, dass das oft auch ein Firmware-Feature ist, was man steuern kann (also es ist generell ein Firmware-Feature, aber man kann es IIRC nicht immer steuern).

    Und natürlich kann man die Konsistenz des Arrays wiederherstellen, wenn die Metadaten dupliziert, das heißt zusätzlich redundant gespeichert sind. Sie geht sogar niemals verloren, solange die Platten(n) nicht großflächig oder komplett ausfallen. Bei den Nutzdaten im Array sieht das anders aus, die sind natürlich nur so stark redundant, wie es das RAID-Level vorgibt. Da kann man dann schon mal ein paar Dateien verlieren. Das betrifft NAS-Platten aber genauso, auch da können während des Rebuilds Sektoren aussteigen.

    Das automatische Parken bzw. den automatischen Spindown kann man in den Desktopplatten deaktivieren, zum Beispiel mit hdparm, auch das schrieb ich bereits mehrfach hier. Das habe ich bei meinen Platten immer getan, selbst bei denen, die nicht im NAS stecken, denn sowas kann auch eine externe Disk enorm beanspruchen und nervt zudem, durch die hohen Wakeup-Zeiten, ganz massiv.

    Ich banalisiere gar nichts, ich empfehle auch nichts, schon gar nicht für den professionellen Einsatz. Alles was ich sage, ist dass man für ein Heim-NAS durchaus Desktop-Platten verwenden kann. Natürlich empfiehlt Dir das niemand, schon alleine die Parameter zu ändern würde ja viele überfordern. Und Tools wie hdparm können eine Platte auch bricken, wenn man die falschen Parameter setzt.

    SMR/CMR ist kein Desktop vs. NAS-Thema, da es ja NAS-Platten mit SMR gibt. Da muss man dann ohnehin schauen. Bzw. bei einigen Herstellern muss man das, bei anderen nicht. Für Archivierungszwecke spielt es kaum eine Rolle, weil die Daten, einmal geschrieben, meist lange Zeit unverändert gespeichert bleiben und daher kaum Rewrites nötig sind. SMR ist nur wirklich schlecht für häufiges Überschreiben.

    Dein großer Fehler ist, dass Du durch Deine enorme Überheblichkeit den Blick für das Wesentliche verlierst und nicht in der Lage bist, sachlich zu bleiben. Auch unterstellst Du zwanghaft jedem, der etwas anders löst, als es allgemein empfohlen wird, unwissend zu sein. Das muss doch nicht sein. Wir können doch anderer Meinung sein ohne dem anderen gleich Unwissenheit vorzuwerfen.

    Jeder hier kann doch letztendlich selbst entscheiden was er sich kauft.

    Also 1. habe ich noch niemals davon gehört, dass irgendwer das Rebuild des Arrays drosselt (aber wahrscheinlich habe ich einfach keine Ahnung)

    Ist zum Beispiel bei Synology ein Standard-Feature und ergibt in meinen Augen auch Sinn. Grundsätzlich einstellbar dürfte das aber in jedem NAS sein, es ist ja auch überaus relevant wenn das System parallel weiter beschrieben wird (was im Unternehmensumfeld ja oftmals nötig ist).

    Zu den Klammern: Nichts dergleichen deute ich auch nur an.

    und 2. geht es bei den heutigen Kapazitäten auch darum, dass man rechnerisch mindestens einen Bitfehler beim Rebuild bekommen wird

    Stimmt so nicht, ich glaube das Thema hatten wir auch schon mal. Ein unrecoverable error heißt so, weil er aus Herstellersicht bei einem Lesevorgang unrecoverable ist. Es kann aber sowohl ein erneuter Versuch erfolgreich sein, als auch (viel wichtiger) die Software im Nachgang die Datenkonsistenz wiederherstellen. Zudem muss selbst ein wirklich nicht lesbarer Sektor keinesfalls bedeuten, dass der Rebuild fehlschlägt. Es können auch "nur" einzelne Dateien verloren gehen. Mit entsprechenden Dateisystemen kann man die Gefahr sogar noch weiter verringern.

    und 3. wer bei einem Rebuild eines privaten NAS währenddessen auf die Daten zugreift, dem ist ohnehin nicht mehr zu helfen.

    Das dürften so ziemlich die meisten Privatanwender tun, es ist nunmal standardmäßig erlaubt.

    Mit macht überhaupt keinen Sinn, meinte ich übrigens "Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet." Es sollte doch allgemein bekannt sein, dass der kritische Pfad immer beim Rebuild ist (besonders bei den heutigen Kapazitäten - aber ich wiederhole mich nur noch :D ).

    Das ist richtig und dem widerspreche ich doch gar nicht. Jedoch: Platten fallen nicht ständig ohne jegliche Vorwarnung aus, sehr oft erkennt man an den SMART-Daten schon vorher, dass man handeln sollte. Und auch wenn das Alter zu hoch wird, sollte man handeln.

    Nicht böse gemeint (ich verstehe auch nicht immer alles - aber wer tut das schon), aber anscheinend verstehst du das wirklich nicht.

    Desktopplatten sollte man niemals für ein Standard-NAS einsetzen. Rein technisch kann man das natürlich, aber das kann eben böse nach hinten losgehen (ich wiederhole mich aber auch hier nur noch).

    Den Hintergrund hatte ich hier schon mal an anderer Stelle ausführlich erläutert. Eventuell finde ich es nochmals.

    Das kann es mit einer NAS-Festplatte auch. Die Wahrscheinlichkeit eines Ausfalls mag bei einer Desktopplatte statistisch höher sein, aber da man im privaten Bereich unterwegs ist, ist das tendenziell verschmerzlich, da es auf Hochverfügbarkeit kaum ankommen wird. Gerade da man privat niemals auch nur annähernd an weder die IOPS noch die Datenmengen herankommen wird, ist die theoretisch höhere Zuverlässigkeit mitunter gar nicht relevant.

    Die Aussage macht doch überhaupt keinen Sinn?! Unzählige Praxisberichte malen da eher ein anderes Bild (besonders bei den heutigen Plattenkapazitäten).

    Weshalb sollte die Aussage keinen Sinn machen? Wenn Du den Rebuild drosselst, verringerst Du die Last der Platten, sie werden weniger warm und weniger beansprucht. Ungedrosselt wird der Rebuilt so schnell wie möglich ausgeführt, was natürlich auch die höchste Last erzeugt. Wenn Du zusätzlich während des Rebuild auf den Zugriff verzichtest, schonst Du die Platten maximal. Für den privaten Einsatz ist es sicherlich verschmerzlich, während des Rebuild auf den Zugriff zu verzichten und ihn etwas länger laufen zu lassen, ich jedenfalls würde es immer so machen. Lässt man das Ding eben ein paar Tage rödeln, kann man ja machen, wenn man nicht ran muss (Urlaub, Geschäftsreise, wasauchimmer).

    Und wenn es doch fehlschlägt, hat man ja hoffentlich ein Backup zumindest der wichtigen Daten (ich z.B. würde keinesfalls alles auf meinem NAS als zwingend backupwürdig bezeichnen, da gibt es bei mir diverse Abstufungen von zwingend bis komplett unnötig).

    Im Enterprise-Bereich geht es um Schreibzyklen, die wird privat niemand erreichen können.

    Sicher nicht. Ich wollte auch nur darauf hinaus, dass es nicht möglich ist pauschal zu sagen, dass man keine Desktopplatten verwenden sollte, wenn es offensichtlich sogar für Cloudstorageanbieter mitunter sinnvoll ist (sicherlich auch gezielt nach Einsatzzweck, keine Frage).

    Dauerlast wird man spätestens beim Rebuild bekommen und das wird dann der Tag der Wahrheit sein. Bei den heutigen Plattengrößen (gerade wenn man so Späße mit RAID5 oder sowas fährt) kann das dann noch richtig spannend werden!

    Nö, Du kannst den Rebuild ja drosseln, dann ist das eher kein Problem. Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet.

    Es gibt aber einen himmelweiten Unterschied zwischen Ausschussschrott und sonstigen Billig-Desktop-HDDs und "professionellen NAS-Platten" (die wird hier garantiert niemand privat einsetzen!).

    Sooo himmelweit ist der Unterschied in der Praxis nicht immer, auch Serverplatten fallen schließlich ständig aus. Es gibt mitunter Berichte von Storageanbietern dazu, welche Platten bei ihnen lange durchhielten und welche schneller abrauchen - und die Spanne ist groß, auch unter Server-HDDs. Meistens sind das gute oder schlechte Serien, mit der Hochwertigkeit hat es nicht direkt zu tun.

    Ein Admin, der im Enterprise-Bereich von "sündteuren NAS-Platten" spricht, der ist möglicherweise auch einfach nur fehl am Platze :)

    Da ging es nicht um 2-3 Platten, bei dem betreffenden Server-Verbund wurden ständig dutzende Platten getauscht, der zuständige Admin hatte die Teile immer zu hunderten auf Halde liegen (sowohl defekte wie neue Platten). Wenn Du entsprechende Workloads hast, die eine Festplatte extrem stressen, dann macht das auch die beste Platte nicht ewig mit. Da kann ich mir gut vorstellen, dass die Rechnung, wieviele billige Platten man ggf. mehr tauschen müsste, schon mal ganz schnell relevant werden kann. Ist mir aber letztlich egal, ich muss das nicht machen. Aber ich bezweifle stark, dass die damals bewusst die teurere und zugleich wartungsaufwändigere Lösung gewählt haben.

    Bei kleinen Firmen mag man mit solchen Aussagen vielleicht ja sogar noch punkten können :D

    War immerhin ein amerikanisches Softwareunternehmen mit damals etwa 500 Mitarbeitern (wovon viele früher zu einem wesentlich größeren Konzern gehörten). Das waren Aussagen von deren Admins, aber unsere lokale IT meinte auch, dass das durchaus möglich ist. Ist zugegebernermaßen einige Jährchen her, war wohl so um 2010-2015, IIRC.

    Hier mal so eine Analyse von Backblaze:

    Analysis of Hard Drive Reliability Trends: A 2023 Report by Backblaze
    Backblaze, a provider of backup and cloud storage solutions, has disclosed its hard drive failure data for the year 2023, encompassing an analysis of 35 hard…
    www.guru3d.com

    Da sind definitiv Desktopplatten dabei, die ST8000DM002 zum Beispiel: https://www.seagate.com/content/dam/se…603US-en_US.pdf

    Scheint sich also trotz der vergangenen Jahre grundsätzlich nicht viel dran geändert zu haben, dass solche Platten eben in Storages eingesetzt werden. Und auch hier kannst Du davon ausgehen, dass die das nicht machen, weil sie gerne die Kosten steigern wollen.

    Na ich denke ich habe es hinreichend eingeschränkt (Backup, privat, keine Dauerlast). Man sollte schon seine Anforderungen mit "einpreisen" bei solchen Themen (wie eigentlich immer). Ich kann nur aus meiner Erfahrung berichten und halte professionelle NAS-Platten für den privaten Einsatz in einem Großteil der Fälle für Overkill. Und von bekannten Admins weiß ich, dass die auch oft sagten, dass sie auch für Server lieber viele billige Platten kaufen statt die sündteuren NAS-Platten, die nämlich oftmals keinesfalls so viel länger halten, als dass sich der Mehrpreis rechtfertigen würde. Zumal: Wer Daten nicht gesichert hat, für den ist keine Platte zuverlässig genug, passieren kann schließlich immer irgendwas.

    Mittlerweile schalt ich es über Nacht aus.Das Geblinke "nervt" und es ist komplett unnötig.
    In der Nacht soll man schlafen.:face_with_tears_of_joy:


    ..........oder vorm PC sitz´n und auf :lovecw: Blödsinn posten.:zunge2:

    Kannst Du auch ruhig so machen (mit dem Abschalten), ich handhabe das genauso. Es kommt ja bei Thema NAS abschalten immer recht schnell einer um die Ecke und erklärt Dir, dass das schlecht wäre, wegen der vielen Spindowns/Spinups, aber das ist Käse. Täglich 12+ Stunden unnötige Betriebszeit schaden der Hardware definitiv mehr als 1*Spinup+Spindown (das ist nämlich für so eine Platte quasi nichts). Nur sollte man ggf. vorhandenes Auto-Spindown nach Timeout abschalten. NAS-Platten haben das normalerweise nicht (oder zumindest nur mit sehr großzügigen Zeiträumen), Desktopplatten aber schon (oft schon nach wenigen Minuten).

    Wenn die Teile in ein ordentliches NAS kommen, RAID genutzt wird und zumindest die wichtigen Daten (also alles, was nicht anderweitig wiederherstellbar ist) gesichert sind, dann ist es in meinen Augen fast egal, gerade für ein privates NAS. Ich betreibe seit Jahren mein Synology mit 5x8TB-Platten aus den WD-Elements-Gehäusen verschiedener Serien (also eher das günstigste, was man von WD bekommt) und habe nie ein einziges Problem gehabt. Die SMART-Werte sind alle top und das System läuft wie geschmiert. Muss man halt wissen, wie sehr man das Ding stressen will. Aber in einem ordentlichen NAS werden die Platten ohnehin ziemlich geschohnt, da sie schwingungsgedämpft und aktiv gekühlt sind. Plant man natürlich ein NAS, was 24/7 unter Vollast stehen wird, dann würde ich vermutlich auch nicht an den Platten sparen.