Beiträge von WalterSullivan im Thema „Kaufempfehlung für NAS-HDDs gesucht“

Schon so früh aus den Federn, Gast? Schön, dass Du hereinschaust! Einen angenehmen Aufenthalt wünscht das CompiWare-Team.

    Unglaublich, was du mir hier vorwirfst. Aber ok, du kannst natürlich denken was du möchtest.

    Jedem anderen steht es natürlich frei zwischen den Zeilen zu lesen und sich dann für common sense bzw. sagen wir mal "best practice" zu entscheiden oder für die andere "propagierte Variante" - für die sollte man dann auch schon etwas risikobereit sein (wie von mir eingangs erwähnt).

    Meine Empfehlung wäre auch von solchen Empfehlungen, wie mit einem Tool die Hardware-Parameter zu verändern und damit quasi hart in die Firmware einzugreifen, Abstand zu nehmen. Aber auch das kann natürlich jeder für sich selbst entscheiden.

    Habe gerade auch noch einen sehr guten, kompakten und vor allem passenden iX-Artikel gefunden, der tief blicken lässt :)

    Kurz erklärt: Bitfehler bei Festplatten
    Je größer die Festplattenkapazität, desto wahrscheinlicher sind Fehler beim Speichern. Dank Prüfsummen sollte die Hardware keine falsche Daten zurückliefern –…
    www.heise.de


    Nichts gegen dich (wirklich) aber das wird mir hier jetzt zu anstrengend - dafür fehlt mir momentan einfach die Zeit das immer wieder richtigzustellen (oder ggf. zu widerlegen).

    Du versuchst hier bewusst manches zu banalisieren bzw. möchtest nicht verstehen, dass Desktop-HDDs eben nichts in einem Standard-NAS zu suchen haben (oder schreibst bewusst am Thema vorbei - das glaube ich aber eher nicht, dass du einfach nur "trollen" möchtest, da du doch sonst eigentlich auch ganz umgänglich bist - I mean it).

    Welche Software sollte denn im Nachgang die Datenkonsistenz wiederherstellen?

    Im dümmsten Fall wird die HDD aus dem Verbund gekickt und das war es dann.

    Bei einem Standard-NAS mit Standard-Filesystem wird die Datenintegrität im regulären Betrieb nie geprüft - was stark vereinfacht zur Folge haben könnte, dass bei einer Bilddatei eine Zeile kaputt ist oder in einer Musikdatei ein schriller Ton entsteht oder dass im dümmsten Fall ein riesiges Image nicht mehr lesbar sein wird (oder im noch viel dümmeren Fall verschlüsselte Platten gar nicht mehr lesbar sein werden).

    Vielleicht mache ich mir irgendwann mal die Mühe, um das alles etwas umfangreicher aufzuarbeiten. Ansonsten gibt es mehr als genug Berichte hierzu übers Internet verteilt.


    In aller Kürze die wichtigsten Argumente dafür (bzw. dagegen):

    - kein TLER/ERC-Feature

    - Desktop-HDDs sind nicht für einen Einsatz, dicht beeinander, auf engstem Raum vorgesehen oder vom Hersteller freigegeben (z. B. aufgrund der entstehenden Vibrationen)

    - viele Desktop-HDDs fahren die Köpfe schnell in die Parkposition (ich glaube da muss ich nicht weiter drauf eingehen)

    - und da rede ich noch nicht mal von dem SMR-Müll


    Aber es steht natürlich jedem frei, ob er die "was soll's, wird schon gut gehen"-Attitüde fahren oder sich halt doch mal mit den Hintergründen beschäftigen möchte.

    Ich habe nur ein Problem damit, wenn unwissenenden Mitlesern (nicht böse gemeint - nicht jeder steckt tief in allen Themen drin) vermittelt wird, dass das ja alles kein Problem ist und man einfach irgendeine Platte auswürfeln kann.

    Grundsätzlich beschäftige ich mich persönlich lieber etwas länger/intensiver mit einem Thema und gebe (falls notwendig!) auch gerne ein paar Euros mehr aus, als hinterher dann mein blaues Wunder zu erleben - aber jeder so, wie er mag (was nicht heißen muss, dass man auch einfach mal Pech haben kann - aber das würde ja jedes Risikomanagement obsolet machen).


    Wie versprochen habe ich auch mal nachgeschaut und den "Wähle die passende/richtige HDD aus"-Thread gefunden - dort hatte ich auch schon einige wichtige bzw. die wichtigsten Aspekte genannt (das Thema ist dort dann aber leider auch wieder etwas "entgleist" und irgendwie scheint was zu fehlen oder ich habe es beim Querlesen versehentlich überflogen). Aber das Thema wurde ja auch immer mal wieder andiskutiert.

    In den Anfängen von SSDs konnte man/ich auch gut über alle möglichen SSD-Modelle diskutieren. Mittlerweile ist das ja (teilweise leider) ein völlig anderer Markt. "Am Anfang" gab es aber auch bestimmte Modelle, mit denen man richtig ins Klo greifen konnte und bei denen dann im Zweifel alle Daten weg waren.

    Eventuell kann diese Themen ja jemand zusammenlegen/ordnen, dann hätte man im Endeffekt (irgendwann mal) ja wirklich einen Empfehlungsthread/-guide (wobei da dann immer das Problem sein dürfte, das entsprechend aktuell zu halten).

    PoooMukkel
    14. Februar 2024 um 13:28

    Weshalb sollte die Aussage keinen Sinn machen? Wenn Du den Rebuild drosselst, verringerst Du die Last der Platten, sie werden weniger warm und weniger beansprucht. Ungedrosselt wird der Rebuilt so schnell wie möglich ausgeführt, was natürlich auch die höchste Last erzeugt. Wenn Du zusätzlich während des Rebuild auf den Zugriff verzichtest, schonst Du die Platten maximal.

    Also 1. habe ich noch niemals davon gehört, dass irgendwer das Rebuild des Arrays drosselt (aber wahrscheinlich habe ich einfach keine Ahnung) und 2. geht es bei den heutigen Kapazitäten auch darum, dass man rechnerisch mindestens einen Bitfehler beim Rebuild bekommen wird und 3. wer bei einem Rebuild eines privaten NAS währenddessen auf die Daten zugreift, dem ist ohnehin nicht mehr zu helfen.

    Mit macht überhaupt keinen Sinn, meinte ich übrigens "Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet." Es sollte doch allgemein bekannt sein, dass der kritische Pfad immer beim Rebuild ist (besonders bei den heutigen Kapazitäten - aber ich wiederhole mich nur noch :D ).

    Sicher nicht. Ich wollte auch nur darauf hinaus, dass es nicht möglich ist pauschal zu sagen, dass man keine Desktopplatten verwenden sollte.

    Nicht böse gemeint (ich verstehe auch nicht immer alles - aber wer tut das schon), aber anscheinend verstehst du das wirklich nicht.

    Desktopplatten sollte man niemals für ein Standard-NAS einsetzen. Rein technisch kann man das natürlich, aber das kann eben böse nach hinten losgehen (ich wiederhole mich aber auch hier nur noch).

    Den Hintergrund hatte ich hier schon mal an anderer Stelle ausführlich erläutert. Eventuell finde ich es nochmals.

    Nö, Du kannst den Rebuild ja drosseln, dann ist das eher kein Problem. Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet.

    Die Aussage macht doch überhaupt keinen Sinn?! Unzählige Praxisberichte malen da eher ein anderes Bild (besonders bei den heutigen Plattenkapazitäten).

    Sooo himmelweit ist der Unterschied in der Praxis nicht immer, auch Serverplatten fallen schließlich ständig aus. Es gibt mitunter Berichte von Storageanbietern dazu, welche Platten bei ihnen lange durchhielten und welche schneller abrauchen. Meistens sind das gute oder schlechte Serien, mit der Hochwertigkeit hat es nicht direkt zu tun.

    Du spielst damit auf Backblaze an. Hat aber auch erstmal nichts zwangsläufig mit dem Szenario von Platten in privaten NAS zu tun ;) Es geht aber (wie bereits jetzt mehrfach erwähnt) nicht darum, ob die Platte jetzt perspektivisch nach 3, 5 oder 8 Jahren die Grätsche macht. Das kann dann nachgelagert interessant sein!

    Im Enterprise-Bereich geht es um Schreibzyklen, die wird privat niemand erreichen können.

    Wir reden im Enterprise-Bereich auch von SCSI/SAS - also auch von ganz anderen Bandbreiten, die dort abdeckt werden müssen. Aber wir driften hier völlig ab - da müsste ich jetzt wesentlich weiter ausholen, aber das ist absolut müßig und führt zu nichts.

    Dauerlast wird man spätestens beim Rebuild bekommen und das wird dann der Tag der Wahrheit sein. Bei den heutigen Plattengrößen (gerade wenn man so Späße mit RAID5 oder sowas fährt) kann das dann noch richtig spannend werden!

    Es gibt aber einen himmelweiten Unterschied zwischen Ausschussschrott und sonstigen Billig-Desktop-HDDs und "professionellen NAS-Platten" (die wird hier garantiert niemand privat einsetzen!).

    Genau auf das wollte ich hinaus - es gibt für alles einen Anwendungszweck und für einen Plattenverbund auf engstem Raum sollte man nunmal mindestens die passenden Platten einsetzen (und keinen Ausschussschrott oder Billig-Desktop-HDDs).

    Bei Platten, die für den Verbundbetrieb konzipiert wurden, geht es übrigens mitnichten darum, dass sie irgendwie besonders lange halten sollen.

    Ein Admin, der im Enterprise-Bereich von "sündteuren NAS-Platten" spricht, der ist möglicherweise auch einfach nur fehl am Platze :)
    Bei kleinen Firmen mag man mit solchen Aussagen vielleicht ja sogar noch punkten können :D

    Wenn die Teile in ein ordentliches NAS kommen, RAID genutzt wird und zumindest die wichtigen Daten (also alles, was nicht anderweitig wiederherstellbar ist) gesichert sind, dann ist es in meinen Augen fast egal, gerade für ein privates NAS. Ich betreibe seit Jahren mein Synology mit 5x8TB-Platten aus den WD-Elements-Gehäusen verschiedener Serien (also eher das günstigste, was man von WD bekommt) und habe nie ein einziges Problem gehabt. Die SMART-Werte sind alle top und das System läuft wie geschmiert. Muss man halt wissen, wie sehr man das Ding stressen will. Aber in einem ordentlichen NAS werden die Platten ohnehin ziemlich geschohnt, da sie schwingungsgedämpft und aktiv gekühlt sind. Plant man natürlich ein NAS, was 24/7 unter Vollast stehen wird, dann würde ich vermutlich auch nicht an den Platten sparen.

    Bitte nicht falsch verstehen - ich bin mir sicher, dass du entsprechendes Fachwissen hast, aber gerade deshalb sollte man mit solchen pauschalisierenden Aussagen eher vorsichtig sein (bzw. würde ich es so halten).

    Deine Beschreibung würde eher davon ausgehen, dass man recht risikobereit sein sollte bzw. wäre es in gewisser Weise fahrlässig, wenn das jemand ungefiltert übernimmt, wenn derjenige keine Ahnung von der Materie hat.

    Sofern man darauf Wert legt, dass man im incident-Fall möglichst wenig Ärger hat bzw. bekommt, sollte man die eingesetzten Platten schon mit Bedacht auswählen.

    Solche Aussagen basieren ja in der Regel auf der Annahme, dass alles im Regelbetrieb einfach durchläuft (genau so, wie du es ja selbst auch geschrieben hast).

    Wie verhält sich das Ganze aber dann, wenn wirklich mal hohe Temperaturen (und Vibrationen) über einen längeren Zeitraum anliegen?

    Richtig Interessant wird es nämlich dann, wenn es mal Bitfehler oder sonstige Fehler/Defekte gibt.

    Von aktiv kühlen kann im Prinzip auch keine Rede sein - die Consumer/SOHO-Teile werden einfach nur belüftet und die heiße Luft in den Raum geblasen.

    In der Regel wird ja auch keine regelmäßige Prüfung auf "Konsistenzfehler" durchgeführt - das böse Erwachen kommt dann im Zweifel irgendwann mal...