Für nicht-Pinguine: Er „kopiert” 100GB aus einer „Datei”, die nur Nullen enthält und komprimiert sie dann mit zstd. Das Ergebnis speichert er dann als Datei. Die Datei ist nur 3,3MiB groß.
Exakt. Aber wenn es wirklich darum ging auf Funktionstüchtigkeit zu prüfen (und nicht auf Schreibgeschwindigkeit oder so) wäre schlechtblöcke (badblocks) im nichtdestruktiven Modus und bei ausgehängter Partition das bessere Werkzeug. Und sehr, SEHR viel langwieriger.
Danke für den Hinweis. Ich wusste, dass es Tools gibt, die „richtig” prüfen, ob eine Festplatte gut ist. So weit vertraue ich aber meinem Händler. Ich teste gerade hauptsächlich, ob die Kapazität wirklich korrekt angegeben wurde oder ob das Ding nach einem Terabyte wieder Daten überschreibt. Und ob sich sonst irgendwas Komisches bemerkbar macht.
Die Festplatte soll eigentlich nur das Internet cachen, also kommt es nicht einmal darauf an, dass die Blöcke gut sind.
Lieber nicht. random ist kryptografisch guter, “echter” Zufall. Wenn die Enthropie im System leer ist, blockiert das und man kann dann erst wieder lesen, wenn genug neue Enthropie vorhanden ist. urandom ist ein auf random basierender Pseudozufall, der niemals blockiert und schnell Daten liefert.
Die verfügbage Entropie nimmt zumindest bei mir nicht ab. $ cat /dev/random > /dev/null & watch cat /proc/sys/kernel/random/entropy_avail bleibt bei 256 kleben.
Oh. Ich wusste nicht, dass einem irgendwo die Entropie ausgehen kann. Klingt irgendwie sehr unphysikalisch (nicht, dass ich was davon verstünde). Woher weiß dass System denn, wann sie weg ist, und wie kommt sie wieder zurück?
Juhuu, noch ein Kompressionsalgorithmus!
Für nicht-Pinguine: Er „kopiert” 100GB aus einer „Datei”, die nur Nullen enthält und komprimiert sie dann mit zstd. Das Ergebnis speichert er dann als Datei. Die Datei ist nur 3,3MiB groß.
Und in welcher Form ist das Komprimieren hilfreich dabei, die Funktionstüchtigkeit des “Magnetspeichers” (SSD?) zu überprüfen?
Magnetspeicher sind die alten Festplatten die sich schnell drehen mit arm undso. SSDs wären Blitzspeicher
Gar nicht. Siehe Überschrift (entzangendeutscht) „any% Speedrun”. Es ging ihm nur darum, die 100GB zu nehmen und eine Datei auf die Platte zu werfen.
Exakt. Aber wenn es wirklich darum ging auf Funktionstüchtigkeit zu prüfen (und nicht auf Schreibgeschwindigkeit oder so) wäre schlechtblöcke (
badblocks) im nichtdestruktiven Modus und bei ausgehängter Partition das bessere Werkzeug. Und sehr, SEHR viel langwieriger.Danke für den Hinweis. Ich wusste, dass es Tools gibt, die „richtig” prüfen, ob eine Festplatte gut ist. So weit vertraue ich aber meinem Händler. Ich teste gerade hauptsächlich, ob die Kapazität wirklich korrekt angegeben wurde oder ob das Ding nach einem Terabyte wieder Daten überschreibt. Und ob sich sonst irgendwas Komisches bemerkbar macht.
Die Festplatte soll eigentlich nur das Internet cachen, also kommt es nicht einmal darauf an, dass die Blöcke gut sind.
Aah OK. Mache ich so ähnlich auch gern bei dubiosen Speichermedien, wo es nur so halb drauf ankommt.
Wäre ja in dem Fall sogar übertrieben zu gucken, ob korrekt geschrieben wurde.
# blocksize 1M * 1k = 1G file dd if=/dev/urandom bs=1M count=1k status=progress | tee random.junk | md5sum md5sum random.junk(Prüfsummen sollten identisch sein)
Danke für die Idee. Hab’s ein bisschen weiter automatisiert.
#!/bin/bash set -euo pipefail OUTDIR="/mnt/HDD" COUNT=2621440 for i in $(seq 1 28); do outfile="$(mktemp -p ${OUTDIR})" checksum=$(dd if=/dev/random bs=4096 count=${COUNT} status=none | tee "$outfile" | sha256sum) filename="$(realpath --relative-to=${OUTDIR} ${outfile})" echo "${checksum/-/${filename}}" >> "${OUTDIR}/sums" done sha256sum -c "${OUTDIR}/sums"Nettes Skript. Ich würde aber das normale random nehmen statt urandom. Das ist zufällig genug.
Lieber nicht. random ist kryptografisch guter, “echter” Zufall. Wenn die Enthropie im System leer ist, blockiert das und man kann dann erst wieder lesen, wenn genug neue Enthropie vorhanden ist. urandom ist ein auf random basierender Pseudozufall, der niemals blockiert und schnell Daten liefert.
https://www.man7.org/linux/man-pages/man4/urandom.4.html
Die verfügbage Entropie nimmt zumindest bei mir nicht ab.
$ cat /dev/random > /dev/null & watch cat /proc/sys/kernel/random/entropy_availbleibt bei 256 kleben.Oh. Ich wusste nicht, dass einem irgendwo die Entropie ausgehen kann. Klingt irgendwie sehr unphysikalisch (nicht, dass ich was davon verstünde). Woher weiß dass System denn, wann sie weg ist, und wie kommt sie wieder zurück?
Oh. Ich habe die beiden verwechselt.