Skrivet av Paddanx:
Heh...
Eller mina gamla dokument med inloggningar för Tele2s modempol och drivare för US-Robotics modem menar du?
Jag vet hur det är...
Man har mapp: "Att sortera".
I denna ligger där en mapp "Att sortera".
I denna mapp ligger en hel del mappar som heter "behöver sorteras".
Och allt detta ligger på flera backup diskar "som behöver sorteras"
Och absolut bästa av allt: Man sätter sig ner och faktiskt sorterar allt... sen gör man en ny backup. Och 6 mån senare återställer man och får då tillbaka sin "att sortera" mapp... + att man har allt som är sorterat i dubbletter
Nehe - det menar du inte
Till andra som undrar vad man ha för data som behöver multi TB-volym-lagring så är ovanstående väldigt bra förklaring - det utan att behöva tanka ned speciellt mycket mediafiler... eller ursäkta sig med att man fotograferar väldigt mycket (för att inte säga öppet att det egentligen är nedtankade mediafiler...)
...Ju mer man städar ju mer diskutrymme behöver man... man kan ju inte ta bort den gamla datat innan städningen är klar och verifierat på två olika [nya] media, helst ända ned på bit-compare nivå, eller hur!!! - Å så tvingas man mitt under processen och långt innan man är klar - göra något annat, typ jobba... - och ett halvår senare, vid nästa mer sammanhängande ledighet - var var vi nu någonstans... (-> lika mycket till data som måste backupas innan hantering/städning börjar igen, för säkerhets skull, eftersom man inte kommer ihåg var man slutade sist...
- Att lätt kunna göra snapshot under btrfs/zfs gör det inte lättare, förvisso sväller inte datat fullt lika snabbt rent platsmässigt på diskarna - men antalet filer som skall gås igenom ökar lika fort som innan i en oroande 2^n-takt - för man vill ha tag på filerna som _inte_ är lika mellan generationerna för kontroll - och sådant börja vara jobbigt på riktigt om det tillsammans är över 10 miljoner filer på en disk med flertal snapshot... (och > 10 miljoner filer är närmast ett bevis på att det inte handlar om mediafiler... ...eller?)
Och jag kan meddela att program som 'rmlint' som sägs vara en av de snabbare, inte fungera speciellt bra på 8TB mekaniska diskar med upprepade snapshot med > 1 miljon filer i var snapshot - kan säga att ha tålamod och mycket RAM-minne är bara förnamnet, varför säger jag så... jag har provat!!...
...ovanstående process lite hårddraget - men tendensen är otäckt nära ovanstående loop och entropin ökar definitivt per varv...
...och det är svårt att låta bli att pilla på det...
(skall man jämföra till stora delar nästan helt lika image eller direktory-trän som tex. snapshot ger, så tycker jag fortfarande rsync gör väldigt bra jobb - men denna tema kanske är värt en helt egen tråd - dvs. program som är bra på att leta dubbletter och på intelligent sätt kan styra vad som skall hända dessa senare (raderas, hårdlänkar, mjuk-länkas, flyttning etc. vid väldigt många filer samtidigt på trög media)
---
Resultatet av ovanstående är egentligen - skit i att städa, och framförallt inte försöka om avsikten är enbart att försöka få fram mer utrymme och ta bort 'onödiga filer' som 'bara' tar plats av ren dum snålhet utrymmesmässigt, finns det viktiga filer på disken - klona disken och lägg det som arkiv-ex helst på annan ort. Att börja städa/rensa i sina media har en exponentiell förmåga till ökande tidsåtgång och behov av diskutrymme ju mer man försöker... det finns bara en riktning om man ändå försöker - vägen ned mot maximal Entropi, med risken att trampa i en rejäl Entropi-sänka på vägen ned (vafan tog alla mina filer vägen!!!??? neeeeej)...