Dubblett filsökare som luras och vilken ska man skaffa ?

Permalänk
Medlem

Dubblett filsökare som luras och vilken ska man skaffa ?

Hej

Är väl ett ganska så uttjatat ämne men de flesta gratis- versionerna även vid en prövotid är väldigt bromsade, begränsade versioner och inte ens funktionella för att utradera kopior

Dvs efter kanske flera timmars scannande av kopior av filer ifrån externa hdd, sdd så får man ändå bara radera 10 filer el 20 filer max av 10.000 tals och sen blir man blåst på programmet för det strejkar ? Och sen vill dom man ska köpa deras programvara för ocker priser, dvs ej prisvärt enligt mig eller ens kampanj, rabatt men sen dyker rabatten upp ev vid avinstallering ? Helt sjukt och tidsslöseri när man väl kommer till kritan att radera kopior när registret är fullt genomsökt även i detaljfilerna

1. Det finns kanske nån helt gratis enstaka dubblett-fil-sökare (kopior) som funkar mycket bra på musik, bild, eller filmformat inkl ordbehandlingsfiler, word etc filer men vilka ?

2. Men först och främst är jag ute efter att radera ut kopior gratis av textdokument i alla tänkbara format men vilket program ?

Jag är beredd på att betala för ett "Dubblett - sökningsprogram" som täcker de mesta formaten och filerna genom sin av-scanning att radera kopior inkl med andra administrativa verktyg för filerna att sortera in dom i rätt mapp osv

3. Men vilket program ska jag köpa nu för jag hittar bara blindskott..

Nåväl ska jag titta igenom total commander hur man ev kan administrera det men de söker nog inte så säkert och detaljrikt

Tackar på förhand för hjälp som är till stor tacksamhet och önskvärdhet

Permalänk
Rekordmedlem

Det var väl en tråd förra veckan
Det bästa programmet jag hittat hittills är Doubblekiller, det är inte perfekt men det verka i vart fall ha mindre brister i funktionerna än andra jag provat.
https://www.bigbangenterprises.de/en/doublekiller/

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Avstängd

Dupeguru använder jag.
Gratis under GPL V3

https://dupeguru.voltaicideas.net/

Permalänk
Skrivet av Kenneon:

Hej

Är väl ett ganska så uttjatat ämne men de flesta gratis- versionerna även vid en prövotid är väldigt bromsade, begränsade versioner och inte ens funktionella för att utradera kopior

Dvs efter kanske flera timmars scannande av kopior av filer ifrån externa hdd, sdd så får man ändå bara radera 10 filer el 20 filer max av 10.000 tals och sen blir man blåst på programmet för det strejkar ? Och sen vill dom man ska köpa deras programvara för ocker priser, dvs ej prisvärt enligt mig eller ens kampanj, rabatt men sen dyker rabatten upp ev vid avinstallering ? Helt sjukt och tidsslöseri när man väl kommer till kritan att radera kopior när registret är fullt genomsökt även i detaljfilerna

1. Det finns kanske nån helt gratis enstaka dubblett-fil-sökare (kopior) som funkar mycket bra på musik, bild, eller filmformat inkl ordbehandlingsfiler, word etc filer men vilka ?

2. Men först och främst är jag ute efter att radera ut kopior gratis av textdokument i alla tänkbara format men vilket program ?

Jag är beredd på att betala för ett "Dubblett - sökningsprogram" som täcker de mesta formaten och filerna genom sin av-scanning att radera kopior inkl med andra administrativa verktyg för filerna att sortera in dom i rätt mapp osv

3. Men vilket program ska jag köpa nu för jag hittar bara blindskott..

Nåväl ska jag titta igenom total commander hur man ev kan administrera det men de söker nog inte så säkert och detaljrikt

Tackar på förhand för hjälp som är till stor tacksamhet och önskvärdhet

Själv använder jag DigitalVolcano och deras duplicatecleaner och är väldigt nöjd.
Har ej testat version 5 utan är kvar på 4.1.0, vilken har hjälp mig att radera hundratusentals av filer. De har version 4 som Pro och free med begränsning.
DigitalVolcano

Visa signatur

Cooler Master Silencio S600, MSI x99A SLI Plus, i7-5820, Hyper 212 Evo, Geforce GTX 770, 16 GB Corsair Vengeance, Kingston SNV2S1000G, HDD *6, EVGA G2 750W, Windows 10 Pro 64bit.
Dell Latitude 5490, Win 11 Pro 64bit. Synology DS413j.
*Citera om du vill ha svar*

Permalänk
Medlem

Deduplikation är något som ser väldigt enkelt att utföra men med symboliska länkar, hårda länkar mm. väldigt snabbt kan bli komplicerat med cirkel-referenser mm. och det är enkelt att skjuta sig i foten där filer som man tänkte ha kvar - försvinner.

Därför är det extremt viktigt att kunna låsa mappar och filträn där dedupliceringsprogrammet inte får röra filerna oavsett hur många dubbletter den hittar där - en mastervolym eller filträd som är master och sedan från denna kan jämföra med andra filträd där den får ta bort filer i dessa trän som också finns i master-filträdet men lämna filerna som inte fins i kopia i masterfilträdet, även om de skulle finnas i flera exemplar av lika filer inom filträdet man vill tömma på dubbletter.

rmlint (cli-program) använder jag i Linux och uppfyller ovanstående - där kan man bestämma vilken mapp som är 'master' och inget tas bort ur även om det fins dubbletter inom denna och bara markerar dubbletter i andra mappen man vill ta bort dubbletter ur om det fins motsvarande fil i 'mastern'. Den arbetar med hash på filerna så även om filnamnen är olika så hittas dessa och bryr sig inte om var i filhierakin dessa hittas.

Just detta att den kan titta i hela diskar (backupdiskar främst) och mappträd (läs mellan snapshot i btrfs) - ta bort det som är lika mot master-mappen och lämna kvar det som är olika och inte röra filerna i 'master' är ofta betal-funktioner i dedupliceringsprogram för windows och ibland inte ens kan prova hur de arbetar i dess demoversioner.

rmlint kan spara hashvärdena som attribut kopplad mot filens modifieringstid vilket gör att senare körning kan gå väldigt mycket fortare om man tex. skall jämföra mellan två diskars filinnehåll på regelbunden basis - när man gör snapshot med BTRFS så följer alla dessa attribut med även i gjorda snapshot vilket gör det enkelt att snabbt jämföra tagna snapshot i olika tid och sedan ta bort allt som är lik i den äldre snapshoten och lämna kvar det som skiljer sig gentemot den nyare snapshot för en senare manuell granskning och eventuell radering,

upptäcker rmlint att modifieringstid har ändrats gentemot tidpunkten när hash för filen skapades så invalideras befintliga hashen och den räknas om på nytt och hashen uppdateras - men detta fungerar dessvärre bara i Unix-filsystem som ext4, BTRFS, XFS - inte på NTFS-filsystem som har annat sätt att hantera attribut...

När rmlint körs så tar den inte bort några filer utan skapar en bash-script som gör jobbet i en senare körning.

Permalänk
Medlem
Skrivet av stgr:

Dupeguru använder jag.
Gratis under GPL V3

https://dupeguru.voltaicideas.net/

Skrivet av Freezer64Pro:

Själv använder jag DigitalVolcano och deras duplicatecleaner och är väldigt nöjd.
Har ej testat version 5 utan är kvar på 4.1.0, vilken har hjälp mig att radera hundratusentals av filer. De har version 4 som Pro och free med begränsning.
DigitalVolcano

Skrivet av xxargs:

Deduplikation är något som ser väldigt enkelt att utföra men med symboliska länkar, hårda länkar mm. väldigt snabbt kan bli komplicerat med cirkel-referenser mm. och det är enkelt att skjuta sig i foten där filer som man tänkte ha kvar - försvinner.

Därför är det extremt viktigt att kunna låsa mappar och filträn där dedupliceringsprogrammet inte får röra filerna oavsett hur många dubbletter den hittar där - en mastervolym eller filträd som är master och sedan från denna kan jämföra med andra filträd där den får ta bort filer i dessa trän som också finns i master-filträdet men lämna filerna som inte fins i kopia i masterfilträdet, även om de skulle finnas i flera exemplar av lika filer inom filträdet man vill tömma på dubbletter.

rmlint (cli-program) använder jag i Linux och uppfyller ovanstående - där kan man bestämma vilken mapp som är 'master' och inget tas bort ur även om det fins dubbletter inom denna och bara markerar dubbletter i andra mappen man vill ta bort dubbletter ur om det fins motsvarande fil i 'mastern'. Den arbetar med hash på filerna så även om filnamnen är olika så hittas dessa och bryr sig inte om var i filhierakin dessa hittas.

Just detta att den kan titta i hela diskar (backupdiskar främst) och mappträd (läs mellan snapshot i btrfs) - ta bort det som är lika mot master-mappen och lämna kvar det som är olika och inte röra filerna i 'master' är ofta betal-funktioner i dedupliceringsprogram för windows och ibland inte ens kan prova hur de arbetar i dess demoversioner.

rmlint kan spara hashvärdena som attribut kopplad mot filens modifieringstid vilket gör att senare körning kan gå väldigt mycket fortare om man tex. skall jämföra mellan två diskars filinnehåll på regelbunden basis - när man gör snapshot med BTRFS så följer alla dessa attribut med även i gjorda snapshot vilket gör det enkelt att snabbt jämföra tagna snapshot i olika tid och sedan ta bort allt som är lik i den äldre snapshoten och lämna kvar det som skiljer sig gentemot den nyare snapshot för en senare manuell granskning och eventuell radering,

upptäcker rmlint att modifieringstid har ändrats gentemot tidpunkten när hash för filen skapades så invalideras befintliga hashen och den räknas om på nytt och hashen uppdateras - men detta fungerar dessvärre bara i Unix-filsystem som ext4, BTRFS, XFS - inte på NTFS-filsystem som har annat sätt att hantera attribut...

När rmlint körs så tar den inte bort några filer utan skapar en bash-script som gör jobbet i en senare körning.

Tackar rejält för alla råd och val. Ska utprova era valda program (länkar) som tydligen verkar vara helt gratis, eftersom ni nämner inget om nån kostnad för att få en fullständig radering av kopiorna efter spårningen i alla de vanliga formaten på text, bild, video och musik osv.

Jag avser såklart inte att radera kopior av windows systemfiler och grenar till det vilket jag ändå inte har i externa hdd för lagring
Men det kanske kan vara bra sinom tid men då rådfragar jag gärna innan om dvs dessa Dupliceringsprogram finner sånt

Ang att råka radera cirkelreferenser verkar vara en riktigt djupdykning till scanning men det ska man ju kunna ställa in före att den inte ska scanna allt för hårt

Permalänk
Medlem
Skrivet av mrqaffe:

Det var väl en tråd förra veckan
Det bästa programmet jag hittat hittills är Doubblekiller, det är inte perfekt men det verka i vart fall ha mindre brister i funktionerna än andra jag provat.
https://www.bigbangenterprises.de/en/doublekiller/

Tackar

Permalänk
Skrivet av Kenneon:

Tackar rejält för alla råd och val. Ska utprova era valda program (länkar) som tydligen verkar vara helt gratis, eftersom ni nämner inget om nån kostnad för att få en fullständig radering av kopiorna efter spårningen i alla de vanliga formaten på text, bild, video och musik osv.

Jag avser såklart inte att radera kopior av windows systemfiler och grenar till det vilket jag ändå inte har i externa hdd för lagring
Men det kanske kan vara bra sinom tid men då rådfragar jag gärna innan om dvs dessa Dupliceringsprogram finner sånt

Ang att råka radera cirkelreferenser verkar vara en riktigt djupdykning till scanning men det ska man ju kunna ställa in före att den inte ska scanna allt för hårt

Jag har pro versionen men om jag minns rätt så var det ingen begränsning i antalet filer som togs bort. Kolla vad som skiljer de olika versionerna först och se om det räcker med gratisversionen.

Visa signatur

Cooler Master Silencio S600, MSI x99A SLI Plus, i7-5820, Hyper 212 Evo, Geforce GTX 770, 16 GB Corsair Vengeance, Kingston SNV2S1000G, HDD *6, EVGA G2 750W, Windows 10 Pro 64bit.
Dell Latitude 5490, Win 11 Pro 64bit. Synology DS413j.
*Citera om du vill ha svar*

Permalänk
Medlem
Skrivet av Freezer64Pro:

Jag har pro versionen men om jag minns rätt så var det ingen begränsning i antalet filer som togs bort. Kolla vad som skiljer de olika versionerna först och se om det räcker med gratisversionen.

Pro versionerna är dom man köper eller införskaffar på nåt annat sätt som inte är free trail, eller standardversioner utan pro
Det framkommer oftast alldrig hur mycket filer du får radera med trial eller gratisversionerna - standard. Det är en överraskning på slutet tyvärr så att har du en enklare dator med en svag processor till budgetprocessor så kommer det eller en extern hdd som är långsam med långsam kabel. Så kommer det att ta 2-5 timmar om du har många dubbletter i alla format bara för att sen få beskedet att du endast får radera 10-20 filer och sen är det stopp av 30.000 dubbletter +

Permalänk
Medlem

Till detta brukar demo-versionerna också ha gråat sådana saker som att ha 'masterträd' där inget får röras vid senare radering.

När jag spanade runt i samma ärende så gav jag upp till slut och nu görs all deduplicering med "rmlint" under linux, som också kan komma ihåg hashningen av filerna till nästa varv och inte behöver hasha om alla filer igen vid nästa sök - ja under rätt filsystem då...

Det är hashningen som tar tid, eller snarare datat som skall läsas ur disken för hashningen som oftast flaskar då varenda fil måste läsas igenom för att få en hash-värde på var och en då det senare använd för att jämföra filer med varandra.

'rmlint' kartlägger filerna i början och bygger läsordning för tex hantera massor av småfiler för att sedan komma igång med inläsningen med relativt sekventiell läsning utan för mycket sökningar (främst gällande snurrdiskar)

Att bara lita på filstorlek och namn gör man bara inte här... och det händer att man hittar kopior av lika filer där den ena fått bitrot - oftast för att en bit i slutet saknas trots att filstorleken är samma och det verkar som tex. kopiering har avbrutits i förtid i någon sammanhang - hur och varför vet jag inte men händer tillräckligt ofta för att aldrig lita på 'lika' filer utan att göra compare på byte-nivå eller ta hash-summa på dessa innan man tar bort den ena av dem.

Permalänk
Avstängd
Skrivet av mrqaffe:

Det var väl en tråd förra veckan
Det bästa programmet jag hittat hittills är Doubblekiller, det är inte perfekt men det verka i vart fall ha mindre brister i funktionerna än andra jag provat.
https://www.bigbangenterprises.de/en/doublekiller/

Jag provar just nu gratis-varianten på min lokala dator mot min nas för att hitta dubletter, den verkar funka rätt så smidigt, får se hur mycket lagringsplats för frigör efter den kört sitt.
Synd bara att gratis-varianten begränsas till max 2GB stora filer.