Inte för att windows är speciellt känd att skyffa filer snabbt då det numera är så mycket overhead inblandat (inklusive virusscanning) så är 6 MB/s extremt dåligt.
Det borde lätt kunna fylla 30-35 MB/s över USB2 (ca 15-17 MB/s angiven i kopiering i filexploren eftersom det läser max med 30-35 MB/s - sedan skriver med 30-35 MB/s, läser, skriver i tur och ordning efter varandra (ej parallellt samtidigt tyvärr)... och genomsnitt i överföring bör bli runt 15-17 MB/s i total överföringshastighet om det är mellan 2 USB2-diskar)
780 GB överfört bör då ta runt 30 timmar.
---
När det går så långsamt som 6 MB/s så kan det nog vara värt att leta efter snabbare kopieringsprogram än exploren själv då dessa kör med egna buffrar och jobbar närmare hårdiskarnas interface för att snabba upp det hela. ...kanske då i modern windows har lagt in lager i hanteringen mot NTFS och diskarna fysiskt med disck-cache, shadow-copy - virusscanning och annat som användarprogrammen numera inte kommer åt att påverka längre...
En sak till som kan slöa ned fruktansvärt vid läsning är om filerna på den externa disken är nedtagen via torrent - NTFS som windows använder som default är extrem på att fragmentera filer när det tas ned med arbetssättet som torrent gör och när man läser sekventiellt av filen så måste läshuvudet fara runt hela diskytan för att plocka ihop småbitarna för filen i fråga (det som skrivs på nya lagringen är dock i linjär form om du inte kopierar flera filer parallellt) - darrar och rumsterar externa disken man läser ifrån mycket medans du kopierar så beror det på att filerna är mycket fragmenterat och är lagringsdisken en WD-element eller en WD-book så har dom WD-greendiskar i sig med rent bedrövlig genomsnittlig söktid (ca 21 ms) och låg max överföringshastighet - dock det sistnämnda ändå mycket högre än vad USB2 erbjuder i överföringshastighet, så diskens hastighet är inte begränsande gentemot USB2-gränssnittet men den långa söktiden kan vara det om filerna är spridda i småbitar över hela skivytan.
Detta med NTFS förmåga att hacka upp filer i småbitar vid parallella filströmmar som skrivs i slumpmässig ordning (läs torrent-nedtagning) är något man använde som varnande exempel i hur man inte skall göra när man designade ext3 och senare ext4-filsystem i Linux och ext4 är fortfarande en av de mest robusta med mycket lite fragmentering vid multipla parallella nedströmmar med slumpmässig skrivordning på var och en av filerna och bland de snabbaste filsystemen inom Linux-världen.
BTRFS och ZFS är förvisso modernare filsystem men snabbheten har offrats lite för att de är COW-filsystem (alltid skriva på ny sektor och aldrig skriva över den gamla sektorn fast det är samma position inom filen skrivs som skrivs med ny data) och därmed dömda att fragmentera med tiden på en ofta uppdaterande fil (som databas med massa transaktioner hela tiden) även om de gör vad de kan för att det skall fragmentera så lite det går. på BRFS kan man stänga av COW-funktionen för just situationen med databasfiler men tappar då också andra bra och ha-saker samtidigt när detta väljs.