Med APFS så har man slutat att optimera mot snurrdiskar och istället förutsätter SSD/NVMe, vilket troligen gör att de går extra ineffektivt mot just snurrdiskar för att den krigar med småsektorskrivning slumpmässigt över diskytan och därmed mycket sökningar...
Alla dagens 2.5"-diskar är SMR-diskar så det kan vara en orsak om använda filsystemet krigar sönder diskens PMR-cache med en massa småskrivningar - detta är ett problem med tex NTFS med sina ideliga och synkade uppdateringar av $MFT (filsystemets metadata) för varenda fil som skrivs vilket ganska lätt fyller upp diskens PMR-cache och disken blir långsam.
filsystem som går bäst mot SMR-diskar är BTRFS och både BTRFS och ZFS har mer eller mindre utarbetad infrastruktur för 'zoned'-disk vilket där en 'zon' kan tolkas som SMR-segment för snurrdiskar med publika zoner men även flash-lagring går mot det hållet för att göra sig kvitt i FTL-lagret som är resursintensiv på dagens SSD/NVMe och står för en stor del av värmebildningen och istället låter man filsystemet hålla reda på vilka block som har data och vilka som kan raderas innan man beställer en 'erase' för zon-segmentet vilket då hanteras lika för att radera en flash-block i flashlagringen eller flytta pekaren till 0 igen på en SMR-segment på en snurrdisk med samma API. - det är mobiltelefonindustring och deras flash-lagringsbehov som till stor del driver fram dessa nya strategier.
Skall man ha SMR-fri disk så får man titta på USB 3.5"-diskar diskar norr om 10 TB storlek och dubbelkolla detta ändå vid köp att den inte är en SMR-version av disk.
---
Normal daglig och veckovis backup så synkar man bara de filer som förändrats och läggs till mellan nuvarande session och den föregående session, vilket kan handla om ett mindre antal GB som behöver skrivas - inte att kopiera en hel diskimage!?
Även om den är i en komprimerade version av diskimage så är det fortfarande hundratal GB till TB-stora sessioner och det kanske man gör per halvår eller så...
jag skulle heller titta på backupprogram liknande som borgbackup jobbar med deduplicering och chunk-baserad lagring - vilket skrivs sekventiellt när dessa väl skrivs och inte i småbitar som skrivs spridd över hela disken.