Att hämta från 10 olika platser är inte lika snabbt som att hämta alla delar sekventiellt efter varandra i en enda anrop ens på SSD - visst det handlar om delar av millisekunder per anrop istället för > 10 ms för ny sökning på snurrdisk men det är ändå tid och kan bli stora om det är tusen och tiotusen sådana anrop i rad som skall ske för att filen är kraftigt fragmenterad - du har overhead-tid för varje diskanrop och handlar det om 1-10 anrop för en fil så tar det mindre tid än att jaga 1000 - 10000 olika fragment (vilket det lätt kan nå upp till på en större icke defragmenterad fil i NTFS som en torrent-nedladdad fil)
Och som redan skrivet kan inte NTFS ha hur många fil-fragment som helst och det kan bli konstiga och svårsökta fel om man ändå kör in i gränsen, och det är också en av anledningarna att NTFS inte skalar väl när filsystemen blir TB-stora (man skall komma ihåg att NTFS designades i en tid där 100 MB stor disk var 'stor disk' och en disk på 4 GB var 'enormt stor' och OS-mijöer där man skrev en fil i taget och inte som idag med kanske 100-tals filer öppna samtidigt och skrivs mer eller mindre parallellt - klart att man springer på begränsningar när man >25 år senare bollar med TB-stora diskar) och gissar att ReFS var ett av försöken att adressera problemet för riktigt stora lagringar även om resultatet blev bara halvdan och inte tillräckligt komplett för att kunna användas som OS-filsystem som windows väl så behöver för att kasta ut NTFS, för att man 'glömde' några viktiga funktioner som windows själv är mycket tung användare av (hårda länkar - som stöds av alla posix-kompatibla filsystem - men inte ReFs...)
Eller om man vill - resultatet är väldigt typisk när stort bolag som 'beställde' en filsystem av grupp inte så entusiastiska programmerare utan arbetsuppgift, fast budget och hård tidsram. Sådan kräver filsystemsnördar, stor frihet, många misslyckande och långsiktighet och att utvecklingsjobbet egentligen aldrig tar slut och som det ser ut idag är det i stort sett bara open source-community som orka med den långsiktigheten även om grunderna i många fall är kommersiellt skapade filsystem som sedan öppnats till opensource.
Den andra delen som gör att jag förordar att köra defragmentering typ en gång per halvår är att få upp större lediga sammanhängande ytor som hjälper SSD och även NTFS-filsystemet själv att göra sitt jobb bättre med trimkommandot på raderad och lediga utrymmen som körs av windows då och då och att du får mer flashminne som för-raderas i dynamisk överprovisionering och användning som SLC-cache för diskar som använder sådant och ändå är utrymme du kan använda för fillagring när det behövs.
För att för-raderingen av flash-blocken skall kunna göras så måste man frigöra ett antal MByte data i sammanhängande block och TRIM kan inget göra om de friställda sektorerna är spridda slumpmässigt som 4k-block över hela diskytan för att filen man raderade var väldigt fragmenterad. Med stora lediga sammanhängande ytor så är det också lättare för NTFS själv att placera ut filer så att de inte blir allt för upphackade i småblock och 'trim' kan göra något vettigt av frigjorda utrymmet när filen senare raderas
Alternativet är statisk överprovisionering som gör med diskens manager-program (som magician för Samsungdiskar) men då förlorar du sammanhängande diskyta som reserveras för överprovisioneringen och du inte kan använda för att lagra data på[1].
För det 3' - prova att köra Defraggler (gratisprogram från samma företag som crapcleaner (Ccleaner)) - om den inte är klar inom 1 timme så bör man ställa fråga om windows egna defragmentering verkligen gör jobbet särskilt väl... det brukar se för hemskt ut i för-visningen i Defraggler innan man kör igång första gången och det brukar ta flera timmar, ja hela natten typ i första körningen innan det är färdig på en till 70% fylld och gammal välanvänd windows systemdisk på 256 GB SSD med många uppdateringar bakom sig.
Körningarna därefter typ en gång per halvår brukar vara klara inom timmen och ofta mycket mindre än så.
[1] görs genom att programmet minskar den befintliga NTFS-filsystemet och skriver om partitionstabellen så att en bit av slutet på disken inte används - kör trim/blkdiscard på området utanför filsystemet så att LBA-nummerområdet i slutet av disken inte längre är kopplade mot några flash-block och kommer att leverera '0' om man läser sagda sektorer.