När jag gjorde 10-miljoners småfiltestet (ej på systemdisken - gör inte det...) så var defender/'realtime protection' något som helt sabbade prestandan mot disk och även med den avstängd så är skapandehastigheter av småfiler ca 1/10-del av farten man får under en Linux-system med ext4/BTRFS.
NTFS är lika jobbig under Linux som Windows med nära identiska tider och också arbetar enkeltrådat under linux, så jag gissar att filsystemet som sådant i sin struktur är mycket svår att parallellisera.
- det var också då jag upptäckte att tiden som förbrukades för filsystemet inte syntes i processlistorna i windows men med CPU-lasten minus belastnings-procenten på alla processerna sammanlagt kunde man se att upp till en kärna/tråd av processor-lasten aldrig redovisades och antas vara här för filsystemhanteringen - men blev heller aldrig mer än en, vilket betyder att NTFS hanteras enkeltrådat och går inte fortare oavsett hur många kärnor man har i sin propp - här syns åldern av NTFS från tiden när man bara hade en enda processor som skötte allt. Idag ligger också en hel stack med olika plåster ovanpå NTFS för att få NTFS att se mer modern ut med shadowcopy och annan hantering (inklusive AV-krokar som lyssnar på trafiken till/från disken/nätverket).
MS behöver verkligen göra något nytt här i filsystem-väg...