Det beror väldigt mycket på tekniken, NANDet och storleken på disken dock.
Tex en mindre 250GB SSD kommer idag aldrig kunna hålla 500MB/s.... få 500GB diskar kan det ens. Men är du uppe i 1TB diskar, så finns där en hel del som kan göra det väldigt långt tid (typ tills du får slut på utrymme iaf).
Sen ja... filsystemet NTFS är... hemskt. Det är som att "veva igång bilen" teknik. Tyvärr är vi fast med det stenålders filsystemet ett tag till. Därför lönar det sig väldigt mycket att faktiskt defragmentera filsystemet, även på SSD, då du gör om en hel del slumpmässiga IOPs till sekventiella sådana. Win 10/8 gör redan detta per default. Finns 3:e part program som kan det också med speciella boot miljöer.
Sen är största problemet med "up till" enorma IOPS värden på SSD att de mäts på nivåer vi normalt inte jobbar/använder dem. Företag med stora databaser.. kanske. Men vi hemma ser sällan mer än QueDepth 2-4 på en disk. Ofta är det QD 1-2 som är mest viktigt. Sen har du sättet man testar... med 100% läsning, eller 100% skrivning i benchmarks. Detta säger också sällan vad disken klarar i verkligheten. Men SLC cachen i disken bör dock klara nära dessa upp till sekventiella värden.
Så när man tittar på recensioner föreslår jag att man ignorerar alla upp till 100k+ IOPS och istället tittar på QD1-2 tester, gärna med mixed random på allt mellan 90/10 till 60/40 (läs/skriv). Burst läsning/skrivning och latenstider (svarstider) är också intressanta. Spikar diskens latens märker du det som den "hänger dig" kortvarigt.
Det finns siter som tex PC Perspective som faktiskt testat väldigt mycket på just klient sidan av SSDer. De har även mer sällsynta tester som TRIM hastighet och en multitask-sits, något så enkelt som simulerande att du laddar ner filer, och samtidigt startar ett tyngre program/spel också.
Sen behöver ju inte alla personer värsting diskar heller. Om det tar 1 sekund eller 2 sekunder är lite skit samma för de flesta, där enda man kan reagera på är när det är "plötsligt" segt. Ofta är detta pga folk tenderar att fylla sina SSDer till brimmen... normalt ska man inte gå över ca 75% fyllnadsgrad, om man inte vill öka slitaget och sänka prestandan.
Skillnaden mellan klient/enterprise här är att Ent. redan har typ 25% overhead plats redan. Därför får du 400GB diskar istället för 480/500/512GB, då de tar dessa 112GB för detta ändamål.
Kan inte mer än att hålla med, och tack för all information, något annat jag kom på är ju att tex NFTS (och alla äldre filsystem) har ett sjukt stort filsystems "overhead" och att endast NVME egentligen klarar av mer en en sak i taget så vitt jag vet iaf, att den sedan gör till synes flera saker är bara en illusion genom att den byter operationer fram och tillbaka mycket snabbt, och även om du har en operativsystem som stödjer NVME plus en nyare NVME SSD är det inte säkert att mjukvaran "inte är sekventiell" vilket gör att du inte kan utnyttja SDD's alla fördelar för att spelet eller programmet i typ 99% av fallen inte är skrivna för att utnytja den nya SSD tekniken, samt att CPU'n ofta är en "bottleneck" vid laddning i Spel och Vanliga program uppstarter osv igen pga att det inte utnytjar multithreading vid dom flesta logiska grund operationer.