SSD: SATA vs PCIe i praktiken

Permalänk
Medlem
Skrivet av Yoshman:

Din beskrivning av flaskhalsar är inte helt korrekt för AMDs/Intels konsumentplattformar (X370, B350 & Zx170)

Om man tittar på ett system med två M.2 diskar. I AMDs fall är en kopplad direkt till CPU via den dedicerade M.2 platsen och den andra via chipset. I Intels fall är båda kopplade via chipset. Första disken kallar vi A och den andra B

Den matris man då får kring maximal kapacitet för lite olika operationer blir då

System

Läsa eller skriva A (GB/s)

Läsa eller skriva B (GB/s)

Kopiera från/till A till/från B (GB/s)

Läsa eller skriva RAID 0 A+B (GB/s)

AMD X370/B350

4

2

2

6

Intel Zx70

4

4

4

4

Insåg detta först när jag monterade ihop mitt Ryzen-system och blev lite förvånad att det fanns PCIe 2.0 platser på moderkortet. Vid närmare undersökning visade det sig att AMDs chipset stödjer endast PCIe 2.0 med maximalt x4 bredd för varje enskild anslutning.

Inte har sedan Z170 PCIe 3.0 stöd även från chipset. Att kopiering ändå kan gå i full hastighet i Intel-fallet beror på att PCIe har dedicerade linor i varje riktning, så man har full x4 PCIe 3.0 bandbredd i båda riktningarna genom chipset.

Så vilket som är bäst beror på användarmönster. Precis som alla andra i denna tråd håller jag helt med om att skillnaden mellan SATA och M.2 är omöjlig att märka utanför kopiering av stora filer mellan två M.2 diskar. För "normal" användning går det överhuvudtaget inte att notera en skillnad mellan SATA och M.2.

Skulle däremot bestämt hävda att för det enda användarfall där man skäligen kan anse att det finns en begränsning i konsumentplattformarna, så är begränsningen väsentligt mycket större i X370/B250 än i Zx70. Det då den enda rimliga operationen som kan tänkas slå i begränsningen är just bulk-kopiering mellan två M.2 diskar. För majoriteten av användarna är detta ett totalt icke-problem oavsett plattform.

Hyyj... ok, jag har helt missat att de hade 2.0 portar... vf. Man ser dock det jag syftade på i ditt RAID 0 test... men det är bra detaljer du kommer med. Hade AMD kört 3.0 portar så bör de lätt fått högre prestanda, men nu ser man att det är 2.0 PCI-E som är flasken.

Då ändrar jag min revision ovan helt klart. Är synd att man måste gå till HEDT för att kunna använda mer än 1 M.2 SSD fullt ut... eller tvingas köra PCI-E kort för att få prestandan.

@anon159643 Tror poängen med den bilden var att om man bara gör dessa vanliga saker, så märker man verkligen inte skillnaden. Man måste ha nytta av M.2 disken för att märka skillnad, då precis som du säger, där är så många andra saker som är flaskhalsen... och inte SATA SSDn.

Håller helt med dig att M.2 svaghet ligger i kylningen dock. Lite som att ha en sportbil man bara kan köra i 5 min innan den överhettar och kokar... vf är poängen med en SSD man behöver och bara ha nytta av när man behöver mycket prestanda, om man när man använder mycket prestandan, termiskt throttlar sönder?

Permalänk
Datavetare
Skrivet av Paddanx:

Hyyj... ok, jag har helt missat att de hade 2.0 portar... vf. Man ser dock det jag syftade på i ditt RAID 0 test... men det är bra detaljer du kommer med. Hade AMD kört 3.0 portar så bör de lätt fått högre prestanda, men nu ser man att det är 2.0 PCI-E som är flasken.

Då ändrar jag min revision ovan helt klart. Är synd att man måste gå till HEDT för att kunna använda mer än 1 M.2 SSD fullt ut... eller tvingas köra PCI-E kort för att få prestandan.

Fast min beskrivning av RAID-0 är teoretiskt max, d.v.s. en ren summa av PCIe-kapaciteten.

I praktiken så lägger RAID-0 hälften av blocken på ena disken och andra hälften av blocken på andra disken. I det läget kommer bulk-läsningar/skrivningar i praktiken bli begränsade av kapaciteten hos disk B -> den praktiska bandbredden kommer bli 2+2 både för AMDs och Intels konsumentplattformar.

2+2 på Intel därför man inte har mer kapacitet per riktning genom Intels chipset.
2+2 på AMD därför att disk B kan inte läsa/skriva snabbare än 2 GB/s, så den kommer bestämma takten.

Men vidhåller fortfarande att detta i praktiken är ett icke-problem för väldigt nära 100 % av PC-användarna. Flera high-end laptops har ju kapat NVMe från 4x till 2x då det ger bättre batteritid samtidigt som prestandaskillnaden är totalt icke-existerande utanför vissa benchmarks.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av anon159643:

Detta är korrekt och jag brukar skriva Nvme så ofta jag kan. Dock är det lite underförstått vad man menar när man jämför sata vs m.2, men visst folk kan bli vilseledda och köpa fel.
850 evo m.2 är t.ex. en disk som har sitt begränsat användningsområde, det handlar framförallt om väldigt smådatorer. I framtidens laptop så blir detta nog m.2 bli standard på nästan alla och den borde väl bli billigare att tillverka? Även märkersdatorer borde bli billigare med m.2 i framtiden, då det är lättare att montera.

Men för oss med större klumpar så ser jag varken sata ssd kabel eller storleken som något större problem, snarare är avsaknad av detta ett problem som resulterar i att våra ssder blir varm och börjar throttla för att de ej tillräckligt blir kylda.

*edit*
På frågan varför jag tror de kommer bli billigare, så är de mindre, enklare att installera och tar mindre plats. Det är rimligt att i framtidens laptop så är en 2.5" disk på alla bara slöseri.

Det är väl egentligen bara 950 Pro som har lidit av något annat än marginella heat problems vid extrema / tunga långa laster. 960 Pro'n fick ju en vettig heatsink innbygd i tejpen och 960 evo har samma.
Jag har en 850 evo m.2 och jag har aldrig haft problem med temperaturer över 50-60 grader.

Kablarna är ju en smaksak, men jag tror du är inne på något med att det kommer bli (om det inte nästan redan är det) standard för laptops samt små datorer

Visa signatur

White Heart i5-6600k@4.8ghz 1.325v ~ EVGA 780TI SC+ @ 1304mhz ~ 2x8 gb Corsair 2166mhz ~ Samsung 840 240gb ~ Crossover 2795 QHD 1440p 120hz

3D-Mania i7-6700k@5.0ghz 1.396 ~ EVGA 1080 FTW @ 2189/11500 ~ 4x4 Corsair Dominator Platinum 3800 mhz ~ Samsung 850 Pro 512gb ~ Acer Predator x34a, 3440x1440 100hz

Permalänk
Medlem
Skrivet av Yoshman:

Fast min beskrivning av RAID-0 är teoretiskt max, d.v.s. en ren summa av PCIe-kapaciteten.

I praktiken så lägger RAID-0 hälften av blocken på ena disken och andra hälften av blocken på andra disken. I det läget kommer bulk-läsningar/skrivningar i praktiken bli begränsade av kapaciteten hos disk B -> den praktiska bandbredden kommer bli 2+2 både för AMDs och Intels konsumentplattformar.

2+2 på Intel därför man inte har mer kapacitet per riktning genom Intels chipset.
2+2 på AMD därför att disk B kan inte läsa/skriva snabbare än 2 GB/s, så den kommer bestämma takten.

Men vidhåller fortfarande att detta i praktiken är ett icke-problem för väldigt nära 100 % av PC-användarna. Flera high-end laptops har ju kapat NVMe från 4x till 2x då det ger bättre batteritid samtidigt som prestandaskillnaden är totalt icke-existerande utanför vissa benchmarks.

Jo, förstår att det är teoretiskt max, för jag vet att DMI 3.0 har lite annat på porten också... typ nätverk, sata, USB osv... allt ska tryckas igenom, så gl att få 4 ur Intels öht. Det får du aldrig i praktiken, utan endast i specifik benchmarks. Fördelen där är AMDs dedikerade PCI-E lanes till ena iaf. Där får du ut det också.

Men det verkar som att båda är typ begränsade när man har mer än 1 M.2 NVMe SSD då, och man behöver gå HEDT om man behöver prestandan.

Och självklart är detta ett icke problem för de flesta, men som vi båda sagt ovan... man behöver normalt inte M.2 prestandan ändå, och SATA SSD räcker bra. Så det är mer ett problem när man faktiskt behöver denna prestanda.

Permalänk
Medlem

hej alla vet nu inte vilket moderkort det handlar om men jag har amd 1700x Crosshair VI Hero moderkort samt en hårddisk 3tb en samsung 960 evo 1tb som sitter på m.2 platsen ett 1080ti och till slut ett creative ljud kort och jag får runt 2800-2900 i läs och 1800-1900 i skriv vet ej om jag då får ut allt jag ska men jag undrar om m.2 platsen är pcie 3.0 sen kan jag till lägga att jag kör pcie 3.0 16 på grafikkortet

Permalänk
Datavetare
Skrivet av Paddanx:

Jo, förstår att det är teoretiskt max, för jag vet att DMI 3.0 har lite annat på porten också... typ nätverk, sata, USB osv... allt ska tryckas igenom, så gl att få 4 ur Intels öht. Det får du aldrig i praktiken, utan endast i specifik benchmarks. Fördelen där är AMDs dedikerade PCI-E lanes till ena iaf. Där får du ut det också.

Men det verkar som att båda är typ begränsade när man har mer än 1 M.2 NVMe SSD då, och man behöver gå HEDT om man behöver prestandan.

Och självklart är detta ett icke problem för de flesta, men som vi båda sagt ovan... man behöver normalt inte M.2 prestandan ändå, och SATA SSD räcker bra. Så det är mer ett problem när man faktiskt behöver denna prestanda.

Med erfarenhet av att köra massor med 10 Gbit/s NICs via DMI kan jag intyga att man kommer väldigt nära teoretiskt max även i praktiken. Är inom någon procent.

Vanligt Gbit/s kan i sammanhanget ignoreras, av de 4 GB/s man har i kapacitet äter en Gbit/s NIC upp ~0,1 GB/s av detta om den går i full spätta hela tiden.

Visst äter SATA och USB3 potentiellt upp en del, men det är 0,6-0,7 GB/s som mest och hur vanligt är det att man kör bulktransfer med NVMe diskar samtidigt som man maxar USB3 eller SATA? Det blir ett icke-problem direkt NVMe-diskarna inte orkar hålla nära 4 GB/s, en hastighet ytterst få konsumentdiskar fixar mer än i rent sekventiella läsningar/skrivning (och även då är det inte många diskar som håller den hastigheten).

Skrivet av stenis72:

hej alla vet nu inte vilket moderkort det handlar om men jag har amd 1700x Crosshair VI Hero moderkort samt en hårddisk 3tb en samsung 960 evo 1tb som sitter på m.2 platsen ett 1080ti och till slut ett creative ljud kort och jag får runt 2800-2900 i läs och 1800-1900 i skriv vet ej om jag då får ut allt jag ska men jag undrar om m.2 platsen är pcie 3.0 sen kan jag till lägga att jag kör pcie 3.0 16 på grafikkortet

Eftersom du får mer än 2000 i läs måste du ha den på 4x PCIe 3.0.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: ok tackar för svar

Permalänk
Medlem
Skrivet av Yoshman:

Med erfarenhet av att köra massor med 10 Gbit/s NICs via DMI kan jag intyga att man kommer väldigt nära teoretiskt max även i praktiken. Är inom någon procent.

Vanligt Gbit/s kan i sammanhanget ignoreras, av de 4 GB/s man har i kapacitet äter en Gbit/s NIC upp ~0,1 GB/s av detta om den går i full spätta hela tiden.

Får inte ihop din matte... 10Gbit = 0,1GB/s @ full last???
1Gbit kan jag hålla med dig dock.

Skrivet av Yoshman:

Visst äter SATA och USB3 potentiellt upp en del, men det är 0,6-0,7 GB/s som mest och hur vanligt är det att man kör bulktransfer med NVMe diskar samtidigt som man maxar USB3 eller SATA? Det blir ett icke-problem direkt NVMe-diskarna inte orkar hålla nära 4 GB/s, en hastighet ytterst få konsumentdiskar fixar mer än i rent sekventiella läsningar/skrivning (och även då är det inte många diskar som håller den hastigheten).

Du säger det men ändå har jag maxat DMIn på det sättet, vilket man märker när vissa andra saker får dålig responstid (typ nätverket). Som sagt, med en M.2 är det osannolikt ett problem, men vi diskuterar trots allt två... Och de kan nästan maxa den själv i RAID eller kopiering mellan varandra, och försöker du göra något annat så märks det.

Det är dock inget stort problem idag, men vi har hela vägen sedan första sidan också diskuterat detta som "framtidssäkrat", och oddsen är stor att om man idag behöver M.2 prestanda, lär man imorgon behöver mer utrymme och samma prestanda. Problemet kommer mao att växa, och vi behöver lite fler dedikerade M.2 anslutningar imho. 16 st var okej när vi inte hade PCI-SSD, men nu med det känns det som 20-24 är mer vettigt.

Lägg till USB 3.1 runt hörnan med 5/10/20Gbit prestanda, så kommer det börja kännas rätt rejält när DMI blir flaskhals och du försöker driva tex externt grafikkort eller liknande.

Permalänk
Datavetare
Skrivet av Paddanx:

Får inte ihop din matte... 10Gbit = 0,1GB/s @ full last???
1Gbit kan jag hålla med dig dock.

Du säger det men ändå har jag maxat DMIn på det sättet, vilket man märker när vissa andra saker får dålig responstid (typ nätverket). Som sagt, med en M.2 är det osannolikt ett problem, men vi diskuterar trots allt två... Och de kan nästan maxa den själv i RAID eller kopiering mellan varandra, och försöker du göra något annat så märks det.

Det är dock inget stort problem idag, men vi har hela vägen sedan första sidan också diskuterat detta som "framtidssäkrat", och oddsen är stor att om man idag behöver M.2 prestanda, lär man imorgon behöver mer utrymme och samma prestanda. Problemet kommer mao att växa, och vi behöver lite fler dedikerade M.2 anslutningar imho. 16 st var okej när vi inte hade PCI-SSD, men nu med det känns det som 20-24 är mer vettigt.

Lägg till USB 3.1 runt hörnan med 5/10/20Gbit prestanda, så kommer det börja kännas rätt rejält när DMI blir flaskhals och du försöker driva tex externt grafikkort eller liknande.

Gbit/s NIC -> gigabit NIC -> 1 Gbit/s. Annars skulle jag skrivit 10 Gbit/s NIC.

Vet inte vad du mätte med, men problemet jag såg när man slår i DMI-gränsen är tappade paket. För TCP-sessioner kommer det betyda att det kan hacka rejält, men är då orsakat av protokollet och inte HW.

Visst ökar latens, men det handlar om tiotals till låga hundratals mikrosekunder. Detta mätt med testutrustning i $100,000 klassen specifikt för att testa bandbredd och latens.

Oh, och självklart måste OSet samt drivers inte vara konfigurerade med massiva buffertar, gör man det får man ju alltid s.k. buffer-bloat när kapaciteten tar slut (det oavsett hur saker är kopplad till CPU).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer