Seagate publicerar specifikationerna för världens snabbaste hårddisk

Permalänk
Medlem

Om priserna per GB/TB håller sig rejält under SSD så är detta definitivt ett alternativ för NAS/Server / långtidslagring. SSD kan helt enkelt inte konkurrera inom de närmaste 3-4 åren. Kretsbrist, kapacitetsbrist, jämförelsevis höga priser.

Visa signatur
Permalänk
Skrivet av hACmAn:

Nu tror jag i inte det får plats i vanliga 3.5" HDD. Men annars borde man kunna sätta en uppsättning på andra sidan. 180 grader. Mitt emot varandra utan att de slår i varandra vid drift och snabb parkering.
Min erfarenhet är att det är kretskortet på vanliga konsument diskar idag. Förr kullager. Men arbetar inte i sådana miljöer längre så vet inte hur det ser ut i stort. Skulle gissa på kontrolern fortfarande.

Jag kan tänka mig några få platser där det skulle vara aktuellt. Typ Rymd/Flyg/Militären. Dubbel uppsättning allt förutom skivor i samma 3.5" då vikt/plats är kritiskt. Finns säkert redan för just dom industrierna.

Visa signatur

Hayabusa T3 | Venum Elite Evo | UFC Venum Pro Line

Permalänk
Avstängd
Skrivet av Krakkan:

Precis vad jag tänkte skriva.. Nä mekaniska duger inte ens som backup för mig längre.

Mina WD 5400rpm snurrar på bra. Men av 4 externa Seagate så är det 3 som har lite problem. Kort garanti-tid på 1 år så de används bara vid behov.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Toxicator78:

Hm.. är det bara jag som undrat (och/eller kanske inte förstår) varför man inte bygger ett statisk skriv/läs-huvud som spänner över hela skivan istället för att ha en arm som skall håppa fram och tillbaka?
Är skriv/läs-huvudet svårt och/eller dyrt att tillverka?

Någon som vet?

Finns ju ett par problem. I dag är det runt 10 spår per mikrometer radie på skivan. Så säg att man använder 25 mm av radien på skivan så blir det då 250000 huvuden per sida. Säg att man lyckas integrera dessa i ett chip vilket borde vara möjligt. Detta chip måste då vara väldigt plant så avstånden till skivan blir ungefär samma för alla huvudena. Vi pratar i dag om en flyghöjd på 5 nanometer eller mindre. Så kanske får diffa 1 nanometer mellan huvudena.

Nästa problem är att skivans diameter beror på temperaturen så man måste matcha temperaturutvidgningen mellan skiva och läs-huvuds-array väldigt noga om man ska kunna jobba över nåt större temperaturområde. Förutom det så måste man även se till att iom att diskens hus ändrar sin storlek med temperaturen så får det inte påverka relativ position mellan huvudena och spåren på skivan.

Det man vinner med denna extra komplexitet är att man slipper fördröjningen med att flytta på huvudet, däremot måste man fortfarande vänta på att skivan roterar till rätt position. Vinsten blir kanske 2-3 ggr i accesstid vilket inte är så mycket, däremot så kan ju överföringshastigheten bli väldigt stor om man stoppar in många läs/skriv förstärkare.

Givetvis har man tänkt på det förr, kolla trumminne, de kunde ha hundratalet läs/skrivhuvuden:
https://en.wikipedia.org/wiki/Drum_memory

Permalänk
Medlem

På hårddiskar är skrivsidan som begränsar - att stoppa in flera läshuvuden på samma huvud och släde (som dag är 2st i de moderna diskarna) gör man redan dels för trackingen men också förstärka signalen gentemot brus med korrelation mellan läshuvuden - innan stegen med LDPC börjar och förbättra signalkvaliten ytterligare.

Det är övning inför framtiden med pattern recognition där man på magnetkornnivå skriver något som grovt kan beskrivas som QR-kod med typ 10 nm bredd per 'ö' för ett spår med 5-7 kanaler samtidigt - men huvudvärket är att kunna skriva det då när per databit placeras på allt färre magnetiska korn i grupp så måste kornen göras magnetiskt hårdare av termodynamiska orsaker och med mindre öar minska proxyverkan (dvs kornen med lika polaritet skyddar varandra från att ommagnetiseras i liknelse att skogsdunge på en kulle klarar sig bättre än en ensamt träd på en kulle vid storm) och att grannkornen kan ha omvänd polaritet, för att hålla datat i 10 år i typ 70 grader C kontinuerligt och för att lyckas med det så utvecklas teknikerna med HAMR och MAMR.

Det knepiga är att kunna göra flera skrivelement och skriva dessa 'QR'-koder och det finns risk för asymmetrisk läs och skrivhastighet då skrivningen kanske måste köra 7 varv för att skapa 'QR-koden (liknande den shinglade skrivningen idag) och läsning som klarar det på 1 varv.

Drömmen om billig SSD/flash som konkurrerar med HD i pris/GB kommer inte att inträffa på länge. och glöm det här med lång lagringstid i strömlös utförande i hög-kapacites SSD för låga pengar... QLC ligger redan på en nivå där det nästan inte är acceptabelt med risk för enstaka fel som kan visas redan efter någon månad strömlöst och svår att kompensera med ökad felrättning då behovet av extra lagring för paritet ökar fort ju mer trasig data som uppkommer per tidsperiod då även pariteten också får bitfel på samma sätt som datat själv... Dessutom är SSD/NVMe oerhört temperaturkänsligt under förvarings strömlöst där det är jätteskillnad mellan tex. 20 eller 30 grader C lagringsvärme och också beroende på hur varma chippen var när datat skrevs. Medan en snurrdisk kan börja märkas med bitrot i typ 60 grader C kontinuerligt först vid 10 års lagring... - där spelar det ingen roll om disken lagras i 20 eller 30 grader och tom. 40 grader C under många år - det är så det är i temperatur under kontinuerlig drift i tex. servrar då många sektorer uppdateras inte en enda gång under hela den tiden.

Det man offrar för konsument-SSD är långtidshållbarhet (retensiontid) för större lagringsmängd på samma chipyta med allt fler nivåer per cell - man lägger också på allt fler lager (vilket är samma som fler skivor i en hårddisk och mer kan gå sönder - även i chip-nivå) med alltid några fel i var lager som måste ha reservkapacitet för att kompensera och högre risk ju fler lager (dvs. yelden av högkvalikativ flash minskar och mer 'garbage' som går ut till lågpris SSD, USB-stickor och SD-minnen)

- redan idag så snurrar en wafer-skiva för 3D-flasminne uppemot 3 månader på fabrik för att bygga alla lager en i taget som en 3D-flash har idag och blir det fel i produktionen som strömavbrott så är det mycket stor andel wafer under processning som förloras och kan inte räddas och kan motsvara över månad bortfall i produktion och tiden den surrar och tar plats på fabrik är inte gratis och det finns en gräns att om man överstiger ett visst antal lager och ökar på ytterligare så är det negativt ekonomiskt.

.

Permalänk
Medlem
Skrivet av Krakkan:

Precis vad jag tänkte skriva.. Nä mekaniska duger inte ens som backup för mig längre.

Låt då oss som vill ha data kvar på diskar som ligger kalla mer än några månader köra magnetiska diskar

SSD är fantastiskt, men verkligen inte på cold storage.

Sen är mina erfarenheter av flashminnen kontra mekaniska diskar att data oerhört mycket oftare blivit korrupt på flashminne..

Visa signatur

En del av mina bildlänkar hostas på egen maskin, är bildlänkarna trasiga, ha tålamod.

Permalänk
Medlem

flash och snurr används till olika saker - de som förstår det bygger en vettig kompromiss med båda ingående.

Sedan uppvisar Flash en massa saker som tex SLC-Cache opålitlig överföringskapacitet vid stora och tunga dataflytt eller skrivning av stora filer med hög hastighet under lång tid - det är då man ser kompromisserna hårdhänt...

Det andra, väldigt oväntat och förtroende för SSD fick sig en törn för min del, på förvisso äldre MLC-SSD - TRIM-intrassling som gör SSD enormt slö, så slö att en laptop-snurrdisk kör cirklar kring den och märkvärdigt svår att få disken snabb igen (i princip krävs en secure-erase omgång eller motsvarande med zerofill hela disken flertal gånger innan farten är tillbaka igen).

Idag med dagens SSD/NVMe kanske det fungerar bättre men skall ha SSD som write-back cache mellan datorn och snurrdisk så skall man verkligen vara försiktig och testa med tunga skrivlaster med småfiler och före och sedan efter mäta skriv och läs-delayer och har de ökat märkbart efter testerna så skall man dra öron åt sig då en havererad write-back cache vill man _inte_ ha om datat på snurrdisken skall vara räddningsbar.

Min rätt säkra koncept att köra sönder en äldre MLC-SSD-disk inom ett dygn är följande:

En snurrdisk sätts upp via bcache (och sagda SSD) och sätts upp write-trough[1] med BTRFS-filsystem ovanpå som har komprimerande subvolym och man kör in diskimage med nästan samma innehåll i subvolymen så många man får rum med.

Därefter hämtar man ned 'bees' och kompilera upp den och starta upp en deduplikation av sagda snurrdisk via förstås bcache med defaultinställningar. - nästa morron kommer du förmodligen finna din SSD utsparkad av linuxkernel för att SSD slutar att svara inom tid (titta i dmesg - där ser man för att OS först tillåter längre och längre svarstid men till slut är borta så länge att SSD-disken sparkas ut) medans dedupliceringen fortsätter som innan (men lite långsammare) - bcache har en skyddmekanism där den kan göra sig av med SSD om den inte längre fungerar - dock inte i write-back mode...

Den här övningen skriver inte ut SSD-disken kapacitet på långa vägar - förmodligen inte ens en hel diskvolym i mängd utan det som verka trassla är SSD interna reallokerinstabell av sektorer och flashdatablock (~TRIM) - trasslar in sig fullständigt och hittar inte ut inom rimlig tid för varje ny skrivning/läsning. - har provat på 3 olika diskmärken (Liteon, Adata och Samsung 830) - alla havererade och blev utslängda av OS inom en natt och den som jag inte lyckas få 'säker' igen och fortfarande ger långa delayer innan SSD svarar igen ibland är Samsung 830 och förmodligen måste man göra en secure erase på den...

Det här problemet finns att läsa om äldre SSD-artiklar men verkar inte vara något man bryr sig om längre och fokus är bara antal GB flash-minne per krona och snabbhet (vid små skrivmängder) och man blundar för sådant.

Konsument SSD för cache-jobb i write-back mode för tex. snurrdiskar avråder jag det bestämdaste från då det annars kan bli en väldigt otäck överraskning med icke räddningsbar filsystem på snurrdisken... och vill man ha write-back cache - kolla noga med mycket hård last skrivning/läsning av den värsta sorten på få-sektonivå, det som 'bees' i det här fallet framkallade då på komprimerande disk med BTRFS så hanteras komprimerade filer i 32k-Bytes-block för komprimerande data och inom ramen för att bcache skulle hugga på det hela tiden med uppdateringar mot SSD-cache vare sig det läste eller skrev mot snurrdisken.

[1]

Kör du write-back cache i testet så kommer snurrdiskens filsystem att totalhaverera och du får börja från början igen om du vill testa nästa SSD...

Permalänk
Medlem
Skrivet av Meathim:

Eller så får du in dubbelt så mycket på lika många diskplatser, och 1200 diskar drar mindre ström än 2400 diskar. Som sagt, de som köper de här köper inte en handful av dem.

Jo men dubbel hastighet för 50% mer energiförbrukning med samma mängd data? Dessutom antagligen för ett ganska mycket högre pris per gig...

Nej jag tror verkligen inte detta är bättre utom extremt specifika miljöer

Permalänk
Medlem
Skrivet av Kaleid:

Mina WD 5400rpm snurrar på bra. Men av 4 externa Seagate så är det 3 som har lite problem. Kort garanti-tid på 1 år så de används bara vid behov.

Off:
Ja av mina två så gick en sänder inom garantitiden. Den jag fick som ersättning dog i Februari eller om det var Mars och garantin på den gick ut i December. Men i det fallet så var det tydligen USB till SATA controllern som pajat. Så nu snurrar disken på utan problem i denna dator fast inte som extern. Då även samma problem uppkom på en annan Seagate Expansion förra sommaren för, så misstänker jag att de kan ha lite problem med sina USB till SATA kort. Kan tilläggas att mina mina två som gick sönder stod i idle fast inkopplade och uppdaterade backuper en gång i veckan.

On:
Om man ska ha dessa HDD i servern så känns 10Gbit NIC nästan som ett måste, åtminstone 2,5Gbit. Stackars plånbok.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Hedersmedlem
Skrivet av Toxicator78:

Absolut. Men du har ökat risken för en crash med 100%

Som sagt, du får samma resultat.

Permalänk
Medlem
Skrivet av Karaff:

Låt då oss som vill ha data kvar på diskar som ligger kalla mer än några månader köra magnetiska diskar

SSD är fantastiskt, men verkligen inte på cold storage.

Sen är mina erfarenheter av flashminnen kontra mekaniska diskar att data oerhört mycket oftare blivit korrupt på flashminne..

Men då kanske man ska undvika de heliumfyllda diskarna också, då risken finns att heliumet läckt ut efter 10 år.

Permalänk
Medlem
Skrivet av medbor:

Det går nog att bygga världens snabbaste hästkärra idag också av kolfiber och avlade hästar. Är det någon som bryr sig?

Frågan är ju vad för skillnad i pris på 18TB SSD vs. HDD, senare en 30, 40, 50TB HDD mot SSD..
Det finns ju säkert redan 50TB SSD, men frågan är vad dom kostar.. om dom släppte dom för 6000kr/st så skulle hårddiskmarknaden inte ha så mycket att komma med.. känns mest som en prisfråga det där om hårddiskens vara eller icke vara.
Sedan så är frågan om långtidslagring på en ej inkopplad SSD (backup) är bra eller dåligt, antar att dom fortfarande riskerar att förlora data... jämfört med en hårddisk som inte vart inkopplad på ett par år och förhoppningsvis fungerar

Permalänk
Medlem
Skrivet av Alpha77:

Frågan är ju vad för skillnad i pris på 18TB SSD vs. HDD, senare en 30, 40, 50TB HDD mot SSD..
Det finns ju säkert redan 50TB SSD, men frågan är vad dom kostar.. om dom släppte dom för 6000kr/st så skulle hårddiskmarknaden inte ha så mycket att komma med.. känns mest som en prisfråga det där om hårddiskens vara eller icke vara.
Sedan så är frågan om långtidslagring på en ej inkopplad SSD (backup) är bra eller dåligt, antar att dom fortfarande riskerar att förlora data... jämfört med en hårddisk som inte vart inkopplad på ett par år och förhoppningsvis fungerar

Jag menar att ingen bryr sig om prestanda på hårddiskar. Har man flera diskar har man också mer bandbredd. SSD kan vara en bra buffert/cache för att öka hastighet, men inte för att ersätta kapacitet

Permalänk
Medlem
Skrivet av medbor:

Jag menar att ingen bryr sig om prestanda på hårddiskar. Har man flera diskar har man också mer bandbredd. SSD kan vara en bra buffert/cache för att öka hastighet, men inte för att ersätta kapacitet

Att göra backup på 10-20TB med snabba hårddiskar skulle iaf minska tiden det tar.. är väl den fördelen.

Permalänk
Medlem
Skrivet av Alpha77:

Att göra backup på 10-20TB med snabba hårddiskar skulle iaf minska tiden det tar.. är väl den fördelen.

Då kan man ju jämföra mot 8x3TB RAID6 eller andra saker... jag personligen ser väldigt lite poäng med 2x7TB i ett skal. Hellre 1x14 med färre rörliga delar och 50% lägre förbrukning