Vettigt kontrollerkort till moderkort med få SATA platser

Permalänk
Medlem

Vettigt kontrollerkort till moderkort med få SATA platser

Tjena!

Vilket kontrollerkort (ej deltaco och liknande), tänker Highpoint, Adaptec m.fl gäller till en W10 burk där jag vill kopla in fler diskar med typen JBOD, om möjligt så ser jag också helst att kortet har egen CPU för framtida RAID. Vill ha något stabilt som inte låser upp hela operativsystemet, ska endast använda mig utan Windows.

Sist jag sysslade med externa kontrollerkort var på 90-talet med SCSI och IDE.

Tack för hjälpen!

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | Palit GeForce RTX 2080 Ti 11GB GamingPro OC | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34'' 34GN850 |

Monitor Audio Platinum PL100 II + Advance Paris X-P500 + Advance Paris X-A160
Klipsch R-115SW
Sennheiser HD650

Permalänk
Medlem

i vilken prisklass?

Beror även lite på vad du ska använda det till.

LSI SAS HBA korten fungerar fortfarande (finns många olika, googla). Se till att köpa ett med de specifikationer du vill ha, exempelvis stöd för SSD (TRIM).

Permalänk
Medlem
Skrivet av aker:

i vilken prisklass?

Beror även lite på vad du ska använda det till.

LSI SAS HBA korten fungerar fortfarande (finns många olika, googla). Se till att köpa ett med de specifikationer du vill ha, exempelvis stöd för SSD (TRIM).

Tack för svaret, har ingen prisklass definerad men säg mellan 1k - 2k som maxtak. Tänkte ha det för lagring och det är SSDer som gäller.

Visa signatur

| ASUS ROG Crosshari VIII Dark Hero | AMD Ryzen 5950X | Noctua D15 Chromax | G.Skill TridentZ Royal Gold 32GB DDR4 @ 3600Mhz CL14 | Palit GeForce RTX 2080 Ti 11GB GamingPro OC | 2x WD SN850 1TB @RAID 0 + 2x Samsung 860 EVO 1TB @RAID 0 | Corsair HX 1000W | Corsair Obsidian 1000D | LG 34'' 34GN850 |

Monitor Audio Platinum PL100 II + Advance Paris X-P500 + Advance Paris X-A160
Klipsch R-115SW
Sennheiser HD650

Permalänk
Medlem

Egentligen borde de flesta funka med SSD, de flesta SSD diskar har trim funktion inbyggt idag. Du kan dock få lite problem med stora diskar på en del av dem och annat smått och gott. Hittar du något som du tycker är intressant så rekommenderar jag att googla runt lite för att undersöka eventuella problem med korten innan köp.

Kan rekommendera Ebay om du är villig att köpa begagnat.

Permalänk
Medlem

Förmodligen fungerar vilken LSI-SAS92xx kort som helst, dock kan man behöva flasha om en del av dem till IT-mode.

de är så pass moderna att de hanterar 48-bits LBA-adressering och därmed ingen praktisk diskstorleksgräns, hanterar 512e-bytes sektorer och 4kn-sektorer

orka man vänta några veckor så:
https://www.ebay.com/itm/LSI-9240-8i-6Gbps-SAS-HBA-FW-P20-921... med kablar för 8 diskar och flashad för IT-mode (är riktat specifikt mot ZFS-filsystemanvändarna)

en LSI-SAS9212-4i4e har 4 Sata-anslutningar på kortet (och kan hantera SAS den vägen också) och en extern uttag för ytterligare 4 SAS/SATA diskar med rätt kabel och den är också i IT-mode från början.

Att komma ihåg - korten är 8 lanes PCIe så hållaren på moderkortet måste vara minst så lång (16-lanes hållare som ledig grafikkorts-slot går bra) eller PCIe-slots med öppen ända (som kan sågas upp på mindre PCIe-slot med tex. sliptrissa och dremmel) då kortet själv kan gå ned till 1 PCIe-slot även om kapaciteten blir svårt lidande (då PCIe V.2 bara kan köra 5 Gbit eller ~600 MB/s per lane)

oavsett - mycket vettigare än att försöka med kort liknande https://www.webhallen.com/se/product/272071-Delock-PCIe-SATA-... - då de brukar ha en massa oönskade RAID-moder, buggig mjukvara och annat skit som ställer till och läser man på olika Linux-forum så står dom inte högt i kurs om de över huvud taget nämns.

LSI-korten är _mycket_ etablerade i servervärlden och alla stora lagringsföretag som HPE, IBM, Dell, Lenovo och Fujitsu har egna varumärkesvarianter av samma LSI-SAS 92xx-kort.

---

Skall du ha HW-RAID i framtiden så vill du ha kort med RAM-Cache och BBWC eller motsvarande och då handlar det om LSI SAS926x och uppåt och även LSI-SAS 93xx

LSI- SAS 9240 och nedåt kan flashas för HW-raid men då stängs write-cache av på diskarna och det ger smärtsamma konsekvenser i kapacitet vid skrivningar.

Kör man i Linux-miljö så använder man inte HW-RAID då man antingen kör mdadm-RAID eller BTRFS/ZFS egna RAID-lösningar.

HW-RAID-kort är fyrkantiga och knöliga att hantera och tex. att alla diskar skall vara exakt samma typ och storlek, och det är ett problem om man 4 år senare måste byta disk för att det havererat och kan inte hitta en likadan ny...

Permalänk
Medlem
Skrivet av xxargs:

oavsett - mycket vettigare än att försöka med kort liknande https://www.webhallen.com/se/product/272071-Delock-PCIe-SATA-... - då de brukar ha en massa oönskade RAID-moder, buggig mjukvara och annat skit som ställer till och läser man på olika Linux-forum så står dom inte högt i kurs om de över huvud taget nämns.

Jo, men billiga kontrollerkort utan något RAID stöd, typ https://www.webhallen.com/se/product/272069-Delock-PCI-Expres... borde fungera. Ingen egen erfarenhet av just det kortet dock.

Permalänk
Medlem

Nämnda delock med 2x lanes PCIe2 ger max 1200 MB/s överföring - räcker med 2 SSD för att det skall vara fullt i kapacitet - eller 4 st 10-16 TB stora snurrdiskar.

LSI-SAS92xx har en lane per disk upp till 8 diskar och teoretiskt skulle kunna trycka på med 4.8 GB/s i kapacitet - med sas-expandrar kan man hänga på massor av diskar till då själva 92xx-kortet hanterar logiskt över 250 diskar.
med LSI-SAS93xx som LSI-SAS 9341-8i har man i stort sett dubbla farten per lane (om det är PCIe v.3 på moderkortet) och 1200 MB/s per SAS-anslutning - men dessa kort kostar betydligt mer.

Om man kör linux så är stödet för LSI-HBA mer genomarbetat i och med att de används inom server-världen medans jmicron-kontrollers är i stort sett svordom i kernelutvecklar-kretsar (speciellt mellan USB/SATA-adapterkretsar för externa USB-diskar) då de är kroniskt buggiga och håller på att dumma sig på olika sätt med hängningar, stall och annat som man inte vill se i mer professionell användning...

jag skulle skippa delock och hellre vänta på LSI-SAS92xx som tex. min länk tidigare.

Permalänk
Medlem

Eftersom du nämnde highpoint i ditt inlägg kan jag bara varna dig för att köpa kort från dem. De är ökända budget kort som ofta använder skräp chip från marvell för att kontrollera kortet vilka belastar datorns cpu för att hjälpa till..
I praktiken finns det bara 3 märken som gör vettiga saker numera nämnligen adaptec, areca samt lsi/broadcom resterande kort på marknaden är i praktiken bara budget saker med chipset från jmicron/marvell....

Visa signatur

Valkommitens ordförande går till dikatorn och säger vi har en bra och en dålig nyhet vilken vill du höra först?
-Den Bra -Du är president igen
-Så vad är den dåliga nyheten? -Ingen röstade på dig!
Om du vill veta hur det är att leva i en diktatur läs här https://charter97.org/en/news/

Permalänk
Medlem

Är 1200MB verkligen ett problem i verkligheten? Tänkte mest att gigabit nätverket sätter stopp långt innan

Permalänk
Medlem

Stort problem?... beror på din ambition framöver

Men det är inte ett problem att försörja mot en enda 1GB Ethernet men om du tex. kopierar filer mellan volymer eller vill göra mjukvaru-RAID över flera diskar i använda OS så kan det bli flaskhals då SATA kan bara läsa eller skriva efter varandra i tur och ordning och inte samtidigt (som SAS kan göra mot sina SAS-diskars cache)

1200 MB/s totalt på 4 diskar blir 300 MB/disk (vilket en modern stor snurrdisk närmar sig allt mer, idag är man på typ 260 MB/s och mer) och vid läs/skriv efter varandra (tex. Kopiera eller flytta filer mellan olika filträn) så kanske det blir bara 150 MB skrivet effektivt på var och en på de 4 diskarna, i verkligheten mindre av olika overhead.

Kör du 2 SSD och dem i mjukvaru-RAID1 så blir det inte mer än max 550 MB/s effektivt.

Men detta kanske inte är den huvudsakliga argumentet ändå och tänker du köra i linuxmiljö så bör man använda kort som kernel-utvecklarna för Linux/BSD är bekväma med (som LSI-SAS92xx-kort) och har storanvändarbas och hålla dig ifrån Delock och Highpoint-kort med från kernel-utvecklarnas sida sval intresse att jaga nya buggar och hålla Marvel och Jmicron-chipen i bra funktion trots en massa buggar i chipen då det mycket av dem redan från början och alla är inte hittade och visar sig inte förrän i mer långsökta corner-case...

Tänker du köra windows så kanske det fungerar med Delock och Highpoint med deras egna drivisar då man redan klivit ned rejält steg i ambitionsnivå, men räkna inte med lysande driftsäkerhet och små knirkar då och då som visar sig (som stall/hängning i korta tider) eller andra typer av effekter som OS och drivrutiner försöker dölja så mycket det går...
.

Permalänk
Hjälpsam

Funkar ett sådant här?
https://www.amazon.se/Tangxi-9260-8i-M5015-46M0851-MegaRAID/d...
Och hur kopplar man in diskar på det, SATA verkar saknas?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Du får titta efter SFF8087 till SATA-kabelkit - du behöver 2 stycken då varje kontakt hanterar 4 diskar - typ liknande https://www.amazon.se/Intern-Mini-SFF-8087-7-stift-fram%C3%A5...

Tänk på att 9260-kortet kortet du tittat ut är en HW-RAID med en del ramcache och för att ha nytta av den vid skrivning så kräver den förmodligen konding eller batteribackup för att skrivcachen skall aktiveras.

Vill du inte hålla på med HW-RAID och flasha om för IT-mode om diskarna skall synas transparent som de är så är https://www.ebay.com/itm/LSI-9240-8i-6Gbps-SAS-HBA-FW-P20-921... förmodligen bättre val då allt är omflashat och klart för IT-mode och då inkluderas också nödvändiga kablar för att koppla in på SATA-diskar.

Permalänk
Hjälpsam
Skrivet av xxargs:

Du får titta efter SFF8087 till SATA-kabelkit - du behöver 2 stycken då varje kontakt hanterar 4 diskar - typ liknande https://www.amazon.se/Intern-Mini-SFF-8087-7-stift-fram%C3%A5...

Tänk på att 9260-kortet kortet du tittat ut är en HW-RAID med en del ramcache och för att ha nytta av den vid skrivning så kräver den förmodligen konding eller batteribackup för att skrivcachen skall aktiveras.

Vill du inte hålla på med HW-RAID och flasha om för IT-mode om diskarna skall synas transparent som de är så är https://www.ebay.com/itm/LSI-9240-8i-6Gbps-SAS-HBA-FW-P20-921... förmodligen bättre val då allt är omflashat och klart för IT-mode och då inkluderas också nödvändiga kablar för att koppla in på SATA-diskar.

Tack!
400 är ju snuskigt billigt, med tanke på vad man får.
Beställde nyss.
https://www.ebay.com/itm/LSI-9240-8i-6Gbps-SAS-HBA-FW-P20-921...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Jag är också påväg att beställa nedan kort efter tips härifrån:

https://www.ebay.com/itm/LSI-9240-8i-6Gbps-SAS-HBA-FW-P20-921...

Skillnaden för mig är att jag skulle vilja använda det som just SCSI/SAS-kort och koppla en SAS-hdd (SAS 12Gb/s).. Förstår jag rätt att jag då också behöver köpa någon sorts SAS SFF-8087 till SFF-8482-kabel typ sån här?:
https://www.ebay.com/itm/133047243644

Och bara för att vara säker så det blir rätt, jag har en ledig PCIe 4.0 M.2-plats kvar på moderkortet, det här kortet kommer passa där?

Tacksam för hjälp!

Permalänk
Medlem

Om du skall köra SAS-diskar så verkar kablarna rätt (kan både ta SATA och SAS-diskar) har du extra grafikkorts-socket (16 PCIe-lanes typ med bara 4 fyllda kontaktpositioner bör det inte vara ett problem - om det är färre än 8xPCIe-lanes och om du har open-end-socket (eller sågar upp ändan själv försiktigt med en dremmel och det finns plats i övrigt vidare ut på moderkortet) så bör det gå med 4xPCIe-lanes socket då de skall vara nedkompatibla ända till 1 x PCIe-lane om man går efter PCIe-standarden, själva kortet är en 8xPCIe-lane.

Observera att kortet du länkar till har bara bara 600 MB/s som tak i överföring mellan disk och kort (SAS2), per disk, skall du ha SAS3 så få du titta efter LSI SAS-HBA med 93xx som första siffror i modellen - och ofta betydligt dyrare... men för att ha nytta av det måste också PCIe 3.0 eller 4.0 vara på moderbrädan - annars kommer inte PCIe-lanen kunna skyffla tillräckligt fort om du kör mot SAS-SSD som kan ge betydligt högre än 600 MB/s.

Jo en sak till för att TRIM skall fungera mot SSD så bör korten du köper vara av IT-mode (ofta säljs som ZFS-anpassade HBA) men innebär också att du kan inte nyttja någon inbyggd HW-RAID utan det är då att du kör mjukvaru-RAID supportad av OS.

HW-RAID vill du inte ha på en HBA (som är flashad i IR-mode) om den inte har egen batteribackupad write-cache då writecache på själva diskarna stängs av - på enklare kort som 92xx-serien och tex. kör i HW RAID1 så kan du inte forcera att diskarna körs med sina inbyggda write-cache aktiv utan aktivt stängs av HBA-kortet - och det av dataintrigitets-skäl att det inte skall bli oreda vid strömavbrott.

Permalänk
Medlem

Grymt, tack för all info! Då börjar jag ha koll.. Det enda kvar som jag oroar mig för nu är anslutningen som jag inte riktigt hänger med på; jag har ett Gigabyte X570 Aorus Elite-moderkort där jag tänkte använda ena grafikkort-anslutningen, ser ut som nedan:

Kommer det funka utan att jag behöver börja såga med dremmel?

Permalänk
Medlem

Du har 2 stycken 16 x PCIe-lanes socklar (varav den ena troligen den svarta, är inte fullbestyckad) - vilken som helst av dessa två (eller båda om du inte har grafikkort alls) kan du använda till 8 x PCIe-lanes kort utan att du behöver såga upp - att du inte helt fyller ut kortsockeln när kortet är på plats spelar ingen roll.

De sista längst ned är 1 x PCIe-lane socklar och dessa måste sågas upp ändan om du skall använda dess platser för längre kort med längre kort-kontakt.

Det finns varianter av dessa socklar som kallas 'open end' - dvs. det är inte förtäckt med plast i ändan av sockeln och det går att trycka i kort med längre kort-kontakt i dessa

- men du vill heller inte köra diskar på en enda PCIe-lanes (1 x PCIe-lane socket) även om det skulle fungera då det bara kommer kunna köra runt 600 MB/s totalt mot diskarna medans har du 8 x PCIe-lane så kan du köra 8 x 600 MB/s med 92xx-seriens LSI-SAS HBA.

Skall du ha LSI SAS HBA i 93xx-serien för att hantera SAS3-diskar med full fart (1200 MB/s) så måste moderkortet vara minst PCIe ver. 3 för att full ut kunna hantera kapaciteten (1200 MB/s per PCIe-lane), PCIe-versioner och SAS-versioner har hängt hårt med varandra kapacitetsmässigt till och med SAS-3-generationen.

Permalänk
Medlem

Nu hänger jag med, stort tack för hjälpen!