Dell poweredge 2950-server

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

Dell poweredge 2950-server

Har blivit med ett par sådana som söker användning - tänkt främst då som ren filserver enbart och enbart för att de har 6 st 3.5"-diskplatser på en 2HE-RACK (de har suttit i serverrum med filtrerad luft - kliniskt rena invändigt fast de har varit igång bit över 7 år - blir inte ens skitrand på vita tunna montörshanskar när man drar på kanterna av fläktvingarna!! - har aldrig sett så rena, väl använda datorer tidigare)

Tyvärr har sådana här ~10 år gamla servrar med PERC6-diskkontrollerkort så har de ingen kunskap om diskar större än 2.2TB storlek (Max 32-bitars LBA-adressering då 2^32 *512 byte = 2.1990.... TB (decimal) = 2.0 TiB.) Nu såg jag någonstans att någon viskade om att om man körde med diskar med 4k native sektorstorlek så kunde man gå förbi den här limiten och den verkliga gränsen hamnar då på 16TiB/disk.

Att gå att köpa sig 8-10 TB SAS-disk med 4k native sektorstorlek (tex. Seagate exos, HGST Ultrastar) är en smula dyrt enbart för att prova om det går (många SAS-diskar kan man förvisso formatera för olika sektorstorlekar i efterhand) så frågan är om någon har experimenterat med dessa kombinationer med gamla SAS-kort tidigare och sett om det går...

Det blir ju en automatisk fundering vidare om detta också går att 'trolla' med P400, P410 diskkontroller från HP då dessa har liknande begränsningar (alla använder LSI-kretsar ur samma familj typ)

Den slutliga frågan är ju att få till IT-mode på dessa - för HP P400 så verkar detta helt hopplöst att få till, P410 tror jag också är omöjlig medans P420-kort kan man få i IT-mode - då är det frågan om någon fått syn på omflashning för just IT-mode på Dells PERC6-kort i något sammanhang.

(både DELLS PERC5/6 och HP P400 och P410 är HW-raid kort med batteribackupad cache-minne och det är något helt annat än de fake-RAID lösningarna som finns i många moderkort med delvis stöd från processortillverkarna som en del i det hela)

om HW-RAID i praktiken är säkrare en lösningar med SW-Raid ala mdadm. Linux mfl., ja det låter jag vara osagt och båda lägren hävdar att deras lösningar är den säkraste.

Själv kan jag mycket väl godta SW-RAID och dess motsvarighet i BTRFS/ZFS så länge de har en förmåga att komma framåt även i situationer med missmatch och det inte finns trasig disk eller oläsbara sektorer som kan guida vilken disk som har mest rätt (vilket är en situation som kan ske under full skrivning med strömavbrott mitt i och alla diskarna hann inte bli uppdaterade med den senaste ändringarna och sedan blir en konflikt när data skall läsas efter strömavbrottet.

Trädvy Permalänk
Medlem
Plats
Piteå
Registrerad
Okt 2004

Behöver du verkligen sas diskar för hemmabruk? varför inte bara köra på sata diskar?

Citera om du vill ha svar :)

Trädvy Permalänk
Medlem
Registrerad
Aug 2016
Skrivet av Pelle:

Behöver du verkligen sas diskar för hemmabruk? varför inte bara köra på sata diskar?

Har kanske inte så mycket val om jag skall gå över 2TB barriären...

Prisskillnaden mellan SAS och SATA är också allt mindre för stordiskarna (har sett där tom. SATA-diskarna är dyrare än SAS för samma diskgeneration för en tillverkare) - en del SAS-diskarna kan formateras till flera olika sektorstorlekar medans SATA är bunden till 512 byte storlek (dvs. vid logisk 4K-sektrorer så är det 8 st 512-block som överförs och där vet jag inte hur kontrollern ser på saken - om den vill se 'hela 4k sektorer eller förstår att 8 st 512-bytes sektorer är att anses som 1 st 4Kbyte sektor rent LBA-mässigt)

- den som skrev om att bryta 2 TB barriären hänvisade bara till SAS-diskar med 4 K sektorer 'native' - inte dito SATA-diskar, till detta brukar det vara vanligt att SATA-hastigheten är halva kontrollerkortets SAS-hastighet och den tidens SAS var det man kallar idag för SAS1 och då är SATA-hastigheten bara 150 MB/s och SAS 300 MB/s - en stordisk idag ligger på 205-245 MB/s vilket är lite synd om den går igenom en 150 MB SATA-koppel... - just PERC6 har också dual-port (precis som P400 för HP) - och SAS-diskar är ofta dualport medans SATA med dualport kan hittas på några diskar från IBM medans SATA över PCIe (SATA express) har kommit längre...

Sedan har jag sett skillnaden mellan SAS och SATA när man har blandad disk i en mjukvaru-RAID (var disk en separat logisk volym då kontrollern inte kunde gå i IT-mode) - blev ungefär 1/4-delar av prestandan kvar med en SATA-disk och 5 SAS-diskar med ungefär samma storlek och sekventiell läsprestanda (utom i sökningar dock) än om det var 6 SAS enbart i RAID:en.

Man såg väldigt tydligt att det var SATA-disken som sänkte hela RAID:en med konstant 100% busy medans SAS-diskarna låg på typ 10-25% och bara väntade på den stakars SATA-disken skulle bli klar någon gång även vid sekventiell skrivning och det syntes också på blinken i disktrågarna...

Sedan är det bättre och mer uthållig felrättning i SAS-diskar med ett lager 'mjukvaru-ECC' ovanpå den HW-baserade på samma sätt som bättre klassens märkes SSD-minne, medans SATA är som noname SSD som ger upp när minneschippens egna ECC-kapacitet inte räcker till längre.

---

Givetvis, är prisskillnaden för stor så går SAS-diskar bort, men handlar det om enstaka hundralappar så kan det övervägas - men frågan just nu är om jag har något val om jag skall förbi 2TB-gränsen och om någon annan har labbat med detta och kan säga bu eller bä om detta...

ett alternativ är att leta fram en H700-kontroller till rimlig peng men då böket att hitta adpter-kablar mellan kontroller och disktrågarna samt enligt inlägg kan vara si och så få till lysdiod-indikationerna...

Trädvy Permalänk
Medlem
Plats
gbg
Registrerad
Nov 2007
Skrivet av xxargs:

Har kanske inte så mycket val om jag skall gå över 2TB barriären...

Prisskillnaden mellan SAS och SATA är också allt mindre för stordiskarna (har sett där tom. SATA-diskarna är dyrare än SAS för samma diskgeneration för en tillverkare) - en del SAS-diskarna kan formateras till flera olika sektorstorlekar medans SATA är bunden till 512 byte storlek (dvs. vid logisk 4K-sektrorer så är det 8 st 512-block som överförs och där vet jag inte hur kontrollern ser på saken - om den vill se 'hela 4k sektorer eller förstår att 8 st 512-bytes sektorer är att anses som 1 st 4Kbyte sektor rent LBA-mässigt)

- den som skrev om att bryta 2 TB barriären hänvisade bara till SAS-diskar med 4 K sektorer 'native' - inte dito SATA-diskar, till detta brukar det vara vanligt att SATA-hastigheten är halva kontrollerkortets SAS-hastighet och den tidens SAS var det man kallar idag för SAS1 och då är SATA-hastigheten bara 150 MB/s och SAS 300 MB/s - en stordisk idag ligger på 205-245 MB/s vilket är lite synd om den går igenom en 150 MB SATA-koppel... - just PERC6 har också dual-port (precis som P400 för HP) - och SAS-diskar är ofta dualport medans SATA med dualport kan hittas på några diskar från IBM medans SATA över PCIe (SATA express) har kommit längre...

Sedan har jag sett skillnaden mellan SAS och SATA när man har blandad disk i en mjukvaru-RAID (var disk en separat logisk volym då kontrollern inte kunde gå i IT-mode) - blev ungefär 1/4-delar av prestandan kvar med en SATA-disk och 5 SAS-diskar med ungefär samma storlek och sekventiell läsprestanda (utom i sökningar dock) än om det var 6 SAS enbart i RAID:en.

Man såg väldigt tydligt att det var SATA-disken som sänkte hela RAID:en med konstant 100% busy medans SAS-diskarna låg på typ 10-25% och bara väntade på den stakars SATA-disken skulle bli klar någon gång även vid sekventiell skrivning och det syntes också på blinken i disktrågarna...

Sedan är det bättre och mer uthållig felrättning i SAS-diskar med ett lager 'mjukvaru-ECC' ovanpå den HW-baserade på samma sätt som bättre klassens märkes SSD-minne, medans SATA är som noname SSD som ger upp när minneschippens egna ECC-kapacitet inte räcker till längre.

---

Givetvis, är prisskillnaden för stor så går SAS-diskar bort, men handlar det om enstaka hundralappar så kan det övervägas - men frågan just nu är om jag har något val om jag skall förbi 2TB-gränsen och om någon annan har labbat med detta och kan säga bu eller bä om detta...

ett alternativ är att leta fram en H700-kontroller till rimlig peng men då böket att hitta adpter-kablar mellan kontroller och disktrågarna samt enligt inlägg kan vara si och så få till lysdiod-indikationerna...

Jag skulle nog hålla med om att skippa SAS-diskarna helt om du är ute efter något större än var PERC6 -kontrollerkorten klarar (2,2TiB).
SAS-diskar är nice för hastigheten de erbjuder, men de kostar massor och har låg kapacitet. Du kan möjligen använda SAS-diskar som OS-disk men de är inget bra val för storage på en filserver.
Som @Pelle skriver så är SATA bättre att statsa på i det läget.
2950 är väl ändå rätt respektabla servrar för att vara "uråldriga".

Skulle snarare råda dig att skaffa low-power CPU:er t.ex. L5310 (50W):
https://www.ebay.com/itm/Intel-Xeon-L5310-L5320-L5335-L5410-L5420-L5430-LGA771-Desktop-CPU/264386453082?hash=item3d8ea91e5a:m:mCQXSnDzNXFdGBQQ8alAbPA

...och HBA-kort med modernare interface och stöd för större diskar: (Nedan kort går att flasha till både IR- och IT-mode så du kan välja mellan HW-RAID för oldschool eller SW-RAID för tillämpningar som t.ex. ZFS)
https://www.ebay.com/itm/IBM-ServeRaid-M1015-46M0861-SAS-SATA-PCI-e-RAID-Controller-LSI-SAS9220-8i/183604576636?hash=item2abfaf817c:g:CrsAAOSw3ZtaS4R0

Guide för flashning:
https://www.servethehome.com/ibm-serveraid-m1015-part-4/

...samt SAS-kablage från mini-SAS till backplane på servrarna:
https://www.ebay.com/itm/1M-Mini-SAS-36PIN-SFF-8087-to-SFF-8484-SAS-32-Pin-Data-Cable-Latch-Cable-R8C9/322759464730?hash=item4b25f6971a:g:Q3EAAOSwOS1ZwLAl

Tror det hade räckt för att bringa liv i dem igen.
-Vill du, kan du givetvis köra SAS-diskar med ovan lösning också, med fördelen att du även kan "fläska på" med större SATA-diskar än du kan med nuvarande kontrollerkort.

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 16.04 LTS

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

tack för lite tips

Har en HBA liggande som inte vill gå så bra i HP-servrarna men kanske har bättre lycka i dell-burken - så det kanske räcker med den sista länken med kablarna för SFF8087 -> SFF8484 kontakterna för att lösa problemet.

För själva OS har jag redan några 15 KRPM-diskar i 73/146 GB storlek så det är inget som behöver köpas i nuläget

Problemet förutom söksnabbheten så är dagens diskar snabbare i sekventiell datatakt än vad dom ca 10 år gamla diskarna är även med 15 KRPM.

Prisskillnaden på sen version SAS och SATA-disk i bulklagringsstorlek 6TB och större är nere på ett par hundringar och det handlar mer om vilken familj av diskar man vill ha i sina maskiner (typ enklare diskar med 2-3 års garanti (och endast SATA) eller near-line Enterprise-nivå med 5 års garanti och med både SATA och SAS-gränssnitt.

Vid lite letande hittades tex. Seagates exos 8TB finns priser från ca 3177:- för SATA-varianten och SAS-motsvarighet 3333 :- och skall man med 4kn sektorer 3396:- och nu slutligen Toshiba MG06SCA800A med SAS och 4kn går att hitta för 2820:- - alla inklusive moms

Som jämförelse vid ett par snabba slagningar utan att jaga de exakt billigaste WD-RED 2940:- ned till 2874:- och Seagate Ironwolf 2829:- med lägstapriser ned till 2600:-

Seagate exos 12TB SAS 512e/4kn (kan alltså växla sektorstorlek) 4616:- och dess SATA-motsvarighet 4471:- och en WD ultrastar med SATA 512e ligger på 4506:- och dess SAS-version 4813:- (dessa ersätter WD:s tidigare WD gold-diskar /Raid edition) och Toshiba MG07SCA12TA också SAS och 4kn går att hitta från 3851:- - medans ...eeh... WD RED 12TB nu ligger på över 5000:- och 5400:- över disk på de vanligaste databutikerna...

"konsumentdiskarna" som WD-red och Seagate Ironwolf ändå närmast kan räknas till, är inte dramatiskt mycket billigare och i somliga fall tom. dyrare för att de kan leva på starka varumärken (som WD-RED) i konsument-skiktet medans SAS-diskarna har sina stora köpare hos molntjänstföretagen i enorma serier och därför börja priserna där vara i nivå med SATA-diskarna...

Ovanstående är bara priser som snabbt surfats fram - det går säker hitta billigare exemplar också av varje kategori om man jagar runt - men poängen är att SAS-diskar är inte längre oöverkomligt dyra längre ens med privat-plånbok sett, men för många är det inte ett alternativ då man inte har maskinvara att kunna hantera SAS-diskar då allt bygger på SATA både på moderkortsnivå och i köpe-NAS.

När det är så liten prisskillnad mellan SAS och SATA för de bättre (och dyrare) diskarna och _OM_ man har infrastruktur för just SAS i sina burkar så är det väldigt frestande att gå på just SAS-diskar... och dessutom skulle vara väldigt förnämligt om man kunde gå runt en gammal SAS-kontroller med 32-bits LBA och lura den att hantera större diskar om det visar sig kunna hantera 4k-sektorer istället för 512-bytes sektorer - så gjorde man på externa USB-diskar när diskstorleken blev över 2TB för att komma förbi 2TB-gränsen för att kunna hanteras med MBR och tex. hanteras av windows XP.

Köper man SAS-HBA-kort och rätt kablage (vilket inte är samma som ofta skickas med i dessa HBA-kort kit då dessa är SFF8087 -> SATA - ej mot SAS-diskar - det är en lite plastklack som hindrar att plugga in dessa SATA-kablar från HBA till en SAS-disk - bra att ha i bakhuvudet om man tänkte sig uppgradera i framtiden och har köpt HBA nu) så är man framtidssäkrad oavsett om man köper SATA eller SAS-diskar

Trädvy Permalänk
Medlem
Plats
gbg
Registrerad
Nov 2007
Skrivet av xxargs:

tack för lite tips

Har en HBA liggande som inte vill gå så bra i HP-servrarna men kanske har bättre lycka i dell-burken - så det kanske räcker med den sista länken med kablarna för SFF8087 -> SFF8484 kontakterna för att lösa problemet.

För själva OS har jag redan några 15 KRPM-diskar i 73/146 GB storlek så det är inget som behöver köpas i nuläget

Problemet förutom söksnabbheten så är dagens diskar snabbare i sekventiell datatakt än vad dom ca 10 år gamla diskarna är även med 15 KRPM.

Prisskillnaden på sen version SAS och SATA-disk i bulklagringsstorlek 6TB och större är nere på ett par hundringar och det handlar mer om vilken familj av diskar man vill ha i sina maskiner (typ enklare diskar med 2-3 års garanti (och endast SATA) eller near-line Enterprise-nivå med 5 års garanti och med både SATA och SAS-gränssnitt.

Vid lite letande hittades tex. Seagates exos 8TB finns priser från ca 3177:- för SATA-varianten och SAS-motsvarighet 3333 :- och skall man med 4kn sektorer 3396:- och nu slutligen Toshiba MG06SCA800A med SAS och 4kn går att hitta för 2820:- - alla inklusive moms

Som jämförelse vid ett par snabba slagningar utan att jaga de exakt billigaste WD-RED 2940:- ned till 2874:- och Seagate Ironwolf 2829:- med lägstapriser ned till 2600:-

Seagate exos 12TB SAS 512e/4kn (kan alltså växla sektorstorlek) 4616:- och dess SATA-motsvarighet 4471:- och en WD ultrastar med SATA 512e ligger på 4506:- och dess SAS-version 4813:- (dessa ersätter WD:s tidigare WD gold-diskar /Raid edition) och Toshiba MG07SCA12TA också SAS och 4kn går att hitta från 3851:- - medans ...eeh... WD RED 12TB nu ligger på över 5000:- och 5400:- över disk på de vanligaste databutikerna...

"konsumentdiskarna" som WD-red och Seagate Ironwolf ändå närmast kan räknas till, är inte dramatiskt mycket billigare och i somliga fall tom. dyrare för att de kan leva på starka varumärken (som WD-RED) i konsument-skiktet medans SAS-diskarna har sina stora köpare hos molntjänstföretagen i enorma serier och därför börja priserna där vara i nivå med SATA-diskarna...

Ovanstående är bara priser som snabbt surfats fram - det går säker hitta billigare exemplar också av varje kategori om man jagar runt - men poängen är att SAS-diskar är inte längre oöverkomligt dyra längre ens med privat-plånbok sett, men för många är det inte ett alternativ då man inte har maskinvara att kunna hantera SAS-diskar då allt bygger på SATA både på moderkortsnivå och i köpe-NAS.

När det är så liten prisskillnad mellan SAS och SATA för de bättre (och dyrare) diskarna och _OM_ man har infrastruktur för just SAS i sina burkar så är det väldigt frestande att gå på just SAS-diskar... och dessutom skulle vara väldigt förnämligt om man kunde gå runt en gammal SAS-kontroller med 32-bits LBA och lura den att hantera större diskar om det visar sig kunna hantera 4k-sektorer istället för 512-bytes sektorer - så gjorde man på externa USB-diskar när diskstorleken blev över 2TB för att komma förbi 2TB-gränsen för att kunna hanteras med MBR och tex. hanteras av windows XP.

Köper man SAS-HBA-kort och rätt kablage (vilket inte är samma som ofta skickas med i dessa HBA-kort kit då dessa är SFF8087 -> SATA - ej mot SAS-diskar - det är en lite plastklack som hindrar att plugga in dessa SATA-kablar från HBA till en SAS-disk - bra att ha i bakhuvudet om man tänkte sig uppgradera i framtiden och har köpt HBA nu) så är man framtidssäkrad oavsett om man köper SATA eller SAS-diskar

Ja om dessa priser stämmer kan det helt klart vara värt att tänka på SAS-diskar, det håller jag med om.

Har inte haft koll på att priserna hamnat på de nivåerna för SAS, SATA-priserna för diskar har samtidigt ökat en aning, vi pratar kanske om en ny era för SAS och inte riktigt samma kvalitet och garantier som gällde förr (900GB diskar för Enterprise brukade inte sällan ligga mellan 2300-3500:- exkl. moms för ex. Cheetah eller Raptor)
Precis som du säger är man snarare är ute efter SAS-interfacet och med det ett effektivare gränssnitt även om diskarna i sig liknar de vanliga SATA-diskarna i spec.
Skulle ju faktiskt vara intressant att se hur mycket prestanda man kan vinna på det.

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 16.04 LTS

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

Håller med om att det är skillnad på 'riktiga' Enterprise-diskarna på 73, 146, 300,600 och 900 GB och kanske tom. 1200 GB i 10 krpm och 15 krpm, och dessa 'bulklagringsdiskar' > 6TB som ibland nämns som near-line diskar för att markera att de är inte riktigt i samma klass som Enterprise-hårddiskar av modellen som främst Seagate har tillverkat under åren.

---

Provade nu en HBA Avago sas9210-8i som inte ens gick igenom POST och bara bootloopade på HPE-DL385G5 och G5p-burkarna men i Dell-burken faktiskt fungerade och man kom in i dess setup. Dock behöver den flashas om då den kräver minimum 2 diskar ens för att prova och det är bara RAID0 (minimum 2 disk), RAID1 (minimum 2 diskar) och RAID10 (minimum 3 diskar) att välja mellan.

Det trista med HPE-burkarna som annars är välbestyckade med dubbelpropp och massor av RAM är att det är bara 2.5" cage i dessa och det är svårt att hitta stora 2.5" diskar med 4kn-sektorer som kanske skulle kunna hanteras av P400-korten i dessa) - så dessa kommer främst att få agera som VM-maskiner

Dell har 3.5" cage och därmed kan hantera stordiskar om man hittar vägar runt 2TB-begränsningen (vilket nu går med ovanstående HBA 9210-8i), men är mager på RAM och bara har en propp isatt och därför passar bäst för ren filserver-funktion/NAS då detta inte är så krävande (nej ZFS med deduplicering kommer det inte att bli då det verkar käka resurser på många plan - inte bara i mängden RAM som krävs för att fungera bra utan också övergången från fletcher-checksumma[1] till SHA256 Hachsumma (krävs av dedupliceringen) är enormt tung att hantera (och svårt att backa tillbaka igen om man ångrar) - speciellt om använda CPU:er inte har HW-stöd för detta.

Men nackdelen som inte är obetydlig är att Dell-burken låter mer - betydligt mer, typ 10 dB högre (och upplevd dubbel ljudstyrka) än HP-burken ljudmässigt även i dess 'lägsta' läge... - och fläktarna är boven i dramat förstås... gör inget i server-rum som ändå låter som fan - men hemmiljö blir knepig att gömma undan så att ljudet inte stör och ändå ha det välventilerat.

får se hur jag gör i framtiden...

[1] Fetcher-checksumma är betydligt sämre på att upptäcka fel än CRC32C som används av BTRFS - en faktor 10000 mer risk att en fletcher-summa missar ett fel och släpper igenom som korrekt i jämförelse med en CRC32-värde... med dagens CPU:er så kan en CRC32 räknas lika snabbt som en Fletcher-summa, men varför Fletcher är vald i ZFS speglar nog tiden när ZFS designades så var inte situationen sådan och CRC32 ansågs för resurskrävande och därför inte användes ens som alternativ att välja mellan.

Trädvy Permalänk
Medlem
Plats
gbg
Registrerad
Nov 2007
Skrivet av xxargs:

Håller med om att det är skillnad på 'riktiga' Enterprise-diskarna på 73, 146, 300,600 och 900 GB och kanske tom. 1200 GB i 10 krpm och 15 krpm, och dessa 'bulklagringsdiskar' > 6TB som ibland nämns som near-line diskar för att markera att de är inte riktigt i samma klass som Enterprise-hårddiskar av modellen som främst Seagate har tillverkat under åren.

---

Provade nu en HBA Avago sas9210-8i som inte ens gick igenom POST och bara bootloopade på HPE-DL385G5 och G5p-burkarna men i Dell-burken faktiskt fungerade och man kom in i dess setup. Dock behöver den flashas om då den kräver minimum 2 diskar ens för att prova och det är bara RAID0 (minimum 2 disk), RAID1 (minimum 2 diskar) och RAID10 (minimum 3 diskar) att välja mellan.

Det trista med HPE-burkarna som annars är välbestyckade med dubbelpropp och massor av RAM är att det är bara 2.5" cage i dessa och det är svårt att hitta stora 2.5" diskar med 4kn-sektorer som kanske skulle kunna hanteras av P400-korten i dessa) - så dessa kommer främst att få agera som VM-maskiner

Dell har 3.5" cage och därmed kan hantera stordiskar om man hittar vägar runt 2TB-begränsningen (vilket nu går med ovanstående HBA 9210-8i), men är mager på RAM och bara har en propp isatt och därför passar bäst för ren filserver-funktion/NAS då detta inte är så krävande (nej ZFS med deduplicering kommer det inte att bli då det verkar käka resurser på många plan - inte bara i mängden RAM som krävs för att fungera bra utan också övergången från fletcher-checksumma[1] till SHA256 Hachsumma (krävs av dedupliceringen) är enormt tung att hantera (och svårt att backa tillbaka igen om man ångrar) - speciellt om använda CPU:er inte har HW-stöd för detta.

Men nackdelen som inte är obetydlig är att Dell-burken låter mer - betydligt mer, typ 10 dB högre (och upplevd dubbel ljudstyrka) än HP-burken ljudmässigt även i dess 'lägsta' läge... - och fläktarna är boven i dramat förstås... gör inget i server-rum som ändå låter som fan - men hemmiljö blir knepig att gömma undan så att ljudet inte stör och ändå ha det välventilerat.

får se hur jag gör i framtiden...

[1] Fetcher-checksumma är betydligt sämre på att upptäcka fel än CRC32C som används av BTRFS - en faktor 10000 mer risk att en fletcher-summa missar ett fel och släpper igenom som korrekt i jämförelse med en CRC32-värde... med dagens CPU:er så kan en CRC32 räknas lika snabbt som en Fletcher-summa, men varför Fletcher är vald i ZFS speglar nog tiden när ZFS designades så var inte situationen sådan och CRC32 ansågs för resurskrävande och därför inte användes ens som alternativ att välja mellan.

Tips när det kommer till boot-loopande servrar med Avago RAID-kort, brukar bero på att RAID-kortets BIOS inte är kompatibelt med systemet vid boot. Hade själv det problemet med ett par IBM X3650 M3 maskiner men det löste sig när jag stängde av RAID-bioset i inställningarna (jag kom dock åt RAID-biosen inifrån system-bioset(UEFI-peripherals))
Ofta kan man stänga RAID-BIOSen inifrån kortets menyer, kräver dock att man kommer åt dem mvilket verkar vara svårt i ditt fall, då väljer man att inaktivera BIOS-Boot och enbart kör s.k. OS-boot.
Det är perfekt när man enbart skall köra SW-RAID och använda till lagringsdiskar förutsatt att OS-diskar går på Moderkortets SATA/SAS-koppling alt. annat kompatibelt RAID-kort.
Du kanske kan stänga av BIOS för RAID-korten i DELL maskinerna och sedan flytta korten till HP-maskinerna om du vill använda det.
I vissa fall kan uppgradering (flashning av nyare firmware) men ibland också äldre versioner av firmware avhjälpa problemet.

Kör själv med mängder av 2,5" diskar i mina servrar och det fungerar riktigt bra, använder mig av 4TB diskar i Striped mirrored VDEV (RAID10 på ZFS-språk) arrayer om c:a 16-24 diskar.

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 16.04 LTS

Trädvy Permalänk
Medlem
Registrerad
Aug 2016
Skrivet av krigelkorren:

Tips när det kommer till boot-loopande servrar med Avago RAID-kort, brukar bero på att RAID-kortets BIOS inte är kompatibelt med systemet vid boot. Hade själv det problemet med ett par IBM X3650 M3 maskiner men det löste sig när jag stängde av RAID-bioset i inställningarna (jag kom dock åt RAID-biosen inifrån system-bioset(UEFI-peripherals))
Ofta kan man stänga RAID-BIOSen inifrån kortets menyer, kräver dock att man kommer åt dem mvilket verkar vara svårt i ditt fall, då väljer man att inaktivera BIOS-Boot och enbart kör s.k. OS-boot.
Det är perfekt när man enbart skall köra SW-RAID och använda till lagringsdiskar förutsatt att OS-diskar går på Moderkortets SATA/SAS-koppling alt. annat kompatibelt RAID-kort.
Du kanske kan stänga av BIOS för RAID-korten i DELL maskinerna och sedan flytta korten till HP-maskinerna om du vill använda det.
I vissa fall kan uppgradering (flashning av nyare firmware) men ibland också äldre versioner av firmware avhjälpa problemet.

Kör själv med mängder av 2,5" diskar i mina servrar och det fungerar riktigt bra, använder mig av 4TB diskar i Striped mirrored VDEV (RAID10 på ZFS-språk) arrayer om c:a 16-24 diskar.

Jo, jag har en sådan tanke - det som tidigare avhöll mig ifrån att prova var att jag inte hade tillgång någon moderkort med minst 8 lanes PCIe då det är mest laptop och en gammal spelburk där grafiken upptar platsen med PCIe, några 1-lanes PCIe resten gamla PCI-kort platser - ja det behöver uppdateras på stationärsidan...

nu med Dell kan jag faktiskt leta runt och flasha om för IT och ställa BIOS så att den blir osynlig (vet att det finns sådan funktion) och se om det funkar i HPE:n igen.