Permalänk
Medlem

ZFS på nas

Hej!

Jag har funderat länge nu på om jag behöver en "enterprise klassad" lösning med ecc ram WD RE4 diskar och 8GB+ ram med zfs för att lagra mina backups. Nu får jag dock känslan av att de som förespråkar ECC ram och att man ska ha mer än 4GB är samma personer som arbetar med den hårdvaran eller mjukvaran dagligen. De flesta på sweclockers verkar intresserade av RAID-1/2/3 och freeNAS, vilket säkert får jobbet gjort, men om man jämför med ZFS så är en dynamic striped raidz så är den mycket mer effektiv på att reparera data.

1. Jag lurar på om jag ändå inte klarar mig med vanligt ram (utgår från att jag testar ramstickorna först) som potentiallt är "good ram" och sedan kör en mirrored pool över två eller tre diskar. Om jag då scrubbar 1g/veckan borde det väl vara långt mycket mer säkert än NTFS/ext4 backups på spridda diskar eller software raid i mitt fall då jag i princip bara några gånger om året utökar datan med mer. Alltså kommer jag inte göra så mycket tillägg i backuperna, snarare städa upp dem sporadiskt. Behöver jag enterprise lösningar ändå? Jag tvivlar på det.

2. Dock, om jag nu borde köra scrub en gång i veckan... Måste servern stå på 24/7 även om jag inte accessar den större delen av året?
Jag tänker mig, om jag "aldrig" gör skrivningar och har hyfsat bra ram med nya diskar som beter sig väl så borde inte några skrivfel ske och jag endast behöver oroa mig för silent corruption som inte orsakas av mekaniska fel eller dåligt ram, då borde jag kunna känna mig hyfsat säkrare med den lösningen än med backuper på icke-raid NTFS.
Jag försöker bara distansera mig från alla "storage-pros" som snackar om datacenter, ecc och deduplication etc, för jag är inte intresserad av vare sig deduplication eller performance. Pålitlighet före allt annat, jag är bara på konsumentnivå och det finns väl inget bättre än zfs även om zfs var ämnat för enterprise klassad hårdvara.

3. Det finns gott om diskar på marknaden och det är nästan ett val mellan billiga green power diskar eller diskar med lång garanti (men samtidigt ett stort fokus på performance)
Varför får jag känslan av att ingen disk passar mig då billiga eller enklare diskar har för kort garanti och skär ihop för fort, samtidigt som exempelvis WD black känns som en disk för prestandajägare. Jag kan ju köpa RE4, men de är ju byggda för RAID och har TLER etc, vilket jag inte behöver om jag kör ZFS. Är WD Black DET eller ETT AV de bästa valet/valen, eller finns det diskar som har högre fokus på att hålla?
Jag vill tro/inbilla mig att black eller samsung F3 kommer hålla bra pga bättre kvalité, men om de ändå ska köras i 7200 rpm och tillverkarna jagat prestanda så ihärdigt, kommer jag inte ha skjutit mig själv i foten med en sådan också?

Visa signatur

No man is free who is not master of himself

Permalänk
Hedersmedlem

Du måste såklart inte köra ECC men mycket av poängen med ZFS fabulösa dataskydd går förlorad om du inte gör det. Att skrubba hjälper inte mot fel som smyger sig in via minnet.

Du behöver heller inte någon enterprise-hårdvara. AMD har stöd för ECC tom i sina allra billigaste processorer och moderkort och ECC-minne är inte mycket dyrare än vanligt minne så 4GB+ borde inte kosta skjortan.

Det jag kör för min filserver, som väcks via WOL varje gång jag startar någon av datorerna hemma och stänger av sig själv när den inte haft något att göra på ett par timmar, är som följer:

6x 2TB Samsung Ecogreen F4EG (raidz2)
2x Kingston ValueRAM - 2 GB - DDR3 ECC
LyCOM PE-103 - kontrollerkort - SATA-300 - PCI Express x1 (för systemdisken)
AMD Athlon II X2 240e / 2.8 GHz processor
ASUS M5A78L-M LE - moderkort - micro ATX - Socket AM3+ - AMD 760G

Sen den byggdes 2011 har en disk gått sönder, reklamerats och bytts ut utan incident. Annars har allt rullat perfekt.
Borde kanske köpt mer minne eftersom moderkortets grafikkrets äter lite, men har inte märkt några problem av det, så meh.

Visa signatur

Det kan aldrig bli fel med mekanisk destruktion

Permalänk
Medlem
Skrivet av Aphex:

Du måste såklart inte köra ECC men mycket av poängen med ZFS fabulösa dataskydd går förlorad om du inte gör det. Att skrubba hjälper inte mot fel som smyger sig in via minnet.

Du behöver heller inte någon enterprise-hårdvara. AMD har stöd för ECC tom i sina allra billigaste processorer och moderkort och ECC-minne är inte mycket dyrare än vanligt minne så 4GB+ borde inte kosta skjortan.

Det jag kör för min filserver, som väcks via WOL varje gång jag startar någon av datorerna hemma och stänger av sig själv när den inte haft något att göra på ett par timmar, är som följer:

6x 2TB Samsung Ecogreen F4EG (raidz2)
2x Kingston ValueRAM - 2 GB - DDR3 ECC
LyCOM PE-103 - kontrollerkort - SATA-300 - PCI Express x1 (för systemdisken)
AMD Athlon II X2 240e / 2.8 GHz processor
ASUS M5A78L-M LE - moderkort - micro ATX - Socket AM3+ - AMD 760G

Sen den byggdes 2011 har en disk gått sönder, reklamerats och bytts ut utan incident. Annars har allt rullat perfekt.
Borde kanske köpt mer minne eftersom moderkortets grafikkrets äter lite, men har inte märkt några problem av det, så meh.

Ok tack för svar! Jag ska kolla lite på amds processorer och moderkort då. Jag har varit lite skeptisk till deras chipsets (snarare atis) men de kanske är att räkna med. De kan inte vara opålitligare för lagring än hårddiskarna i sig.

Dock, jag gissar du kör en slags raid, hårdvaru- eller mjukvarubaserad, och inte zfs eller ecc. Jag gissar att ecc inte är lika kritiskt om man kör en hårdvaruraid åtminstone då raidkontrollern säkert har ecc minne.
Tror du, eller någon annan här på swec att ecc minne och zfs med mirroring eller raidz är "ett bättre kort" än "vanlig traditionell raid"? Jag överväger att köpa ecc minnen och amd processor nu. Kanske en färdig NAS om det finns en för skapligt pris, under 8000 helst, men jag har inte hittat någon som är byggd för zfs med ecc än.

Visa signatur

No man is free who is not master of himself

Permalänk
Hedersmedlem

Nej jag kör bara ZFS, i FreeBSD 10. med ECC-minnen. Och jag tror definitivt att det är en bra idé.

Utöver mirror kan du i ZFS välja raidz-1, raidz-2 osv. vilket i praktiken betyder att en respektive två diskar kan gå sönder utan att du förlorar någon data. Motsvarar raid5 och raid6 i en vanlig raidkontroller.

Visa signatur

Det kan aldrig bli fel med mekanisk destruktion

Permalänk
Permalänk
Medlem

om du kör ZFS utan ECC RAM så gör du bara allting mycket osäkrare än det skulle varit vid tex NTFS eller FAT.
du förstör inte bara poängen med ZFS som filsystem, du gör det även sämre.

kör du däremot med ECC så är NASen säkrare än någonsin.

Visa signatur

MODERMODEM: Asus ROG Strix Z270E Gaming | i7 7700K | Corsair Hydro H110 | Kingston HyperX Savage 32GB DDR4 RAM | Asus GeForce RTX 3060 Ti TUF OC | Crucial BX100 500GB SSD | Phanteks Enthoo EVOLV | SilverStone Strider Evolution 1200W |

Permalänk
Medlem

Tusen tack för intressant läsning och mycket välkommen hjälp!

Ok, jag tänkte inte köra deduplication då det verkar både dra mycket minne och inte är direkt nödvändigt. Som max kommer jag väl ha VDEVs som är 1TB stora. Jag tänkte mig att kanske 8GB skulle räcka, eller kanske 4.

Saken är klar då, jag skaffar ecc utrustning.

En fråga återstår dock. På vilket sätt är mirroring i zfs sämre/bättre än raidz-N? Jag har inte fattat det utöver att raidz-N är lite som en vanlig raid med striping medan mirroring är kopior av volymerna. Tar jag någon risk med mirroring?

Visa signatur

No man is free who is not master of himself

Permalänk
Hedersmedlem
Skrivet av jookeer:

ZFS med Raidz1/2 kräver väl 16GB+ eccRAM om det skall lira bra?

Möjligt, men det beror nog på vilka prestandakrav man har. Det mest krävande jag gör är att redigera RAW-filer som ligger på NASen och att streama film, för det duger mina knappa 4GB tydligen utmärkt. Men det har också förbättrats avsevärt sedan FreeBSD 7 som jag började med, då kunde framförallt stora skrivningar sega ner sig rejält.

Skrivet av Luminous:

En fråga återstår dock. På vilket sätt är mirroring i zfs sämre/bättre än raidz-N? Jag har inte fattat det utöver att raidz-N är lite som en vanlig raid med striping medan mirroring är kopior av volymerna. Tar jag någon risk med mirroring?

Nej, snarare tvärtom. Står du ut med att tappa halva utrymmet så är mirror det bättre valet. Det går att spegla över 3 eller fler diskar också om man är riktigt nojjig över att de ska gå sönder.

Visa signatur

Det kan aldrig bli fel med mekanisk destruktion

Permalänk
Medlem
Skrivet av Aphex:

Möjligt, men det beror nog på vilka prestandakrav man har. Det mest krävande jag gör är att redigera RAW-filer som ligger på NASen och att streama film, för det duger mina knappa 4GB tydligen utmärkt. Men det har också förbättrats avsevärt sedan FreeBSD 7 som jag började med, då kunde framförallt stora skrivningar sega ner sig rejält.

Nej, snarare tvärtom. Står du ut med att tappa halva utrymmet så är mirror det bättre valet. Det går att spegla över 3 eller fler diskar också om man är riktigt nojjig över att de ska gå sönder.

Bra jag är nojjig.

Men sant, jag kanske borde kolla på raidz-N konfigurationer om jag vill vara mer effektiv i användningen. Dock kommer jag sannolikt lagra mindre än 100 gb och inte behöva diskutrymme. Jag har för mig att jag hörde nåt om att zfs skulle gilla att man inte partitionerade och formaterade hela diskar, utan lämnade oallokerat utrymme men det kanske är något jag blandat ihop med att ssds gillar det för att hålla sin livslängd uppe.
Jag har ingen ssd än, vilket jag funderar på. Efter NH:s tester känns någon sandisk extreme II eller samsung 840 pro 256GB ganska bra.
Det vore dock trevligt om man fick höra att 3d- eller vnand var på gång, men nyligen läste jag att det kommit upp svårigheter med att tillverka kretsarna kostnadseffektivt.

Det återstår att se om jag kommer köpa WD Black eller Samsung F1/F3 till NAS, de verkar bra.

Visa signatur

No man is free who is not master of himself

Permalänk
Hedersmedlem
Skrivet av Luminous:

Bra jag är nojjig.

Men sant, jag kanske borde kolla på raidz-N konfigurationer om jag vill vara mer effektiv i användningen. Dock kommer jag sannolikt lagra mindre än 100 gb och inte behöva diskutrymme. Jag har för mig att jag hörde nåt om att zfs skulle gilla att man inte partitionerade och formaterade hela diskar, utan lämnade oallokerat utrymme men det kanske är något jag blandat ihop med att ssds gillar det för att hålla sin livslängd uppe.
Jag har ingen ssd än, vilket jag funderar på. Efter NH:s tester känns någon sandisk extreme II eller samsung 840 pro 256GB ganska bra.
Det vore dock trevligt om man fick höra att 3d- eller vnand var på gång, men nyligen läste jag att det kommit upp svårigheter med att tillverka kretsarna kostnadseffektivt.

Det återstår att se om jag kommer köpa WD Black eller Samsung F1/F3 till NAS, de verkar bra.

Ptja, ZFS fungerar inte riktigt som ett vanligt filsystem. Eftersom det är ett blocksystem kan du inte skapa traditionella partitioner. Dock rekommenderas det att du håller minst 20% av utrymmet på RAIDZ-arrayen ledigt eftersom det kan bli massa overhead av bland annat checksumsloggningen.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Avstängd
Skrivet av jookeer:

ZFS med Raidz1/2 kräver väl 16GB+ eccRAM om det skall lira bra?

Njae man brukar säga att man ska ha 1gb ram per tb lagring.
Av egen erfarenhet så är det inte lika viktigt - mina två filservrar snurrar idag med tolv diskar i varje i Raidz2 och jag har bara åtta gb ram i varje burk. Ändå är prestandan långt över vad gigabitnätverket klarar av och kopierar jag filer internt så hamnar det på runt 350-380MB/sekunden vilket jag anser gott nog.

Till TS:

Angående scrub, jag kör scrubs den 5e respektive 20e i varje månad enligt schema. Räcker fint som hemanvändare om du frågar mig och som någon sa tidigare så kan man komma undan billigt med ECC ram om man väljer AMD.

Permalänk
Medlem

1GB RAM per 1TB lagring gäller mest om man kör dedup då den ska hålla stora dedup-tabeller i minnet. Kör du utan dedup så klarar du dig med mindre.

Visa signatur

RIPE LIR

Permalänk
Medlem
Skrivet av tomle:

1GB RAM per 1TB lagring gäller mest om man kör dedup då den ska hålla stora dedup-tabeller i minnet. Kör du utan dedup så klarar du dig med mindre.

Det går ~5GB RAM eller L2ARC dedup-data per TB lagring. ~1GB per TB är bara för ARC och mest en rekommendation. Kör själv 16GB ram till 8x4TB raidz-2 utan problem.

Permalänk
Medlem
Skrivet av morxy49:

om du kör ZFS utan ECC RAM så gör du bara allting mycket osäkrare än det skulle varit vid tex NTFS eller FAT.
du förstör inte bara poängen med ZFS som filsystem, du gör det även sämre.

kör du däremot med ECC så är NASen säkrare än någonsin.

Jag skulle säga tvärtom. ZFS är bättre än NTFS eller FAT oavsett om man använder ECC RAM eller inte. Det blir väl inte osäkrare bara för att man får möjlighet att se om data blir korrupt? Med NTFS eller FAT och icke-ECC får man kanske samma fel i filerna men det syns inte. Därmed inte sagt att jag rekommenderar att man ska köra utan ECC, bara att ZFS är säkrare än NTFS eller FAT alla dagar i veckan oavsett ECC-mine eller ej. Behovet av ECC med ZFS är något överdrivet anser jag.

Permalänk
Medlem

Becoming a ZFS Ninja: 1½ timme med information som kommer ändra ditt sätt att se på ZFS.
http://www.youtube.com/watch?v=3-KesLwobps
http://www.youtube.com/watch?v=jDLJJ2-ZTq8

Visa signatur

Cisco - Linux - VMWare
-- Citera mig om ni vill få återkoppling --

Permalänk
Medlem
Skrivet av ronnylov:

Jag skulle säga tvärtom. ZFS är bättre än NTFS eller FAT oavsett om man använder ECC RAM eller inte. Det blir väl inte osäkrare bara för att man får möjlighet att se om data blir korrupt? Med NTFS eller FAT och icke-ECC får man kanske samma fel i filerna men det syns inte. Därmed inte sagt att jag rekommenderar att man ska köra utan ECC, bara att ZFS är säkrare än NTFS eller FAT alla dagar i veckan oavsett ECC-mine eller ej. Behovet av ECC med ZFS är något överdrivet anser jag.

Så som jag fått det förklarat så kan det bli riktigt illa i ZFS, dock har jag inte mycket kunskaper, så det jag säger nu kan vara lite felformulerat
Om man får ett bitfel i ZFS så kommer filsystemet försöka reparera det, och om man kör med ecc är det lugnt, om man däremot kör utan ecc så kan det bli ytterligare bitfel vid reparationen, medans ZFS tror att felet är lagat. Om detta håller på alltför lämge så kan även fler filer bli korrupta än de som var det från början.

Men som sagt så är jag inte helt hundra på detta, så ta det med en stor skopa salt

Visa signatur

MODERMODEM: Asus ROG Strix Z270E Gaming | i7 7700K | Corsair Hydro H110 | Kingston HyperX Savage 32GB DDR4 RAM | Asus GeForce RTX 3060 Ti TUF OC | Crucial BX100 500GB SSD | Phanteks Enthoo EVOLV | SilverStone Strider Evolution 1200W |

Permalänk
Medlem

Kanske är det så men då sannolikheten för bitfel i RAM-minnet är ganska liten så föredrar jag att filsystemet repareras än att det får fortsätta vara korrupt bara för att man är rädd för ytterligare bitfel precis då det repareras. Men som sagt var använd gärna ECC för att minska risken för datakorruption oavsett om du kör ZFS eller något annat filsystem.

Kör man med regelbundna backuper och regelbundna snapshots så känns det som man ändå är ganska säker på att kunna återställa trasiga filer.

Permalänk
Medlem

Hypotetiskt: Om man kör ZFS på en icke-ECC rigg men aldrig kör scub kan väl inte ZFS vara sämre än t.ex. NTFS eller EXT4?

Permalänk
Medlem

Själv blir jag något undrande kring varför man överhuvudtaget har ett behov av att göra sin disk-setup "långt mer säker" än ett redundant system i valfri Linuxdist/Ext4. Framförallt när datorn inte ens står på 24/7. Förklara gärna.

Visa signatur

: MSI Z690 A-PRO, i7 12700K@snabb, EKWB 280mm, 32GB RAM, RTX2070S
: Asus Prime Z270, i7 7700K@5.0GHz, Corsair H115i, 16GB RAM, 1070Ti
: Asus Sabertooth Z77, i5 3570K@4,9, Corsair H70, 16GB RAM, 660 Ti x2
: Debian Linux@AMD X2 2,6GHz, 4GB RAM, Asus G210, 10TB WD Green(RAID1)
: Xp-m 2400@4100+, Duron 600@1GHz, K6-2 300@375MHz, P75MHz, sHg 8000, Acer 5930G (all R.I.P).

Permalänk
Medlem

Får du enstaka bitfel i en multimediafil (mp3, video) så kommer du inte märka det eftersom spelaren accepterar det. Får du bitfel i en binärfil tex. exe-fil, en OS-komponent, drivrutin etc. kan det sluta med en krasch eller t.o.m en BSOD.

2 saker om felrättning:

1. felet måste upptäckas, görs mha paritetscheck
2. felet måste rättas, görs genom omläsning från källan

Finns teoretiska beräknar hur ofta spontana bitfel kan uppträda. Min uppfattning är att det är så sällan att jag kan leva med det. Dock inget banken kan acceptera, hoppas jag.

Permalänk
Medlem
Skrivet av Xorcist:

Själv blir jag något undrande kring varför man överhuvudtaget har ett behov av att göra sin disk-setup "långt mer säker" än ett redundant system i valfri Linuxdist/Ext4. Framförallt när datorn inte ens står på 24/7. Förklara gärna.

Skrivet av jookeer:

Får du enstaka bitfel i en multimediafil (mp3, video) så kommer du inte märka det eftersom spelaren accepterar det. Får du bitfel i en binärfil tex. exe-fil, en OS-komponent, drivrutin etc. kan det sluta med en krasch eller t.o.m en BSOD.

2 saker om felrättning:

1. felet måste upptäckas, görs mha paritetscheck
2. felet måste rättas, görs genom omläsning från källan

Finns teoretiska beräknar hur ofta spontana bitfel kan uppträda. Min uppfattning är att det är så sällan att jag kan leva med det. Dock inget banken kan acceptera, hoppas jag.

I ett raid blir man ju mycket mer sårbar för inkonsekvent hårdvara, får man i snitt ett fel per 1e14 bits (ett fel per 12,5 TB) så blir det med sex diskar ett fel per 2TB läst data i snitt. Så det är inte så underligt som det låter att man önskar att i alla fall veta vilka filer som drabbas av problemen även om man inte har redundans nog att rädda dem. Så resonerar i all fall jag.

Permalänk
Medlem

Jag tycker även att ZFS är bra på att detektera intermittenta problem med lagringen. Som exempel har jag haft glappande SATA-kontakt som visat sig ibland. Eller då jag hade gamla hårddiskar som gick något varma och då gav tillfälliga rapporterade fel från ZFS som sedan försvann när jag bättrade på kylningen. Då syns det som att det förekommit fel men att ZFS reparerat felen och datan är intakt (om man har tur så att data kan återskapas från redundanta diskar). Det kanske funkar bra även med andra system men jag är nöjd med hur ZFS sköter om detta. Kanske kan något fel berott på att jag inte haft ECC men i det stora hela känns det som att ZFS ändå räddat mer data än det har förstört.

Permalänk
Medlem

1. Intressant vore om någon vill beskriva hanteringen om/när en Raidz disk totalhavererar, vilket lär hända förr eller senare. Att ratta ett datalager när allt funkar e ju en sak men VET du vad du gör när kraschen kommer.

Finns exempel på kraschscenarier där man inte lyckats återställa korrekt, mitt förslag är att man övar på detta INNAN man fyller diskarna med data så man VET EXAKT hur man gör i ett skarpt läge.

2. FreeNAS med zfs - om du har säg 2 st uppsättningar med raidz-diskar som du kör en i taget, den andra ligger på hyllan. Anledningen kan vara att du inte har plats för allt samtidigt. VAR sparar FreeNAS konfiginfo om dessa, jag menar när du byter arrayen från den ena till den andra så måste ju FreeNAS begripa detta.

3. En annan fundering gäller FreeNAS UTAN zfs. Har en del gammelburkar med <4 GB RAM som står och dammar (vem har inte det?). För dessa är ju zfs uteslutet då zfs kräver 8 GB+. Återstår då UFS men såvitt jag förstått försvinner en hel del av FreeNAS funktionaliteten om du inte kör zfs. Då RAID0 och RAID1 är relativt simpla tekniker undrar jag om UFS-volymer klarar detta?

Permalänk
Medlem
Skrivet av jookeer:

1. Intressant vore om någon vill beskriva hanteringen om/när en Raidz disk totalhavererar, vilket lär hända förr eller senare. Att ratta ett datalager när allt funkar e ju en sak men VET du vad du gör när kraschen kommer.

Finns exempel på kraschscenarier där man inte lyckats återställa korrekt, mitt förslag är att man övar på detta INNAN man fyller diskarna med data så man VET EXAKT hur man gör i ett skarpt läge.

2. FreeNAS med zfs - om du har säg 2 st uppsättningar med raidz-diskar som du kör en i taget, den andra ligger på hyllan. Anledningen kan vara att du inte har plats för allt samtidigt. VAR sparar FreeNAS konfiginfo om dessa, jag menar när du byter arrayen från den ena till den andra så måste ju FreeNAS begripa detta.

3. En annan fundering gäller FreeNAS UTAN zfs. Har en del gammelburkar med <4 GB RAM som står och dammar (vem har inte det?). För dessa är ju zfs uteslutet då zfs kräver 8 GB+. Återstår då UFS men såvitt jag förstått försvinner en hel del av FreeNAS funktionaliteten om du inte kör zfs. Då RAID0 och RAID1 är relativt simpla tekniker undrar jag om UFS-volymer klarar detta?

1) Byter ut disken och gör zpool replace polnamn gammaldisk nydisk. Testade detta senast igår när jag avsiktligt kopplade ur en disk för att sätta i en ny. Menar du om hela arrayen totalhavererar så att redundansen inte räcker till att reparera data så blir det förstås att bygga den på nytt och återställa filer från backup. Håller med om att man bör öva sig på detta så man vet innan hur man ska göra.

2) Detta sparas på diskarna självt. zpool export polnamn och lägg dem sedan på hyllan. När man kopplat in dem igen kör man zpool import. Spelar ingen roll vilken ording man kopplar in dem eller vilket kontrollerkort man kopplar dem till, den hittar infom på själva diskarna (de har väl någon id-kod lagrat på sig). Detta testade jag också senast igår (även om jag inte lade diskarna på hyllan, valde att exportera arrayen innan jag började joxa med diskarna).

3) ZFS funkar med 4GB RAM och även mindre så det kräver inte 8GB+. Det rekommenderas 8GB+ men jag har själv kört filservern med 4GB RAM, hade då i och för sig bara 5 stycken 1TB-diskar men det gick bra. Körde inte FreeNAs utan FreeBSD och Opensolaris. På freeBSD fick man tweaka inställningarna lite för att det skulle lira stabilt och snabbt med 4GB RAM men det är fullt möjligt. Jag har inte testat UFS-volymer så det får någon annan svara på hur det är i praktiken men har för mig det finns stöd för mjukvaruraid även med UFS. Jag hade nog personligen hellre kört Linux med mdadm, LVM och ext4 än FreeNAS med UFS på maskiner med mindre än 4GB RAM men det beror väl på vad man är van med och gillar bäst. Har filosofin att har man backup på de viktiga filerna så spelar det mindre roll om något pajar, det går alltid att återställa igen.

Permalänk
Avstängd
Skrivet av jookeer:

1. Intressant vore om någon vill beskriva hanteringen om/när en Raidz disk totalhavererar, vilket lär hända förr eller senare. Att ratta ett datalager när allt funkar e ju en sak men VET du vad du gör när kraschen kommer.

Finns exempel på kraschscenarier där man inte lyckats återställa korrekt, mitt förslag är att man övar på detta INNAN man fyller diskarna med data så man VET EXAKT hur man gör i ett skarpt läge.

2. FreeNAS med zfs - om du har säg 2 st uppsättningar med raidz-diskar som du kör en i taget, den andra ligger på hyllan. Anledningen kan vara att du inte har plats för allt samtidigt. VAR sparar FreeNAS konfiginfo om dessa, jag menar när du byter arrayen från den ena till den andra så måste ju FreeNAS begripa detta.

3. En annan fundering gäller FreeNAS UTAN zfs. Har en del gammelburkar med <4 GB RAM som står och dammar (vem har inte det?). För dessa är ju zfs uteslutet då zfs kräver 8 GB+. Återstår då UFS men såvitt jag förstått försvinner en hel del av FreeNAS funktionaliteten om du inte kör zfs. Då RAID0 och RAID1 är relativt simpla tekniker undrar jag om UFS-volymer klarar detta?

Jag får mail omgående om fel uppstår och en loggfil sänds varje natt kl03. Det är en inställning jag verkligen kan rekommendera! Har bytt diskar ett antal gånger, både i Raidz1 och Raidz2. Men det är i privat hemmamiljö och ska jag vara ärlig så hade jag inte velat ta i ZFS i produktionsmiljö för att dokumenteringen är på tok för dålig. Det är egentligen inget svårt att ersätta en disk, fungerar i praktike på samma sätt som under Windows, men just avsaknaden av dokumentering gör det något osäkert.

Permalänk
Medlem

4. Hur mycket CPU-kraft drar zfs? Duger en singleCPU på 2 GHz eller ska man dra till med en Quad på 4*3 GHz? Att skyffla data borde en P3:a klara men allt i FreeNAS krypteras väl å de kan ju dra en del kräm?

Permalänk
Medlem

Svårt att få grepp om vad som är rätt och fel detta med ecc. Vad är den potentiella förlusten? En helt korrupt array?

http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ra...

Visa signatur

En server här, några servrar där.

Permalänk
Medlem
Skrivet av moron:

Svårt att få grepp om vad som är rätt och fel detta med ecc. Vad är den potentiella förlusten? En helt korrupt array?

http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ra...

Beror på VAR bitfelet inträffar. Förstörs arrayens metadata kan den bli korrupt, möjligen är metadatat redundant och kan repareras?

Som framgår av artikeln finns INGA dataräddningsprogg till zfs - vilket är illa, mycket illa.
Hur många har inte räddat data med 3:e partsprogg på sina NTFS/FAT partitioner. Det kan man tydligen glömma om man får motsvarande problem med zfs.

Misstänker du RAM-problem oavsett ecc eller ej -> kör Memtest86+ i några timmar då å då.

Glöm inte att redundans är inte isf backup, så har du det kan du somna om.

5. Fråga till er med erfarenhet av zfs. Hur ofta rapporterar zfs ecc-fel? Fråga till alla utan eccRAM - hur ofta har ni fått en korrupt array pga ecc-fel?

Permalänk
Avstängd

4. Cpu Amd 940 X4 3,0 ghz använder ca 20 procent av sin kapacitet enligt loggen....

5. Har inte ecc ram på den, har rapporterat fel på grund av trasiga eller klapp i sata kablar, dessa fel har dock kunnat korrigerats tack vare z2

Permalänk
Medlem

Nja jag körde FreeNAS med 1GB RAM på min gamla single core AMD (3700+), 1st raidZ1-volym, det lekte på bra. Läste inte mer än 35-40GB/s och lastade CPU till 50% men det räckte för mina filserverbehov.

Då en av portarna på moderkortet var suspekt så fick jag också nöjet att bygga om raiden ett par ggr, då jag trodde det var disken första gången.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|