Köptips: Välkyld, men tyst server med hög prestanda. Går det att få ihop?

Permalänk
Medlem

Tipsar om ownCloud om du ska köra nån fillagring. Läs mer om ownCloud i tråden som jag citerat nedan.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av Apro:

Den verkar intressant, dock väldigt stor. Får den plats i en liten datorlåda?

Så länge den är bred nog, ja(det är dock inte precis vanligt med små, breda chassin). Du kan kolla på https://pcpartpicker.com/
om det är problem med storlek.

Visa signatur

Moderkort: Gigabyte GA Z97-UD5H Black Edition, CPU: Intel i7 4790K, Kylare: Noctua U14S, RAM: 32GB Crucial Ballistix Sport XT 1866, GPU: Powercolor Radeon HD 7870 PCS+,
SSD: 256GB Crucial MX-100, HDD: 3TB WD Red, 2TB WD Red, PSU: Be Quiet Straight Power E-9 500W, Chassi: Cooler Master Silencio 652S

Permalänk

Rekommenderar även Arctic Coolings fläktar F12 och F14. Tysta som fan, högt flöde och väldigt billiga.

cpu-kylare, coolermasters 212 är ju väldigt billig och hörs knappt. Har en själv och den hörs inte alls.

Skickades från m.sweclockers.com

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Skrivet av Apro:

Vad skulle du ha kört för mjukvaruraidlösning?

Om jag hade lite utrymme (>20GB) på en SSD och tre stora mekaniska hårddiskar tilldelade till den VM som ska agera NAS så hade jag nog gjort så här:
Installerat en linuxdistribution med kernelversion 3.9 eller nyare och webadministrationsverktyget Webmin, som klarar nästan allt.
OS-installationen hade hållits ganska minimal (ca 4 GB filsystem och 4 GB swap) och överblivet SSD-utrymme hade avsatts till SSD-cache.
Därefter hade jag konfigurerat lagringen så här:

  • mdraid i botten för att få tolerans mot fel på hårddiskarna. Det går att bygga volymgrupper med raid i LVM också, men LVM har sämre verktyg för omkonfiguration och diagnostik av raidset. De tre mekaniska diskarna hade byggts ihop till en raidfemma.

  • LVM ovanpå det för att kunna fördela om tillgängligt utrymme utan driftavbrott och utan att behöva ta hänsyn till underliggande raidset och hårddiskar. Det här lagret är troligtvis overkill om du inte tänkt konfigurera om lagringen ofta.

  • LVM hade även använts för att konfigurera SSD-cache. Om behovet av LVM för omfördelning inte funnits hade bcache varit ett alternativ för att åstadkomma SSD-cache.

  • Filsystemstyp hade valts efter hur bra de hanterar storleksförändringar. ext3 eller ext4.

  • Samba hade använts för att dela ut diverse privata och gemensamma kataloger.

Alla ovanstående steg utom SSD-cache går att fixa i Webmin.

Permalänk
Medlem
Skrivet av Hieronymus Bosch:

Om jag hade lite utrymme (>20GB) på en SSD och tre stora mekaniska hårddiskar tilldelade till den VM som ska agera NAS så hade jag nog gjort så här:
Installerat en linuxdistribution med kernelversion 3.9 eller nyare och webadministrationsverktyget Webmin, som klarar nästan allt.
OS-installationen hade hållits ganska minimal (ca 4 GB filsystem och 4 GB swap) och överblivet SSD-utrymme hade avsatts till SSD-cache.
Därefter hade jag konfigurerat lagringen så här:

  • mdraid i botten för att få tolerans mot fel på hårddiskarna. Det går att bygga volymgrupper med raid i LVM också, men LVM har sämre verktyg för omkonfiguration och diagnostik av raidset. De tre mekaniska diskarna hade byggts ihop till en raidfemma.

  • LVM ovanpå det för att kunna fördela om tillgängligt utrymme utan driftavbrott och utan att behöva ta hänsyn till underliggande raidset och hårddiskar. Det här lagret är troligtvis overkill om du inte tänkt konfigurera om lagringen ofta.

  • LVM hade även använts för att konfigurera SSD-cache. Om behovet av LVM för omfördelning inte funnits hade bcache varit ett alternativ för att åstadkomma SSD-cache.

  • Filsystemstyp hade valts efter hur bra de hanterar storleksförändringar. ext3 eller ext4.

  • Samba hade använts för att dela ut diverse privata och gemensamma kataloger.

Alla ovanstående steg utom SSD-cache går att fixa i Webmin.

Låter ju som en väldigt trevlig lösning, får kika närmare på de olika komponenterna.

Kan jag partitionera den SSD som jag tänkte lägga alla VMs på och använda den andra partitionen som cache, eller måste jag ha en separat SSD för detta?

Skickades från m.sweclockers.com

Permalänk
Skrivet av Apro:

Låter ju som en väldigt trevlig lösning,

Citat:

Kan jag partitionera den SSD som jag tänkte lägga alla VMs på och använda den andra partitionen som cache, eller måste jag ha en separat SSD för detta?

Du klarar dig nog med den 256GB-SSDn du nämnde tidigare. Om jag fattat det rätt ville du köra fler VMar från samma SSD, så du vill ändå skapa flera virtuella diskar på den. (Ja, det kan ge en prestandaminskning jämfört med att tilldela hela disken till en specifik VM (Raw Device Mapping ellervareheter), men olika försök att ta reda på hur illa det blir har fått lite varierande resultat.) Då är det nog enklast att göra all uppstyckning i virtualiseringslagret i stället för att dela ut en virtuell disk som bor på SSDn till NAS-VMen för att därefter skapa partitioner/logiska volymer/whatever inne i NAS-VMen.

Men sedan då, när du vuxit ur den första SSDn och vill lägga till mer snabb lagring? Då vet jag inte riktigt, men jag antar att vmWare har något verktyg för att migrera och expandera virtuella maskiner. Det Fixar Sig NogTM.

Permalänk
Medlem

Mina 2 cents: http://www.inet.se/kundvagn/visa/8111815/backupmaskin Går även att använda som server.

Upp till 8 diskar!

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av enoch85:

Mina 2 cents: http://www.inet.se/kundvagn/visa/8111815/backupmaskin Går även att använda som server.

Upp till 8 diskar!

Skulle inte direkt dela in det där paketet i "hög prestanda"-sortimentet. Men visst, det går väl att köra en server på vilken burk som helst

Skrivet av Hieronymus Bosch:

Du klarar dig nog med den 256GB-SSDn du nämnde tidigare. Om jag fattat det rätt ville du köra fler VMar från samma SSD, så du vill ändå skapa flera virtuella diskar på den. (Ja, det kan ge en prestandaminskning jämfört med att tilldela hela disken till en specifik VM (Raw Device Mapping ellervareheter), men olika försök att ta reda på hur illa det blir har fått lite varierande resultat.) Då är det nog enklast att göra all uppstyckning i virtualiseringslagret i stället för att dela ut en virtuell disk som bor på SSDn till NAS-VMen för att därefter skapa partitioner/logiska volymer/whatever inne i NAS-VMen.

Men sedan då, när du vuxit ur den första SSDn och vill lägga till mer snabb lagring? Då vet jag inte riktigt, men jag antar att vmWare har något verktyg för att migrera och expandera virtuella maskiner. Det Fixar Sig NogTM.

Du kan expandera en vmdk(virtuell hårddisk) "hur du vill" i princip, sen är det upp till operativet hur det klarar av att använda utrymmet (det funkar men är lite pilligt på både Win och Unix).
Om nu TS verkar väga in mer och mer på någon typ av mjukvaruraid i Linux (eller?) så tycker jag att Snapraid kan vara nåt att se på. Om den bara ska dela ut typ media så klarar du dig på prestandan, samt dataförluster bygger på "vilken" disk som dör (efter att pariteterna dött...såklart) inte "att" en till disk dör.

TS: Om du ska köra ESXI, köp ett raidkort som det kan använda, för att kunna köra en "SSD-pool" (ex. raid1 / Mirror). Så du inte bara kör raid på din "mekaniska-pool"

En till sak då från mig; För serverhårdvara, köp beggat eller från utlandet (men endast om priset är "tillräckligt bra" för att bortse från jobbiga garantiärenden. För Supermicro kan du kolla Jacobs(?) i Tyskland).

Visa signatur

En server här, några servrar där.

Permalänk
Medlem
Skrivet av Hieronymus Bosch:

Du klarar dig nog med den 256GB-SSDn du nämnde tidigare. Om jag fattat det rätt ville du köra fler VMar från samma SSD, så du vill ändå skapa flera virtuella diskar på den. (Ja, det kan ge en prestandaminskning jämfört med att tilldela hela disken till en specifik VM (Raw Device Mapping ellervareheter), men olika försök att ta reda på hur illa det blir har fått lite varierande resultat.) Då är det nog enklast att göra all uppstyckning i virtualiseringslagret i stället för att dela ut en virtuell disk som bor på SSDn till NAS-VMen för att därefter skapa partitioner/logiska volymer/whatever inne i NAS-VMen.

Men sedan då, när du vuxit ur den första SSDn och vill lägga till mer snabb lagring? Då vet jag inte riktigt, men jag antar att vmWare har något verktyg för att migrera och expandera virtuella maskiner. Det Fixar Sig NogTM.

Låter som den smidigaste lösningen för mig. Jag gillar enkelheten, och är inte orolig över storleken på SSD:n i dagsläget iaf. Som du säger, det ordnar sig nog.

Skrivet av moron:

Du kan expandera en vmdk(virtuell hårddisk) "hur du vill" i princip, sen är det upp till operativet hur det klarar av att använda utrymmet (det funkar men är lite pilligt på både Win och Unix).
Om nu TS verkar väga in mer och mer på någon typ av mjukvaruraid i Linux (eller?) så tycker jag att Snapraid kan vara nåt att se på. Om den bara ska dela ut typ media så klarar du dig på prestandan, samt dataförluster bygger på "vilken" disk som dör (efter att pariteterna dött...såklart) inte "att" en till disk dör.

Skulle snapraid då ersätta mdraid som HB föreslog? Vad är i så fall skillnaderna mellan dem?

Skrivet av moron:

TS: Om du ska köra ESXI, köp ett raidkort som det kan använda, för att kunna köra en "SSD-pool" (ex. raid1 / Mirror). Så du inte bara kör raid på din "mekaniska-pool"

Jag är inte särskilt rädd om configen på mina VMs, så den datan gör inte så mycket om den går förlorad. Viktig data kommer jag backa till en extern disk. Men hur kommer datan på mina hårddiskar se ut om SSD:n dör? Kan jag plugga in en ny SSD, installera samma setup som förra gången och fortfarande komma åt datan på diskarna, eller förstörs den med hostoperativet när man kör mjukvaruraid?

Skrivet av moron:

En till sak då från mig; För serverhårdvara, köp beggat eller från utlandet (men endast om priset är "tillräckligt bra" för att bortse från jobbiga garantiärenden. För Supermicro kan du kolla Jacobs(?) i Tyskland).

Tack för tipset!

Permalänk
Skrivet av Apro:

Skulle snapraid då ersätta mdraid som HB föreslog? Vad är i så fall skillnaderna mellan dem?

Snapraids syfte är ungefär samma som mdraid: bygga ihop flera separata hårddiskar till en enhet som är robust nog att inte förlora data när enskilda hårddiskar fallerar. Däremot använder snapraid helt andra mekanismer för att uppnå detta.
mdraid utgår från fysiska hårddiskar eller partitioner och bygger raidset av dessa. På dessa raidset kan logiska volymer eller filsystem placeras.
Snapraid utgår från ett antal filsystem (lämpligen 1 per fysisk disk) och flyttar runt filer och paritetsinformation mellan dessa filsystem.

Skrivet av Apro:

Men hur kommer datan på mina hårddiskar se ut om SSD:n dör? Kan jag plugga in en ny SSD, installera samma setup som förra gången och fortfarande komma åt datan på diskarna, eller förstörs den med hostoperativet när man kör mjukvaruraid?

Om SSDn dör (och NAS-VMens operativsystem ligger på den) kommer två saker att hända som påverkar NAS-VMen:

  1. LVMs funktion för SSD-cache är defaultkonfigurerad i writethrough-läge: Skrivningar till det cachade filsystemet skrivs omedelbart till bakomliggande mekaniska diskar, så normalt går inget NAS-lagrat data förlorat. Det går dock att öka prestandan för skrivningar ytterligare genom att konfigurera cachen i writeback-läge. I detta läge blir konsekvenserna större: skrivningar liggande på SSDn tills något annat behöver cacheutrymmet bättre, därefter skrivs data till mekanisk disk. I writebackläge kommer filer som sparats på NASen och hamnat i SSD-cachen men ännu inte skrivits till mekanisk disk kommer att gå förlorade. Det är möjligt eller troligt att filsystemet som använder sig av SSD-cache blir inkonsistent. Med ett journalförande filsystem (ext3, ext4, NTFS, alla andra vettiga filsystem) är dock risken för ytterligare dataförluster minimal. Det går att konfigurera hur mycket data som ska vara exponerat för fel på SSDn (t ex genom att berätta för LVM att max 2 MB får vara sparat på SSDn men inte på mekanisk disk), men dessa features verkar illa och ofullständigt dokumenterade.

  2. NASen kommer att bli instabil på något sätt. Om SSDn är helt omöjlig att läsa och skriva kommer tjänsterna att sluta fungera ganska snabbt, troligtvis kommer även operativsystemet att klappa ihop fullständigt.

Efter att den fallerade SSDn ersatts, NAS-VM skapats och OS + Webmin installerats borde nästan allt vara självläkande: mdraid kommer att proba alla partitioner efter raidmetadata. LVM kommer att göra samma sak, men förväntar sig nog fortfarande att det ska finnas en cache-enhet, så den måste tas bort innan en ny cache kan läggas till. Hur man tar bort och lägger till cachning till logiska volymer beskrivs översiktligt på lvmcaches man-sida.
Den enda konfiguration som kommer att gå förlorad är ovanliggande tjänster som Samba, NFS, FTP och liknande. Som tur är så har Webmin en funktion för att backa upp Webmins konfigurationsfiler.

Permalänk
Medlem
Skrivet av moron:

Skulle inte direkt dela in det där paketet i "hög prestanda"-sortimentet. Men visst, det går väl att köra en server på vilken burk som helst

Sant, men nu var väl tanken att du skulle köra Linux? Det tar inte så mycket kraft.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av Hieronymus Bosch:

Snapraids syfte är ungefär samma som mdraid: bygga ihop flera separata hårddiskar till en enhet som är robust nog att inte förlora data när enskilda hårddiskar fallerar. Däremot använder snapraid helt andra mekanismer för att uppnå detta.
mdraid utgår från fysiska hårddiskar eller partitioner och bygger raidset av dessa. På dessa raidset kan logiska volymer eller filsystem placeras.
Snapraid utgår från ett antal filsystem (lämpligen 1 per fysisk disk) och flyttar runt filer och paritetsinformation mellan dessa filsystem.

Det låter ju i så fall för mig som att mdraid är en något enklare lösning om jag ändå her 3 helt rena diskar att börja med. Eller spelar det ingen större roll?

Skrivet av Hieronymus Bosch:

Om SSDn dör (och NAS-VMens operativsystem ligger på den) kommer två saker att hända som påverkar NAS-VMen:

  1. LVMs funktion för SSD-cache är defaultkonfigurerad i writethrough-läge: Skrivningar till det cachade filsystemet skrivs omedelbart till bakomliggande mekaniska diskar, så normalt går inget NAS-lagrat data förlorat. Det går dock att öka prestandan för skrivningar ytterligare genom att konfigurera cachen i writeback-läge. I detta läge blir konsekvenserna större: skrivningar liggande på SSDn tills något annat behöver cacheutrymmet bättre, därefter skrivs data till mekanisk disk. I writebackläge kommer filer som sparats på NASen och hamnat i SSD-cachen men ännu inte skrivits till mekanisk disk kommer att gå förlorade. Det är möjligt eller troligt att filsystemet som använder sig av SSD-cache blir inkonsistent. Med ett journalförande filsystem (ext3, ext4, NTFS, alla andra vettiga filsystem) är dock risken för ytterligare dataförluster minimal. Det går att konfigurera hur mycket data som ska vara exponerat för fel på SSDn (t ex genom att berätta för LVM att max 2 MB får vara sparat på SSDn men inte på mekanisk disk), men dessa features verkar illa och ofullständigt dokumenterade.

  2. NASen kommer att bli instabil på något sätt. Om SSDn är helt omöjlig att läsa och skriva kommer tjänsterna att sluta fungera ganska snabbt, troligtvis kommer även operativsystemet att klappa ihop fullständigt.

Efter att den fallerade SSDn ersatts, NAS-VM skapats och OS + Webmin installerats borde nästan allt vara självläkande: mdraid kommer att proba alla partitioner efter raidmetadata. LVM kommer att göra samma sak, men förväntar sig nog fortfarande att det ska finnas en cache-enhet, så den måste tas bort innan en ny cache kan läggas till. Hur man tar bort och lägger till cachning till logiska volymer beskrivs översiktligt på lvmcaches man-sida.
Den enda konfiguration som kommer att gå förlorad är ovanliggande tjänster som Samba, NFS, FTP och liknande. Som tur är så har Webmin en funktion för att backa upp Webmins konfigurationsfiler.

Tack för enormt bra info! Kommer verkligen vara till hälp när jag ska sätta upp allt.

Slänger in två frågor till.

  • Vad bör man köra för underliggande OS till NASen? Har hört att Debian är en sjukt stabil distro.

  • Jag hade tänkt köra Plex för streaming från NASen. Bör jag köra den i en egen VM för att öka separationen, eller i samma VM som NASen för att få direktåtkomst till lagringen? Känns som att man kan minska latency lite genom att göra så.

Permalänk
Medlem
Skrivet av enoch85:

Sant, men nu var väl tanken att du skulle köra Linux? Det tar inte så mycket kraft.

Hmm, är inte det lite som att säga att det inte drar bensin att "åka bil"?

Skrivet av Apro:

Det låter ju i så fall för mig som att mdraid är en något enklare lösning om jag ändå her 3 helt rena diskar att börja med. Eller spelar det ingen större roll?

Tack för enormt bra info! Kommer verkligen vara till hälp när jag ska sätta upp allt.

Slänger in två frågor till.

  • Vad bör man köra för underliggande OS till NASen? Har hört att Debian är en sjukt stabil distro.

  • Jag hade tänkt köra Plex för streaming från NASen. Bör jag köra den i en egen VM för att öka separationen, eller i samma VM som NASen för att få direktåtkomst till lagringen? Känns som att man kan minska latency lite genom att göra så.

Jag målar lite fan på väggen nu, och detta gränsar till "hur många 9'or tillgänglighet vi snackar om" - men något att tänka på är att SSD cache innebär fler skrivningar till din SSD, en hel del fler. Detta kan bli ett "problem" om du använder dig av MLC/TLC SSD's, dvs de flesta konsumentdiskar som har begränsad livslängd.

Problematiken som uppstår när/om en SSD dör, eller strömavbrott (då kan du t.ex. få korrupta filsystem) är ännu en anledning att at du bör köra speglade SSD's + batteri/kondensator backup, som på ett bra raidkort

Plex lirar gott av att läsa från en NFS-share, ingen oro för latens. Jag skulle lagt dom på olika VM's.

Visa signatur

En server här, några servrar där.

Permalänk
Medlem
Skrivet av moron:

Hmm, är inte det lite som att säga att det inte drar bensin att "åka bil"?

Om vi nu ska använda den metaforen så finns det ju bensinsnåla bilar.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av enoch85:

Om vi nu ska använda den metaforen så finns det ju bensinsnåla bilar.

Men det blir inte "samma" metafor Det var det jag menade, det är lite för generellt att säga "Linux tar ingen kraft".

Anyhow - TS' tråd, ska inte störa

Visa signatur

En server här, några servrar där.

Permalänk
Skrivet av Apro:

Det låter ju i så fall för mig som att mdraid är en något enklare lösning om jag ändå her 3 helt rena diskar att börja med. Eller spelar det ingen större roll?

Jae, alltså...bägge lösningarna gör nog sitt huvudsakliga jobb lika bra och det dataskydd som mdraid erbjuder är säkert gott nog, om det används tillsammans med någon form av backup, övervakning och reservdelsförsörjning.
Andra utvärderingskriterier som kan vara intressanta att kolla på är hur bra verktyg respektive lösning innehåller och (om du väljer att använda Webmin) vilket stöd för konfiguration och övervakning som finns i Webmin. En modul för konfiguration av mdraid ingår i Webmin. Den låter dig konfigurera övervakning av arrayens hälsotillstånd och även sätta upp automatiska mail om något händer med arrayen. Snapraid verkar inte ha stöd för konfiguration av arrayer via Webmin alls -- administration görs antingen genom en fet grafisk klient eller från kommandoraden.

Citat:

Vad bör man köra för underliggande OS till NASen? Har hört att Debian är en sjukt stabil distro.

Så är det. Tekniska skillnader mellan de mest populära distributionerna är inte så stora för den här tillämpningen -- de flesta använder samma verktyg för att konfigurera det du vill uppnå, så ingen distribution har något uppenbart försprång. Välj den distribution och det sätt att arbeta med den som du känner dig bekvämast med.

Citat:

Jag hade tänkt köra Plex för streaming från NASen. Bör jag köra den i en egen VM för att öka separationen, eller i samma VM som NASen för att få direktåtkomst till lagringen? Känns som att man kan minska latency lite genom att göra så.

Precis som moron så tror jag inte att du kommer att uppleva så stor skillnad på en Plex-installation som läser från lokal disk och en Plex-installation som läser från en share någonstans. enoch85s påpekande att en extra linuxinstans inte kostar så mycket i hårdvaruresuser stämmer också, så jag hade nog testat att lägga Plex på en egen VM. Det finns dock några andra saker än ren prestanda som kan sätta käppar i hjulet. Hur gör t ex Plex-servern om den bootar och inte kan komma åt lagringen? Kommer någon automatisk indexering att göras, varvid mediadatabasen i Plex rensas? Hur garanteras att Plex-VMen inte startas förrän NAS-VMen bootat och verkligen startat filservertjänsten? (Det finns sådana funktioner för enterprajsigare varianter av vmWares produkter, men jag vet inte om sån't ingår i gratisversionen.)

Permalänk
Medlem
Skrivet av Hieronymus Bosch:

Jae, alltså...bägge lösningarna gör nog sitt huvudsakliga jobb lika bra och det dataskydd som mdraid erbjuder är säkert gott nog, om det används tillsammans med någon form av backup, övervakning och reservdelsförsörjning.
Andra utvärderingskriterier som kan vara intressanta att kolla på är hur bra verktyg respektive lösning innehåller och (om du väljer att använda Webmin) vilket stöd för konfiguration och övervakning som finns i Webmin. En modul för konfiguration av mdraid ingår i Webmin. Den låter dig konfigurera övervakning av arrayens hälsotillstånd och även sätta upp automatiska mail om något händer med arrayen. Snapraid verkar inte ha stöd för konfiguration av arrayer via Webmin alls -- administration görs antingen genom en fet grafisk klient eller från kommandoraden.

Jag har försökt läsa på lite om mdraid, och det verkar som att det på de flesta ställen referas till som Linux Raid och att administrationsverktyget heter mdadm. Stämmer det, eller är det något annat? Du sa tidigare att du inte skulle rekommendera endast raid 5, men Linux Raid verkar stödja flera olika raidtyper. Tycker du då att Raid10 är det man bör konfigurera?

Permalänk

Problem löst.
http://www.sweclockers.com/forum/trad/1375902-nyhet-perfekt-s...

EDIT: Jag har nu läst igenom tråden och det finns en del felaktigheter här om ZFS. Så här är det.

ZFS är ett mjukvaruraid. Och ZFS ska undvikas att köras med hårdvaruraid, eftersom hårdvaruraid tror sig kunna skydda datat på diskarna, men ZFS är bättre på att skydda data och ZFS blir störd av hårdvaruraidets undermåliga skydd. Därför ska hårdvaruraid undvikas med ZFS. Ska du köra ZFS så bör du ha ett HBA, tex ett raidkort som flashas om till IT-mode att ta bort all raid funktionalitet. Det billigaste HBA kortet torde vara IBM M1015 på ebay. Till den kan du koppla 8 diskar (inte 6 diskar).

ZFS har inga volymer, den har partitioner, egentligen heter de filsystem. Och varje filsystem är som ett directory, dvs den krymper och växer allt efter behov. Du behöver inte partitionera om eller nåt sånt.

ECC rekommenderas till ZFS eftersom ZFS har så bra dataskydd, så då är det lika bra att även skydda RAM mot strömspikar, etc.

ZFS är den enda lösningen på marknaden ute idag, som erbjuder bevisad dataintegritet. Dataintegritet betyder att ZFS skyddar mot bitröta, dvs strömspikar, solstormar, buggar i firmware, etc etc etc. Om du kommer ihåg gamla VHS kassetter eller gamla Amiga/PC disketter, så efter några år kan man inte läsa dem längre, pga datat ruttnar bort över tiden. Detsamma sker hela tiden på hårddiskar, långsamt. Men ZFS är den enda lösningen som skyddar mot sånt, ZFS kollar hela tiden varje block som läses med checksummor, ifall en bit har råkat flippats av misstag/ström/bitröta/etc och korrigerar isåfall datat automatiskt och informerar dig. Inga andra lösningar kan erbjuda dataintegritet på samma sätt som ZFS, eftersom flera olika dataforskare har undersökt hur bra ZFS skyddar mot data och ZFS erbjuder 100% skydd. Andra lösningar som "påstår" sig skydda data, har inte forskats om. Det är ingen som vet hur bra de skyddar data, det kanske bara är snack? Hårdvaruraid gör inte detta, de gör parity beräkningar men det är inte checksummor för dataintegritet.

Ext3, NTFS, etc alla vanliga filsystemen erbjuder ingen dataintegritet alls. Möjligen kanske BTRFS gör det, men det är fortfarande i betastadium och det finns ingen forskning på BTRFS. Här finns mer information om dataintegritet:
https://en.wikipedia.org/wiki/ZFS#Data_integrity

Enda anledningen att köra ZFS, är pga dataintegritet. Det är därför alla kör det, pga de är rädda om sina data och vill inte att efter ett halvår så kan de inte längre öppna sina rar filer pga data börjat flippa randomly.

ZFS är potentiellt ofantligt mycket snabbare än hårdvaruraid. Hårdvaruraid är egentligen en liten dator, typiskt med 512MB RAM och 800 MHz ARM cpu som gör parity beräkningar (men inga checksummor för dataintegritet). Så om du använder hårdvaruraid kommer raidet styras av en klen 800MHz cpu. Men ZFS styrs av din quad core 3GHz cpu med 16 GB RAM. Och gissa vilket som är snabbast? 800 MHz cpu eller en quad core 3GHz? Vilken cachar mest? 512MB disk cache eller 16GB RAM? Vilken tror du är snabbast? Din dator eller en 800MHz cpu?

ZFS behöver inte så mycket RAM, det räcker med 2GB RAM eller så. Om du kör deduplicering så behöver du 16GB RAM, en GB RAM för varje TB disk. Men kör du utan deduplicering så räcker 2-4GB RAM. Skälet att ZFS rekommenderas mycket RAM är för att ZFS har en mycket bra disk cache och med mycket RAM får du bra prestanda. Utan mycket RAM får du vanlig disk prestanda utan diskcache, men det räcker oftast.

Här är en lång tråd hur du sätter upp en ESXi server med OpenSolaris ZFS. Jag vet inte hur bra FreeNAS är, men om du är seriös rekommenderas FreeBSD eller Linux eller helst OpenSolaris. Ingen seriös firma kör FreeNAS tror jag. Det är väl en hobby grej?
http://hardforum.com/showthread.php?t=1573272

Det går inte att minska antalet diskar i ZFS. Men du kan lägga till flera diskar. Läs på wikipedia länken, där står ganska utförligt.

Med mdraid, LVM och andra linux lösningar får du ingen dataintegritet, dvs datat kan ruttna sakta bort utan att du märker det. Läs wikipedia länken. Om du ska köra Linux så rekommenderas ZFS on Linux.

Windows Storage Spaces med ReFS har massa problem. T.ex. får du typ 20MB/sek write speed eller så om du kör i raid. Undvik Windows lagringslösning.

Permalänk
Skrivet av MichaelJackson:

EDIT: Jag har nu läst igenom tråden och det finns en del felaktigheter här om ZFS. Så här är det.

Nej, så är det inte. Se nedan.

Citat:

ZFS är ett mjukvaruraid.

ZFS är en sammanslagen implementation av volymhantering och filsystem. ZFS' hantering av logiska volymer har stöd för diverse raidtyper.

Citat:

Och ZFS ska undvikas att köras med hårdvaruraid, eftersom hårdvaruraid tror sig kunna skydda datat på diskarna, men ZFS är bättre på att skydda data

Vid ett strömavbrott kommer ett RAIDkort med batteribackup i typfallet att drabbas av mindre dataförluster än mjukvaruraid, inklusive ZFS. ZFS är sårbart för brister i underliggande lager: hårddiskdrivrutiner i OSet, buggar i chipset och integriteten i RAM-minnen, till exempel.
Så att ZFS är bättre i alla tillämpningar är långtifrån säkert.

Citat:

ZFS har inga volymer,

Du verkar säker på din sak. Kan du be Oracle rätta sin dokumentation?

Citat:

den har partitioner, egentligen heter de filsystem.

*groan*
Hårddiskar har partitioner. ZFS bygger storage pools av en eller flera devices, som kan vara hårddiskar, partitioner eller imagefiler. Varje storage pool har en policy för dataskydd, t ex striping, spegling eller RAID-Z. Dessa storage pools kan delas upp i volymer. Uppdelningen av volymer kan göras oberoende av underliggande devices -- flera hårddiskar kan tillsammans bilda en volym som är större än de enskilda hårddiskarna, t ex.
Ovanpå volymen kan sedan filsystem byggas. Filsystemet innehåller filer (well, duh), katalogstruktur, behörighetsdata, tidsstämplar, etc. ZFS har en egen filsystemimplementation, men även om ZFS' volymhantering används kan andra filsystemtyper som NTFS eller ext3 byggas i ZFS-volymer.

Citat:

Och varje filsystem är som ett directory, dvs den krymper och växer allt efter behov.

Eh, nej. ZFS-volymer kan utökas, men inte krympas. Till skillnad från directories så krävs dessutom en manuell åtgärd för att utöka en ZFS-volym. Att behovet finns räcker inte för att det ska ske.

Citat:

ECC rekommenderas till ZFS eftersom ZFS har så bra dataskydd, så då är det lika bra att även skydda RAM mot strömspikar, etc.

Nä. ZFS är designat för att köras i servermiljöer och antas ha krallig hårdvara med stöd för hög tillgänglighet (avbrottsfri kraft, redundanta nätaggregat, ECC-minnen). Det gör dock att ZFS inte hanterar fel i underliggande hårdvara särskilt graciöst. Det finns lösningar som är bättre anpassade efter en hemmaservers förutsättningar.

Citat:

ZFS är den enda lösningen på marknaden ute idag, som erbjuder bevisad dataintegritet.

Riktigt så bra är ju inte ZFS och någons utsaga om att en produkt är felfri håller ju bara tills någon hittar ett fel.

Citat:

Om du kommer ihåg gamla VHS kassetter eller gamla Amiga/PC disketter, så efter några år kan man inte läsa dem längre, pga datat ruttnar bort över tiden. Detsamma sker hela tiden på hårddiskar, långsamt. Men ZFS är den enda lösningen som skyddar mot sånt, ZFS kollar hela tiden varje block som läses med checksummor, ifall en bit har råkat flippats av misstag/ström/bitröta/etc och korrigerar isåfall datat automatiskt och informerar dig.

ZFS är verkligen inte den enda lösningen som skyddar mot att lagringsmedia degraderar över tiden. Varje raidkort med självaktning kan göra patrol read/scrubbing av diskar i ett raidset med redundans. Många filsystem har liknande funktioner.

Citat:

Inga andra lösningar kan erbjuda dataintegritet på samma sätt som ZFS,

Du har inte letat jättenoga, va? NetApps Data ONTAP gör integritetskontroll mot checksumma periodiskt och kan konfigureras att även göra kontroll vid varje läsning. Till och med en entrylevellösning som Dell's PowerVault har checksummor på allt lagrat data och gör checksummekontroll periodiskt och vid läsning.

Citat:

eftersom flera olika dataforskare har undersökt hur bra ZFS skyddar mot data och ZFS erbjuder 100% skydd.

Vad betyder det då? Klarar atombomber?

Citat:

Andra lösningar som "påstår" sig skydda data, har inte forskats om. Det är ingen som vet hur bra de skyddar data, det kanske bara är snack?

ZFS är inte hårdare granskat än många andra leverantörers lagringsprodukter. ZFS finns dessutom i många olika implementationer, med diverse skillnader sinsemellan. ZFS-implementationerna till Solaris, Linux och FreeBSD har alla haft buggar som leder till tillgänglighets- och dataförlust.

Citat:

Hårdvaruraid gör inte detta, de gör parity beräkningar men det är inte checksummor för dataintegritet.

Förklara gärna varför paritetsinformationen inte är en checksumma och varför den inte säkrar dataintegriteten.

Citat:

Ext3, NTFS, etc alla vanliga filsystemen erbjuder ingen dataintegritet alls.

Du jämför äpplen och päron. Filsystemen i sig gör ingen integritetskontroll -- den funktionen placeras vanligtvis i underliggande lager. Så ext3 ovanpå Linux' mjukvaru-RAID5 medger integritetskontroll, ReFS och Storage Spaces på Windows medger integritetskontroll.
Och ZFS-filsystem på ZFS-volymer medger integritetskontroll. Inget konstigt.

Citat:

Enda anledningen att köra ZFS, är pga dataintegritet.

Och skalbarhet. Gissa vad första bokstaven i ZFS står för?

Citat:

Det är därför alla kör det,

Jag kan tänka mig att en hel bunt kör det eftersom det är defaultvalet i FreeNAS, men jag vet inte. Jag har ju inte gått runt och frågat alla, så jag kan inte uttala mig med riktigt samma grad av självsäkerhet som du.

Citat:

Jag vet inte hur bra FreeNAS är, men om du är seriös rekommenderas FreeBSD

Gissa en gång vilket operativsystem FreeNAS är uppbyggt på.

Citat:

Ingen seriös firma kör FreeNAS tror jag. Det är väl en hobby grej?

Tja, det finns ju en knapp med texten "For business" högst upp på FreeNAS' hemsida. Den leder till något litet källarföretag som kränger hårdvara med FreeNAS-mjukvara. Men de verkar bara ha oseriösa kunder: Juniper, SanDisk, Splunk och några andra...

Citat:

Det går inte att minska antalet diskar i ZFS. Men du kan lägga till flera diskar.

Vad konstigt. Enligt manualen går det går alldeles utmärkt att ta bort diskar med kommandot 'zpool detach'.

Citat:

Med mdraid, LVM och andra linux lösningar får du ingen dataintegritet, dvs datat kan ruttna sakta bort utan att du märker det.

Vad får du allt ifrån?
Det går alldeles utmärkt att integritetskontrollera både LVM och mdraid.

Permalänk
Skrivet av Apro:

Jag har försökt läsa på lite om mdraid, och det verkar som att det på de flesta ställen referas till som Linux Raid och att administrationsverktyget heter mdadm. Stämmer det, eller är det något annat?

Ja, visst är det lurigt? Det är olika namn på nästan exakt samma sak. 'md' i Linux står för Multiple Devices och utgör ett abstraktionslager för enheter som hanterar block (vanligtvis hårddiskar, men det går att använda andra lagringsmedia också). Det används nästan uteslutande för att bygga raidset av diskar, men har en del andra tricks också. Om man pratar om "linux mjukvaruraid" är det nästan alltid md som avses, även om Linux har raidfunktion inbyggt även i LVM.

Skrivet av Apro:

Du sa tidigare att du inte skulle rekommendera endast raid 5, men Linux Raid verkar stödja flera olika raidtyper. Tycker du då att Raid10 är det man bör konfigurera?

Svårt att säga, det blir ju alltid en avvägning mellan trygghet och kostnad och för hemanvändning kan det vara knepigt att sätta ett värde i kronor och ören på det som NASen tillgängliggör och skyddar. Semesterbilder? Hmm, det vore riktigt tråkigt att förlora. Rippade skivor och DVDer vars original ligger i en flyttkartong på vinden? Inte så farligt -- det är ett ganska litet antal jag behöver titta/lyssna på igen, och dessutom finns ju Spotify och Netflix.
Jag hade nog nöjt mig med RAID 5 och lagt eventuellt överskott i budgeten på backup av en större andel och fler backupgenerationer av det som lagras på NASen. Backupdiskarna är inaktiva (och förvaras i en skrivbordslåda på jobbet) större delen av tiden och färre diskar ger lägre ljudnivå och mindre värmeutveckling.

Permalänk
Medlem

Wow... vilken wall of text... zfs är "nice", jag använder det, men det är inte så att det inte finns dugliga alternativ

En liten sak bara:

Skrivet av Hieronymus Bosch:

Vad konstigt. Enligt manualen går det går alldeles utmärkt att ta bort diskar med kommandot 'zpool detach'.

Nja, zpool detach tar bara bort en disk ur vdev'n, det krymper inte zpoolen.

Visa signatur

En server här, några servrar där.

Permalänk
Skrivet av moron:

Nja, zpool detach tar bara bort en disk ur vdev'n, det krymper inte zpoolen.

Korrekt - det går inte att minska mängden tillgängligt lagringsutrymme i en zpool. Däremot går det bra att ta bort diskar som ingår i speglar. Åtgärden minskar graden av redundans (från en trevägsspegel till en normal tvåvägsspegel, från en tvåvägsspegel till en redundanslös vdev).
MichaelJackson generaliserade lite hårt och hävdade att det inte gick att ta bort diskar från ZFS:

Citat:

Det går inte att minska antalet diskar i ZFS. Men du kan lägga till flera diskar.

Om diskarna lagrar redundant data (eller används för ZIL eller L2ARC) går det.

Permalänk
Skrivet av Hieronymus Bosch:

ZFS är en sammanslagen implementation av volymhantering och filsystem. ZFS' hantering av logiska volymer har stöd för diverse raidtyper.

ZFS har även en inbyggd raid hanterare, så du behöver inte dessutom använda ett mjukvaruraid ovanpå ZFS, typ LVM eller mdadm eller vad de nu heter. Och ZFS är ett mjukvaruraid, inte ett hårdvaruraid.

Skrivet av Hieronymus Bosch:

Vid ett strömavbrott kommer ett RAIDkort med batteribackup i typfallet att drabbas av mindre dataförluster än mjukvaruraid, inklusive ZFS. ZFS är sårbart för brister i underliggande lager: hårddiskdrivrutiner i OSet, buggar i chipset och integriteten i RAM-minnen, till exempel.
Så att ZFS är bättre i alla tillämpningar är långtifrån säkert.

Detta är helt käpprakt fel. Har du t.ex. hört talas om Write hole error som hårdvaruraid lider av, men ZFS är immun mot?
https://en.wikipedia.org/wiki/RAID#WRITE-HOLE
ZFS är CoW, så datat är alltid konsistent. Det kan inte hända att halva datat skrivs på disk och sen går strömmen och resterande hälften av datat går förlorat. Men det kan hända med hårdvaruraid.

Och dessutom är hårdvaruraid sårbart för brister i underliggande lager, precis de fel du beskriver. ZFS är inte sårbart för sådana fel, eftersom den gör hela tiden checksummor och märker direkt om något är fel i underliggande lagret. Har du inte läst alla trådar på www.hardforum.com där ZFS klagar, och till slut upptäcker TS att felet berodde på att SATA kabeln inte var riktigt inpluggad, eller att PSUn började strula, eller RAM började strula, etc? Men hårdvaruraid skulle aldrig upptäcka såna brister i underliggande hårdvaran. Så detta är käpprakt fel också.

Skälet till att många kör ZFS, är just att ZFS upptäcker brister i underliggande hårdvaran. Det gör inte hårdvaruraid. ZFS har detta starka dataskydd pga checksummor hela tiden. Om hårdvaruraid upptäckte brister i underliggande lager, skulle det inte finnas lika starka skäl att köra ZFS.

Skrivet av Hieronymus Bosch:

*groan*
Hårddiskar har partitioner. ZFS bygger storage pools av en eller flera devices, som kan vara hårddiskar, partitioner eller imagefiler. Varje storage pool har en policy för dataskydd, t ex striping, spegling eller RAID-Z. Dessa storage pools kan delas upp i volymer. Uppdelningen av volymer kan göras oberoende av underliggande devices -- flera hårddiskar kan tillsammans bilda en volym som är större än de enskilda hårddiskarna, t ex.
Ovanpå volymen kan sedan filsystem byggas. Filsystemet innehåller filer (well, duh), katalogstruktur, behörighetsdata, tidsstämplar, etc. ZFS har en egen filsystemimplementation, men även om ZFS' volymhantering används kan andra filsystemtyper som NTFS eller ext3 byggas i ZFS-volymer.

Visst, ZFS har volymer men ingen använder det normalt för hemmaservrar. ZFS volymer används huvudsakligen till iscsi och t.ex. PXE boot. Du har en PC helt utan hårddiskar, och istället skapar du en ZFS volym (dvs partition) på säg 100GB, på ZFS servern, sen installerar du Windows på ZFS volymen och bootar PC från ZFS volymen via nätverket. Då ligger ZFS i botten, och ovanpå ligger NTFS med Windows. Och då kan du säkerhetskopiera hela ZFS volymen. Denna funktionalitet hittar du normalt bara i dyra stora SAN servrar och ingen vanlig hemanvändare kör normalt SAN hemma. En vanlig hemanvändare använder filsystem på zpoolen, inte ZFS volymer.

Skrivet av Hieronymus Bosch:

Eh, nej. ZFS-volymer kan utökas, men inte krympas. Till skillnad från directories så krävs dessutom en manuell åtgärd för att utöka en ZFS-volym. Att behovet finns räcker inte för att det ska ske.

Jag skrev: "Och varje filsystem är som ett directory, dvs den krymper och växer efter behov". Jag pratade inte om ZFS volymer (som bara används utav stora företag i stora tokdyra SAN servrar)

Skrivet av Hieronymus Bosch:

Nä. ZFS är designat för att köras i servermiljöer och antas ha krallig hårdvara med stöd för hög tillgänglighet (avbrottsfri kraft, redundanta nätaggregat, ECC-minnen). Det gör dock att ZFS inte hanterar fel i underliggande hårdvara särskilt graciöst. Det finns lösningar som är bättre anpassade efter en hemmaservers förutsättningar.

Helt fel. ZFS checksummar alltid alla data som läs/skrivs. Det gör inte andra normala system. Detta leder till att ZFS upptäcker fel precis överallt, om SATA kabeln börjat glappa lite, om PSUn strular, om ett RAM strular, etc. Detta gör att ZFS hanterar fel i underliggande hårdvara, men inga andra normala system gör det. Sen finns det tokdyra system som t.ex. NetApp som också gör det, men dessa stora SAN servrar kostar typiskt många miljoner.

Skrivet av Hieronymus Bosch:

Riktigt så bra är ju inte ZFS och någons utsaga om att en produkt är felfri håller ju bara tills någon hittar ett fel.

Helt fel igen. Har du läst forskningsrapporten du länkar till? Det har jag. För många år sen. Artikeln säger att ZFS skyddar 100% mot alla fel. Forskarna tar ut en disk och injicerar artificiella fel och skriver över lite bitar här och där på känsliga ställen, och ZFS upptäckte alla dessa fel, och även reparerade alla de felen (när man körde i raid/mirror läge). Andra system som t.ex. hårdvaruraid, NTFS, ext3, etc skulle inte ens upptäckt felen. Än mindre reparera dem. Det finns flera såna här forskningsrapporter om hur bra ZFS skyddar mot fel, och i alla fallen lyckas ZFS till 100%. Det finns inte lika mycket forskning på andra lagringssystem, vad jag vet finns det inte forskning alls.

Skrivet av Hieronymus Bosch:

ZFS är verkligen inte den enda lösningen som skyddar mot att lagringsmedia degraderar över tiden. Varje raidkort med självaktning kan göra patrol read/scrubbing av diskar i ett raidset med redundans.

ZFS är den enda normala lösningen som skyddar mot detta. Sen finns det tokdyra NetApp eller EMC servrar som påstår sig göra det (utan forskning), men dessa servrar kostar många miljoner kr och är stora SAN servrar, dvs används av stora företag i stora serverhallar. T.ex. CERN som lagrar tokmycket partikeldata är nojiga över att några bitar ruttnar och visar något som inte finns i datat, och CERN sade efter massa research att det är bara ZFS som skyddar mot bitröta. Och CERN skrev att även mycket stora och dyra servrar skyddar inte mot bitröta.

Bland det sämsta skyddet är väl hårdvaruraid. Har du missat det?
https://en.wikipedia.org/wiki/RAID#Weaknesses

Skrivet av Hieronymus Bosch:

Många filsystem har liknande funktioner.

Jag känner bara till BTRFS, som är mer eller mindre ett plagiat utav ZFS. Men BTRFS är i alfastadium och högst osäkert, folk får datakorruption hela tiden. Här pratas om den senaste BTRFS versionen och folk får data korruption. BTRFS går inte att lita på om man är nojig om sina data.
http://www.phoronix.com/forums/forum/software/general-linux-o...

Det finns en doktorsavhandling som visar att NTFS, ext3, XFS, etc etc inte skyddar mot bitröta. Läs den, det har jag gjort.
https://en.wikipedia.org/wiki/ZFS#cite_note-9

Skrivet av Hieronymus Bosch:

Du har inte letat jättenoga, va? NetApps Data ONTAP gör integritetskontroll mot checksumma periodiskt och kan konfigureras att även göra kontroll vid varje läsning. Till och med en entrylevellösning som Dell's PowerVault har checksummor på allt lagrat data och gör checksummekontroll periodiskt och vid läsning.

Så sammanfattningsvis så skyddar inga vanliga filsystem mot bitröta (BTRFS klarar det inte heller) och hårdvaruraid gör det inte. Du behöver gå till stora system, såsom ZFS, NetApp, EMC, etc. Dessa är specialiserade på lagring och erbjuder alla stora tokdyra SAN servrar. Men jag vet att ZFS har flera forskningsrapporter att det skyddar data bra från oberoende forskare som inte är anställda på Oracle. När det gäller NetApp eller EMC så har ingen vanlig människa råd med dem, och jag har inte sett någon forskning på de produkterna hur bra de skyddar datat. ZFS är den enda produkten som en vanlig människa kan använda, som erbjuder ett bra skydd. Och det är därför ZFS är så hypat. Inget annat skäl. Inte prestanda, inte snapshots, inte L2ARC, inte dedup, etc. Inget av de är en killer feature, förutom dataskyddet.

Skrivet av Hieronymus Bosch:

ZFS är inte hårdare granskat än många andra leverantörers lagringsprodukter.

Jo ZFS är hårdare granskat. Av OBEROENDE forskare. Alla artiklar du länkar till, kommer från respektive företag. Vem litar på vad NetApp säger om sina egna produkter? Visa istället oberoende forskning om alla dessa produkterna.

Skrivet av Hieronymus Bosch:

ZFS finns dessutom i många olika implementationer, med diverse skillnader sinsemellan. ZFS-implementationerna till Solaris, Linux och FreeBSD har alla haft buggar som leder till tillgänglighets- och dataförlust.

Självklart finns det buggar i ZFS, det finns buggar i alla system. Och självklart har man tappat data med NetApp, EMC, etc. Det är inget argument. Poängen är att ZFS är designat från grunden, för att skydda mot dataförlust, och alla(?) andra är inte det. Det kanske finns några få som säger sig också ha samma mål som NetApp och EMC, men jag vet ingen oberoende forskning på dem.

Skrivet av Hieronymus Bosch:

Förklara gärna varför paritetsinformationen inte är en checksumma och varför den inte säkrar dataintegriteten.

Det är ett stort misstag att tro att paritet är samma sak som checksummor. Det är det inte. Paritet används för att ta fram en kraschad disk eller så. Det är känt att hårdvaruraid har stora problem med dataintegritet, och det skulle inte föreokmma om paritet även skyddade mot dataförlust.

Skrivet av Hieronymus Bosch:

Du jämför äpplen och päron. Filsystemen i sig gör ingen integritetskontroll -- den funktionen placeras vanligtvis i underliggande lager. Så ext3 ovanpå Linux' mjukvaru-RAID5 medger integritetskontroll, ReFS och Storage Spaces på Windows medger integritetskontroll.
Och ZFS-filsystem på ZFS-volymer medger integritetskontroll. Inget konstigt.

Du har fel återigen igen. Läs doktorsavhandlingen jag länkar till ovanför, ext3 erbjuder inget skydd. ReFS skulle jag inte lita på alls, eftersom den har checksummor på endast metadata. Själva datat har inga checksummor, om du inte slår på den funktionen. Om ReFS checksummor funkade bra, så skulle de vara påslagna jämt. Men så är inte fallet. Och man vet ju hur bra Microsoft är på Enterprise system (inte alls). MS har ingen erfarenhet av seriösa lagringssystem, t.ex. får man typ 20MB/sek skrivning med ReFS i vissa raid konfigurationer (eller nåt sånt skriver många människor). ReFS är antagligen sämre än BTRFS.

Skrivet av Hieronymus Bosch:

Och skalbarhet. Gissa vad första bokstaven i ZFS står för?

Fel igen. ZFS står inte för någonting:
https://en.wikipedia.org/wiki/ZFS#History

Skrivet av Hieronymus Bosch:

Jag kan tänka mig att en hel bunt kör det eftersom det är defaultvalet i FreeNAS, men jag vet inte. Jag har ju inte gått runt och frågat alla, så jag kan inte uttala mig med riktigt samma grad av självsäkerhet som du.

Jag menade att skälet till att ZFS är hypat är endast dataintegritetsskyddet. Dina data är säkrare med ZFS än med någon annan lösning. Om du inte är villig att punga ut med miljoner kr förstås för stora EMC, NetApp, etc SAN servrar.

Skrivet av Hieronymus Bosch:

Gissa en gång vilket operativsystem FreeNAS är uppbyggt på.

Jag känner till att FreeNAS är uppbyggt på FreeBSD, men folk säger att de fått problem med FreeNAS. Flera rekommenderar FreeBSD om du ska köra seriöst, och de säger att du ska undvika FreeNAS och Nas4Free.

Skrivet av Hieronymus Bosch:

Tja, det finns ju en knapp med texten "For business" högst upp på FreeNAS' hemsida. Den leder till något litet källarföretag som kränger hårdvara med FreeNAS-mjukvara. Men de verkar bara ha oseriösa kunder: Juniper, SanDisk, Splunk och några andra...

De Enterprise företag som är noga med sina data, går till NetApp, EMC eller... ZFS. Såna stora SAN servrar väger flera hundra kg och kostar miljoner. Jag vet ingen seriös lirare som kör en stor SAN server på FreeNAS. Är du seriös så undviker du FreeNAS.

Skrivet av Hieronymus Bosch:

Vad konstigt. Enligt manualen går det går alldeles utmärkt att ta bort diskar med kommandot 'zpool detach'.

Men du har inte ändrat på geometrin. Om du gör det så kommer ZFS rapportera att det är något fel och att du måste stoppa tillbaka en disk. Så återigen, du kan inte minska på antalet diskar. Självklart kan du manuellt koppla loss en disk från en ZFS mirror som består av t.ex. elva diskar men då har du våldfört dig på raidet.

Skrivet av Hieronymus Bosch:

Vad får du allt ifrån?

Det undrar jag med. Det var inte mycket du skrev här, som stämde. Det mesta fick jag korrigera eller förklara för dig som till en nybörjare.

Skrivet av Hieronymus Bosch:

Det går alldeles utmärkt att integritetskontrollera både LVM och mdraid.

Varken LVM eller mdraid skyddar dataintegritet, de kollar om datat är koherent (det står inte dataintegrity i LVM länken). Det är som när du gör chkdsk i Windows, det skyddar inte mot dataintegritet. Det kollar bara basala saker. Dessutom är ext3 som ligger ovanpå osäkert och märker inte ens om du injicerar fel i ext3. LVM och mdraid använder sig av ext3 (eller nåt annat osäkert Linux filsystem) för att accessa datat på diskarna, och ext3 kan ju inte avgöra om det finns datakorruption - så hur ska då LVM och mdraid avgöra det?

Dessutom, om LVM och mdraid verkligen skyddade dataintegritet så behövs inte de stora SAN servrarna och ZFS, NetApps WAFL filsystem, etc etc.

Permalänk
Skrivet av MichaelJackson:

Har du t.ex. hört talas om Write hole error som hårdvaruraid lider av, men ZFS är immun mot?

Åh, men det beror på vilken raidimplementation som används. Om raidkontrollern har batteribackup kommer den halva transaktion som inte hann ned till disk att sparas i minnet tills hårddiskarna är tillgängliga igen. Oavsett anledning till att data inte hann skrivas.

Skrivet av MichaelJackson:

Skälet till att många kör ZFS, är just att ZFS upptäcker brister i underliggande hårdvaran. Det gör inte hårdvaruraid.

Det gör inte ZFS heller. ZFS har ingen möjlighet att misstro exempelvis en SSD som hävdar att en skrivning hamnat på icke-flyktig lagring, trots att den fortfarande ligger i diskens skrivkö och därmed kommer att gå förlorad vid strömbortfall. Och bitfel i RAM upptäcks inte - ZFS gör ingen checksummekontroll av data som är cachat i RAM.

Skrivet av MichaelJackson:

Jag skrev: "Och varje filsystem är som ett directory, dvs den krymper och växer efter behov". Jag pratade inte om ZFS volymer (som bara används utav stora företag i stora tokdyra SAN servrar)

Så du vidhåller att filsystem växer automatiskt, efter behov? Och FreeNAS kan använda ZFS-volymer för iSCSI, så innehållet i din parentes är felaktigt.

Skrivet av MichaelJackson:

Helt fel. ZFS checksummar alltid alla data som läs/skrivs. Det gör inte andra normala system.

Aha. Så helt plötsligt gäller ditt uttalande bara "normala" system? Och ZFS gör ingen checksummekontroll innan skrivning -- se nedan.

Skrivet av MichaelJackson:

Helt fel igen. Har du läst forskningsrapporten du länkar till? Det har jag. För många år sen.

Då kanske det kan vara dags för en uppfräschning?

Skrivet av MichaelJackson:

Rapporten.

Skrivet av MichaelJackson:

säger att ZFS skyddar 100% mot alla fel.

Läs om. Rapporten säger att ZFS inte hanterar de fel på disk som man rimligtvis inte kan kräva att den ska överleva:

Citat:

Observation 3: ZFS does not recover from data block corruptions.
Observation 5: ZFS cannot recover from multiple block corruptions affecting all ditto blocks when no in- memory copy exists.

Men med RAM-minne är situationen en helt annan: injiceras fel i minnet på ett sätt som avser likna felbeteendet hos dåligt RAM-minne fås följande resultat:

Citat:

Observation 1: ZFS does not use the checksums in the page cache along with the blocks to detect memory corruptions.[...]when a block is already in the page cache, ZFS implicitly assumes that it is protected against corruptions.
Observation 3: Since checksums are created when blocks are written to disk, any corruption to blocks that are dirty (or will be dirtied) is written to disk permanently on a flush.
Observation 5: For most metadata blocks in the page cache, checksums are not valid and thus useless in detecting memory corruptions.
Observation 9: There is no recovery for corrupted metadata.

Så ZFS är inte immunt mot fel i underliggande hårdvara. ZFS gör inte checksummekontroller på data i minne -- det här är troligtvis en tradeoff där man förlitar sig på ECC-minnen eller servrar med stöd för speglat minne.

Skrivet av MichaelJackson:

Andra system som t.ex. hårdvaruraid, NTFS, ext3, etc skulle inte ens upptäckt felen. Än mindre reparera dem. Det finns flera såna här forskningsrapporter om hur bra ZFS skyddar mot fel, och i alla fallen lyckas ZFS till 100%.

Tydligen inte. Se ovan.

Skrivet av MichaelJackson:

ZFS är den enda normala lösningen som skyddar mot detta.

Normala system, huh? Det kan jag gå med på. Det är dock inte vad du ursprungligen påstod. "Ingen riktig skotte..."

Skrivet av MichaelJackson:

CERN sade efter massa research att det är bara ZFS som skyddar mot bitröta.

Länk? Jag hittar bara en rapport om behovet av dataskydd och olika sätt att uppnå detta. ZFS nämns inte. Extra intressant är att CERN valde att bygga ett eget lagringssystem för sin största lagring.
Dock råkar jag veta att ZFS används inom CERN. Hur? Jo, deras interna IT-drift har en publik wiki med ärenden och för några år sedan drabbades en av deras ZFS-baserade lagringslösningar av dataförlust.
Som berodde på ett underliggande hårdvarufel.
Som ZFS inte skyddade mot.

Skrivet av MichaelJackson:

Och CERN skrev att även mycket stora och dyra servrar skyddar inte mot bitröta.

Det har CERN nog rätt i. Storlek och prislapp är ingen automatisk garanti för att ett visst produkt löser ett visst problem. Men att tolka förekomsten av sämre lösningar som frånvaron av bättre känns lite förhastat.

Skrivet av MichaelJackson:

Bland det sämsta skyddet är väl hårdvaruraid. Har du missat det?
https://en.wikipedia.org/wiki/RAID#Weaknesses

OK. Jag ser

  • "Correlated failures": Diskar med liknande tillverkningsförhållanden, ålder, drifttid och användningsmönster tenderar att fallera i grupp. Dimensionering av redundans baserat på ett antagande om jämn felfrekvens hos hårddiskar tenderar att vara för snålt. Samma sak gäller för ZFS.

  • "Unrecoverable read errors during rebuild": Rebuild tenderar att hitta fel hos sällan accessade delar av hårddiskar. Lösningen som används är scrubbing/patrol read, vilket också nämns i wikipediaartikeln. Den är på intet sätt unik för ZFS -- Dells servrar har haft den i åratal och den är standard på batteribackupade raidkort.

  • "Increasing rebuild time and failure probability": Samma sak här. Den begränsande faktorn är diskens förmåga att skyffla data för att återställa redundans. Den är oberoende av om det är ZFS, mjukvaruraid eller hårdvaruraid som gör skyfflingen.
    Atomicity: including parity inconsistency due to system crashes: Även detta är ett löst problem. I hårdvarufallet med batteribackup på raidkortet, i mjukvarufallet med journalerande eller transaktionsbaserade filsystem. "The RAID write hole is a known data corruption issue in older and low-end RAIDs". (Min fetning.)

  • "Write-cache reliability": Betydligt bättre på batteribackupförsedda hårdvaruraidkort än mjukvarubaserade lösningar som t ex ZFS. ZFS cachar asynkrona skrivningar i RAM och dessa går förlorade om OSet av någon anledning går ner. Min erfarenhet är att detta händer oftare än att en batteribackupad raidkontroller slutar fungera. För synkrona skrivningar är situationen en annan. ZFS rapporterar inte att synkrona skrivningar lyckats förrän skrivningen tycks vara skriven till ZIL, en transaktionslogg som kan placeras en eller flera SSDer för att förbättra prestanda. Det blir viktigt att välja en SSD-modell som inte kvitterar skrivningar i förväg.

Sammantaget: ZFS är drabbat av samma svagheter som RAID. ZFS' checksummor löser en del av problemen, men inget hindrar att en RAID-lösning med motsvarande kontroller används.

Skrivet av MichaelJackson:

Det finns en doktorsavhandling som visar att NTFS, ext3, XFS, etc etc inte skyddar mot bitröta. Läs den, det har jag gjort.
https://en.wikipedia.org/wiki/ZFS#cite_note-9

Absolut. Jag säger inte att något annat filsystem eller underliggande mekanism är perfekt, jag säger bara att ZFS inte heller är det.

Skrivet av MichaelJackson:

Så sammanfattningsvis så skyddar inga vanliga filsystem mot bitröta (BTRFS klarar det inte heller)

Det brukar traditionellt sett inte vara filsystemets uppgift att kontrollera integriteten hos lagring -- det görs vanligtvis längre ned och högre upp i stacken.

Skrivet av MichaelJackson:

och hårdvaruraid gör det inte.

Kolla Dells entrylevellösning som jag länkade till i mitt förra inlägg. Den gör checksummekontroll på varje läsning.

Skrivet av MichaelJackson:

Men jag vet att ZFS har flera forskningsrapporter att det skyddar data bra från oberoende forskare som inte är anställda på Oracle. När det gäller NetApp eller EMC så har ingen vanlig människa råd med dem, och jag har inte sett någon forskning på de produkterna hur bra de skyddar datat. ZFS är den enda produkten som en vanlig människa kan använda, som erbjuder ett bra skydd. Och det är därför ZFS är så hypat. Inget annat skäl. Inte prestanda, inte snapshots, inte L2ARC, inte dedup, etc. Inget av de är en killer feature, förutom dataskyddet.

Länkar?

Skrivet av MichaelJackson:

Alla artiklar du länkar till, kommer från respektive företag.

...och innehåller rapporter från ackrediterade Common Criteria-granskare. Så det är inte företagen själva som gjort granskningarna och bestämt vilken assuransnivå produkterna ligger på.

Skrivet av MichaelJackson:

Det är ett stort misstag att tro att paritet är samma sak som checksummor.
Det är det inte. Paritet används för att ta fram en kraschad disk eller så. Det är känt att hårdvaruraid har stora problem med dataintegritet, och det skulle inte föreokmma om paritet även skyddade mot dataförlust.

Så informationen i ett RAID5-set kan inte återställas efter att en disk fallerat? Bitröta kan inte upptäckas i en raidetta?
Om det är dina slutsatser efter att ha använt hårdvaruraid kan jag bara beklaga valet av leverantör.

Skrivet av MichaelJackson:

Läs doktorsavhandlingen jag länkar till ovanför, ext3 erbjuder inget skydd.

Det påstod jag inte heller. Jag pekade på att integritetskontrollen åstadkoms av redundansen i RAID5, inte ext3.

Skrivet av MichaelJackson:

Fel igen. ZFS står inte för någonting:
https://en.wikipedia.org/wiki/ZFS#History

Fair enough. Stod för.

Skrivet av MichaelJackson:

Jag menade att skälet till att ZFS är hypat är endast dataintegritetsskyddet.

Det kan jag hålla med om.

Skrivet av MichaelJackson:

Jag känner till att FreeNAS är uppbyggt på FreeBSD, men folk säger att de fått problem med FreeNAS. Flera rekommenderar FreeBSD om du ska köra seriöst, och de säger att du ska undvika FreeNAS och Nas4Free.

Fast sådana människor hittar man väl oavsett produkttyp? Det finns alltid någon som säger att du borde ha valt något enterprajsigare, modernare eller snyggare. Samtidigt finns det gott om användare i TS' situation som är nöjda med FreeNAS.

Skrivet av MichaelJackson:

De Enterprise företag som är noga med sina data, går till NetApp, EMC eller... ZFS. Såna stora SAN servrar väger flera hundra kg och kostar miljoner.

TrueNAS, som levererar hårdvara anpassad för FreeNAS har certifierade konfigurationer för mer än 1 PB. Det både väger och kostar nog mycket.

Skrivet av MichaelJackson:

Men du har inte ändrat på geometrin. Om du gör det så kommer ZFS rapportera att det är något fel och att du måste stoppa tillbaka en disk. Så återigen, du kan inte minska på antalet diskar. Självklart kan du manuellt koppla loss en disk från en ZFS mirror som består av t.ex. elva diskar men då har du våldfört dig på raidet.

Om en disk som lagrar data som är redundant inom sin vdev tas bort med 'zpool detach' kommer disken att fysiskt kunna tas ur den hårdvara den normalt bor i. zpoolen kommer inte att sakna den. En zpool som ursprungligen hade en trippelspegel men sedan fått en hårddisk borttagen kommer att fungera på samma sätt som en zpool som skapats med dubbelspegel -- den kommer inte att vara i något degraderat läge eller på annat sätt känna sig våldförd på.

Skrivet av MichaelJackson:

Varken LVM eller mdraid skyddar dataintegritet, de kollar om datat är koherent (det står inte dataintegrity i LVM länken).

...och om datat förändrats kommer det inte längre att vara koherent. Du skrev att

Citat:

Med mdraid, LVM och andra linux lösningar får du ingen dataintegritet, dvs datat kan ruttna sakta bort utan att du märker det.

Med kontrollerna jag länkade till märker man det.

Skrivet av MichaelJackson:

LVM och mdraid använder sig av ext3 (eller nåt annat osäkert Linux filsystem) för att accessa datat på diskarna, och ext3 kan ju inte avgöra om det finns datakorruption - så hur ska då LVM och mdraid avgöra det?

Du verkar ha missuppfattat hur lagringsstacken i Linux ser ut. ext3 är ett filsystem, som ligger ovanpå mdraid eller LVM. mdraid och LVM kan bygga raidset resp. logiska volymer ovanpå hårddiskar, partitioner eller imagefiler. Om dessa raidset/logiska volymer har redundans i form av speglar eller paritetsinformation kan fel upptäckas i underliggande hårddiskar/partitioner/imagefiler.

Skrivet av MichaelJackson:

Dessutom om LVM och mdraid verkligen skyddade dataintegritet så behövs inte de stora SAN servrarna och ZFS, NetApps WAFL filsystem, etc etc.

Alla kanske inte vill ha en "seriös" lösning på flera hundra kilo?

Permalänk
Skrivet av Hieronymus Bosch:

Fyra hundra kilo text...

Har ZFS ätit upp din familj, länsat ditt bankkonto och kidnappat dina barn?
Varför sätter någon sig och dikterar en 10 sidor lång text om varför ett filsystem inte duger på detta sättet?

Jag har kört ZFS på alla mina servrar sedan 2010 utan något som helst problem (Ja, även virtualiserat och med säkert fem olika HBA-kort).
Lugna ner dig lite.

Visa signatur

Argaste

Permalänk
Medlem
Skrivet av Hieronymus Bosch:

Så ZFS är inte immunt mot fel i underliggande hårdvara. ZFS gör inte checksummekontroller på data i minne -- det här är troligtvis en tradeoff där man förlitar sig på ECC-minnen eller servrar med stöd för speglat minne.

Dock råkar jag veta att ZFS används inom CERN. Hur? Jo, deras interna IT-drift har en publik wiki med ärenden och för några år sedan drabbades en av deras ZFS-baserade lagringslösningar av dataförlust.
Som berodde på ett underliggande hårdvarufel.
Som ZFS inte skyddade mot.
Det har CERN nog rätt i. Storlek och prislapp är ingen automatisk garanti för att ett visst produkt löser ett visst problem. Men att tolka förekomsten av sämre lösningar som frånvaron av bättre känns lite förhastat.

Intressant service incident report du länkade till. Lite oklart hur deras setup såg ut dock. Man ska ju inte köra RAID-controller ihop med ZFS utan bara presentera diskarna direkt till ZFS.

Stämmer helt, ZFS var tänkt att användas i servrar med ECC RAM och tittar man t.ex. på FreeNAS forum så verkar folk vara eniga om att man inte ska köra ZFS utan ECC RAM.

Visa signatur

RIPE LIR

Permalänk
Skrivet av tomle:

Intressant service incident report du länkade till. Lite oklart hur deras setup såg ut dock. Man ska ju inte köra RAID-controller ihop med ZFS utan bara presentera diskarna direkt till ZFS.

Stämmer helt, ZFS var tänkt att användas i servrar med ECC RAM och tittar man t.ex. på FreeNAS forum så verkar folk vara eniga om att man inte ska köra ZFS utan ECC RAM.

ZFS är inte värre att köra utan ECC än något annat filsystem.

Visa signatur

Argaste

Permalänk
Medlem
Skrivet av TommyToad:

ZFS är inte värre att köra utan ECC än något annat filsystem.

Tyvärr så är ZFS värre utan ECC. Om du kör en scrub och får bitröta i RAM just då så kommer den ju att upptäcka "felet" på disk och skriva om den "rätta" informationen vilket leder till korruption.

Visa signatur

RIPE LIR

Permalänk
Skrivet av tomle:

Tyvärr så är ZFS värre utan ECC. Om du kör en scrub och får bitröta i RAM just då så kommer den ju att upptäcka "felet" på disk och skriva om den "rätta" informationen vilket leder till korruption.

Och vad händer om du kör t.ex BTRFS och kör en scrub utan ECC-minnen?

Visa signatur

Argaste

Permalänk
Skrivet av tomle:

Tyvärr så är ZFS värre utan ECC. Om du kör en scrub och får bitröta i RAM just då så kommer den ju att upptäcka "felet" på disk och skriva om den "rätta" informationen vilket leder till korruption.

Fast det kommer att hända oavsett vilken typ av filsystem som skrubbas -- utan ytterligare redundant information går det bara att hitta avvikelser, inte att säkerställa vilken av kopiorna som är rätt. De flesta mekanismer verkar lita mer på RAM än disk, vilket nog statistiskt sett är den säkraste gissningen. Inte 100% säker, dock.