Hba eller raid! Sata eller sas? Hjälp...

Permalänk
Medlem
Skrivet av zRk-:

Jag har donat med freenas i snart 5 år.
Det är inga problem med stora diskar.
Däremot är det viktigt att fundera igenom antal per vdev. När diskarna är större än ca 3TB, rekomenderas raidz2, eller even raidz3 om det är hanterbart.

Jag skulle säga att en tacksam middleground att börja på är 6st disk i raidz2.
Nästa gång du expanderar poolen, gör du det med 6 disk, i en ny vdev.
Mycket går åt till redundans. 8disk i en raidz2 är fine.

Min rekomendation är att sikta på fler, men mindre diskar.
ZFS styrka är att kunna ge hysteriskt med prestanda och trygghet på i stort sett konsumentdiskar, utan avancerade raidkort.
Se för guds skull till att du inte skaffar SMR diskar.

Varför så farligt med smr?

Permalänk
Medlem

Det som tydligen har hänt med just ZFS är att SMR-diskar fyller upp sin 'cache' PMR-del när det skrivs väldigt mycket småfiler och uppdaterar metadata fram och tillbaka på samma sektorer (NTFS lider av det när $MFT hela tiden skall uppdateras - det är därför NTFS fungerar så illa på SMR-diskar prestandamässigt när det är mycket småfiler) och då kan disken sluta att svara under ett antal sekunder och ofta så kickas disken ur RAID:en efter ofta 8 sekunder om det inte svarat innan dess och i ZFS-fallet så har man fått situationen att flera diskar kickas ut nästan samtidigt och förbi antalet paritetsdiskar och man fått seriöst svåra filsystemshaverier...

- ZFS har haft väldig dåligt med reparationsprogram (även om det sakta blir bättre med utvecklingen av zfs for linux) eftersom man har haft filosofi att ZFS gör inte fel och därför behövs inte reparationsprogram (ungefär samma filosofi att kärnkraftverk aldrig havererar och när det gör det ändå så blir det storkatastrof) och man har som datalagrare betydligt värre situation på en havererad ZFS-array än när många andra filsystem krachar och där kan använda fsck-program mm. för att reparera filsystemet (eller i alla fall rädda ut datat), få igång det igen utan allt för mycket förluster.

Kort sagt SMR-diskar i samband med ZFS har alltså gett situationer med svårräddningsbara katastrof-fel medans med andra filsystem (som ext4/btrfs/XFS) har konsekvenserna varit mycket mindre och mera påverkan av prestandaskäl än att man förlorat hela filsystem...

Permalänk
Medlem
Skrivet av superegg:

Kommer inte ihåg vad det heter i ZFS men ska motsvara Raid 10.

https://i.imgur.com/ftWpMTa.png

Tror det är "Striped Mirror VDEV" du tänker på...
Men det är enklare att säga RAID10 med ZFS!

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem
Skrivet av xxargs:

Det som tydligen har hänt med just ZFS är att SMR-diskar fyller upp sin 'cache' PMR-del när det skrivs väldigt mycket småfiler och uppdaterar metadata fram och tillbaka på samma sektorer (NTFS lider av det när $MFT hela tiden skall uppdateras - det är därför NTFS fungerar så illa på SMR-diskar prestandamässigt när det är mycket småfiler) och då kan disken sluta att svara under ett antal sekunder och ofta så kickas disken ur RAID:en efter ofta 8 sekunder om det inte svarat innan dess och i ZFS-fallet så har man fått situationen att flera diskar kickas ut nästan samtidigt och förbi antalet paritetsdiskar och man fått seriöst svåra filsystemshaverier...

- ZFS har haft väldig dåligt med reparationsprogram (även om det sakta blir bättre med utvecklingen av zfs for linux) eftersom man har haft filosofi att ZFS gör inte fel och därför behövs inte reparationsprogram (ungefär samma filosofi att kärnkraftverk aldrig havererar och när det gör det ändå så blir det storkatastrof) och man har som datalagrare betydligt värre situation på en havererad ZFS-array än när många andra filsystem krachar och där kan använda fsck-program mm. för att reparera filsystemet (eller i alla fall rädda ut datat), få igång det igen utan allt för mycket förluster.

Kort sagt SMR-diskar i samband med ZFS har alltså gett situationer med svårräddningsbara katastrof-fel medans med andra filsystem (som ext4/btrfs/XFS) har konsekvenserna varit mycket mindre och mera påverkan av prestandaskäl än att man förlorat hela filsystem...

Ok då förstår jag varför wd blev stämda 😂

Permalänk
Medlem
Skrivet av Faltaren:

För info så pratade jag med broadcom om deras hw raid. Så länge kortet är nyare model kan man plugga in diskarna och den kan läsa dem. Dvs inget behov av dubbla kort.

Det är väl ganska självklart att du får ett sådant svar av tillverkaren.
Svaret är ju vad som gäller just idag (nu).

Säg att du har din lösning i många år. Vad har hänt under tiden med deras HW-Raid kort? Har det bestämt sig för att någon gång under denna tidpunkt gå över till "nyare-versionen-som-ger-bättre-prestanda-och-funktioner-som-inte-är-bakåtkompatibel"?

Då sitter du där och försöker köpa ett nytt kort av den gamla generationen, finns de ens att köpa i butik eller behöver du leta på blocket och ebay?

Så jag tror, och håller med, att råden du får att inte köra HW-Raid är just detta.

För större företag så är ju inte detta resonemang samma - där förväntas det att man byter HW ca vart 3e år och har ofta (alltid) avtal om service så om något går sönder så ser leverantören till att fungerande hårdara sätts in.

Men för oss privat personer så är resonemanget att köra HBA och sedan låta OS:et sköta disk/filsystemet med den redundans som man önskar.

Visa signatur

Dator: MSI X570 Tomahawk, AMD 5600x, 64 GB RAM, 2xNVMe, 2xSATA SSD, 10 GBit NIC, Grafik Nvidia 3060 12 GB RAM
Skärm: Dell U4025QW 40" ultrawide Bärbar dator: MBA M1
Synology DS1821+ (10Gbit) - Dockers, VM, Surveillance Station 11 kameror
DS3612xs (10Gbit) - Backup sparas till denna från ovan
Skrev jag något vettig? "Tumme up":a så vet jag att det fanns nytta i min post.

Permalänk
Medlem
Skrivet av Gustav-P:

Det är väl ganska självklart att du får ett sådant svar av tillverkaren.
Svaret är ju vad som gäller just idag (nu).

Säg att du har din lösning i många år. Vad har hänt under tiden med deras HW-Raid kort? Har det bestämt sig för att någon gång under denna tidpunkt gå över till "nyare-versionen-som-ger-bättre-prestanda-och-funktioner-som-inte-är-bakåtkompatibel"?

Då sitter du där och försöker köpa ett nytt kort av den gamla generationen, finns de ens att köpa i butik eller behöver du leta på blocket och ebay?

Så jag tror, och håller med, att råden du får att inte köra HW-Raid är just detta.

För större företag så är ju inte detta resonemang samma - där förväntas det att man byter HW ca vart 3e år och har ofta (alltid) avtal om service så om något går sönder så ser leverantören till att fungerande hårdara sätts in.

Men för oss privat personer så är resonemanget att köra HBA och sedan låta OS:et sköta disk/filsystemet med den redundans som man önskar.

Ok ja det är en risk helt klart. Tittar på freenas nu men kommer behöva uppgradera datorn i höst först. Så kommer bli ett hba isf. Annars får man helat enkelt uppgradera diskar och kort vart 5e år 😉

Permalänk
Medlem

Företag med serverpark har ofta flertal maskiner med samma modell av HW-RAID och därmed kan 'rädda sig' om en sådan HW-RAID kort slutar att fungera. Men som privatperson så orkar man inte riktigt med den kostnaden med reservkort för uppemot tio papp liggande i reserv och då är man utlämnad den dagen när det skiter sig och hoppas att det går att hitta något lika på ebay/amazon mfl.

Nu skall sägas att linux mdadm-RAID är ganska kunnig med rätt flaggor för åtminstone de äldre LSI-kortens diskkonfigurationer från HPE, DeLL, IBM, Lenovo då det är i grunden samma leverantör och samma LSI-chipset - men detta bör provas ut att det fungerar med denna reservväg innan det tas i skarp drift.

Permalänk
Medlem
Skrivet av Faltaren:

Ok ja det är en risk helt klart. Tittar på freenas nu men kommer behöva uppgradera datorn i höst först. Så kommer bli ett hba isf. Annars får man helat enkelt uppgradera diskar och kort vart 5e år 😉

Kom att tänka på en annan sak som kanske inte hör till tekniken i ämnet men ändå..

Jag har själv märkt att saker som jag köper sällan aldrig blir 100%. Jag lär mig något varje gång som jag ska tänka på för framtiden.
Exempelvis så är det inte många av oss som köper en ny bil ofta - vilket gör att det är flera år mellan varje tillfälle och som jag upptäckte för 3 bilar sedan att sätes komforten är viktig så att benen inte somnar (vilket gjorde att den bilen såldes alldeles för tidigt) och i den senaste att jag verkligen borde bett om att få läsa instruktionsboken innan jag beställde bilen för då hade jag vetat att kameran för virtual reality GPS navigering (som jag inte ansåg mig behöva) också fungerade som Dash-Cam som jag ville ha men som jag nog inte eftermonterar.

Min poäng då ? Jo forumet och din tråd är super att få synpunkter men det finns ett annat sätt också.
Läs gamla trådar av personer som har haft samma eller liknande frågeställning och ställ en fråga i PM till dem ifall hur det blev - det är ju inte alltid de skriver vad de beslutade sig för och hur det funkade och vad de hade önskat gjort annorlunda med vad de vet idag.

Hoppas jag satte lite fler hjärnspöken ...

Visa signatur

Dator: MSI X570 Tomahawk, AMD 5600x, 64 GB RAM, 2xNVMe, 2xSATA SSD, 10 GBit NIC, Grafik Nvidia 3060 12 GB RAM
Skärm: Dell U4025QW 40" ultrawide Bärbar dator: MBA M1
Synology DS1821+ (10Gbit) - Dockers, VM, Surveillance Station 11 kameror
DS3612xs (10Gbit) - Backup sparas till denna från ovan
Skrev jag något vettig? "Tumme up":a så vet jag att det fanns nytta i min post.

Permalänk
Medlem
Skrivet av Gustav-P:

Kom att tänka på en annan sak som kanske inte hör till tekniken i ämnet men ändå..

Jag har själv märkt att saker som jag köper sällan aldrig blir 100%. Jag lär mig något varje gång som jag ska tänka på för framtiden.
Exempelvis så är det inte många av oss som köper en ny bil ofta - vilket gör att det är flera år mellan varje tillfälle och som jag upptäckte för 3 bilar sedan att sätes komforten är viktig så att benen inte somnar (vilket gjorde att den bilen såldes alldeles för tidigt) och i den senaste att jag verkligen borde bett om att få läsa instruktionsboken innan jag beställde bilen för då hade jag vetat att kameran för virtual reality GPS navigering (som jag inte ansåg mig behöva) också fungerade som Dash-Cam som jag ville ha men som jag nog inte eftermonterar.

Min poäng då ? Jo forumet och din tråd är super att få synpunkter men det finns ett annat sätt också.
Läs gamla trådar av personer som har haft samma eller liknande frågeställning och ställ en fråga i PM till dem ifall hur det blev - det är ju inte alltid de skriver vad de beslutade sig för och hur det funkade och vad de hade önskat gjort annorlunda med vad de vet idag.

Hoppas jag satte lite fler hjärnspöken ...

Sant. Väldigt klokt. Och ja det är ju så man kör sig. Varför gjorde jag så borde gjort så här. Lite dyrt med sånt här dock... Jag tänker att jag köper grunden till datorn. Inga kort och diskar innan jag testat Vilket som funkar som jag vill. Verkar inte finnas någon mjukvaru raid 6 till Windows? Då hade jag vågat köppa allt direkt.

Permalänk
Medlem
Skrivet av Faltaren:

Sant. Väldigt klokt. Och ja det är ju så man kör sig. Varför gjorde jag så borde gjort så här. Lite dyrt med sånt här dock... Jag tänker att jag köper grunden till datorn. Inga kort och diskar innan jag testat Vilket som funkar som jag vill. Verkar inte finnas någon mjukvaru raid 6 till Windows? Då hade jag vågat köppa allt direkt.

Jag tycker att Windows är lite sådär när det gäller redundanta filsystem.

Det finns Storage Spaces (http://techgenix.com/windows-10-storage-spaces/) men jag hade själv aldrig kört detta.

Microsoft har lite dåligt track record när det handlar om att ha långvarig support för olika lagringslösningar. Det som de intruducerade i Win Home server (https://www.howtogeek.com/howto/36458/9-alternatives-for-wind...) har de har slutat underhålla.

På jobbet satt vi upp ett Hyper-V cluster (inkl lagring) där MS hade problem (erkända buggar) i implementationen där klustret tappade diskpoolen titt som tätt. Slutade med att vi testade 3 (tror jag) patchar åt MS för att komma till rätta med problemet.

Så nej - vad du än gör använd inte Windows till att sätta upp ett redundant filsystem, du blir besviken när det väl börjar strula.
Du får bättre support i olika internet forum om du använder någon av NAS paketen.

Redundant disklösning i Win Home Server (inte Win 8 som jag skrev först)
Visa signatur

Dator: MSI X570 Tomahawk, AMD 5600x, 64 GB RAM, 2xNVMe, 2xSATA SSD, 10 GBit NIC, Grafik Nvidia 3060 12 GB RAM
Skärm: Dell U4025QW 40" ultrawide Bärbar dator: MBA M1
Synology DS1821+ (10Gbit) - Dockers, VM, Surveillance Station 11 kameror
DS3612xs (10Gbit) - Backup sparas till denna från ovan
Skrev jag något vettig? "Tumme up":a så vet jag att det fanns nytta i min post.

Permalänk
Medlem
Skrivet av Gustav-P:

Jag tycker att Windows är lite sådär när det gäller redundanta filsystem.

Det finns Storage Spaces (http://techgenix.com/windows-10-storage-spaces/) men jag hade själv aldrig kört detta.

Microsoft har lite dåligt track record när det handlar om att ha långvarig support för olika lagringslösningar. Det som de intruducerade i Win 8 har jag för mig att de har slutat underhålla (kommer inte ihåg namnet).

På jobbet satt vi upp ett Hyper-V cluster (inkl lagring) där MS hade problem (erkända buggar) i implementationen där klustret tappade diskpoolen titt som tätt. Slutade med att vi testade 3 (tror jag) patchar åt MS för att komma till rätta med problemet.

Så nej - vad du än gör använd inte Windows till att sätta upp ett redundant filsystem, du blir besviken när det väl börjar strula.
Du får bättre support i olika internet forum om du använder någon av NAS paketen.

Ok då köper jag inget kort innan jag vet att freenas alternativt unbutu funkar på datorn. Hw får vara plan c då.

Permalänk
Avstängd
Skrivet av krigelkorren:

Tror det är "Striped Mirror VDEV" du tänker på...
Men det är enklare att säga RAID10 med ZFS!

Ser ut att stämma, hade vart lättare om man kortare ner det SMV.

Detta ska vara det bästa sättet för att få ut så mycket prestanda ur diskarna, som dom skriv på deras forum.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av superegg:

Ser ut att stämma, hade vart lättare om man kortare ner det SMV.

Detta ska vara det bästa sättet för att få ut så mycket prestanda ur diskarna, som dom skriv på deras forum.

Håller helt med om det, det är väldigt effektivt för både läs/skriv prestanda om man har många VDEV's som man Stripar. Kör det på massvis av storage servrar för att slippa gå över till den dyrare flash-lagringen som inte lämpar sig lika väl för alla ändamål.

-Och ja, namnet är en lång beskrivning av en effektiv metod. SMV vore helt klart ett bättre namn/förkortning.

"RAID 10 med ZFS" är ju risky som fan att använda som benämnning egentligen. Även om man själv tar till det när man skall förklara syftet/principen för någon.

Dem som inte är fullt lika insatta kan ju tro att man faktiskt bara använder sig av ZFS-filsystemet på en vanlig SW/HE RAID 10 så som det låter, vilket är totalt fel, då det inte tillför något praktiskt så som ZFS är tänkt att användas (utan några mellanliggande lager av RAID).

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Avstängd

@Faltaren:

Gör som jag har gjort då spar du pengar på det med.

Kör med FreeNAS med HBA kort går att få tag på ebay till ett okej pris, sen så skaffa du dig två 10 gigabit nätverkskort helst SFP+ så att du kan köra med SFP+ kabel och koppla ihop det till din speldator, och skit i router/switch så kan du komma åt allt via NFS V4.2 eller smb tänkt på att du behöver en slog disk och den disken måste ha mer iops än dina HDD samt gärna ha skriv/läs hastighet mer än alla dina HDD för att få ut så mycket prestanda tänkt även på att du måste skydda slog disken med Striped Mirror VDEV, om slog disken går sönder så förstörs hela din pool och då förlora allt.

Om du bara ska ha den till en dator så kommer du får ut mycket bra prestanda, mina fördelas på över 20-40 VM.

Du kan inte köra FreeNAS utan slog disk, det går om man väljer att ta bort synk detta kan man göra först för att se hur snabba dom blir.

Gör inte mitt misstag att jag köpte två svindyr slog disk som kostar totalt över 12 tusen men dom hade så dålig iops så mina HDD diskar inte kan köra full speed.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Avstängd
Skrivet av krigelkorren:

Håller helt med om det, det är väldigt effektivt för både läs/skriv prestanda om man har många VDEV's som man Stripar. Kör det på massvis av storage servrar för att slippa gå över till den dyrare flash-lagringen som inte lämpar sig lika väl för alla ändamål.

-Och ja, namnet är en lång beskrivning av en effektiv metod. SMV vore helt klart ett bättre namn/förkortning.

"RAID 10 med ZFS" är ju risky som fan att använda som benämnning egentligen. Även om man själv tar till det när man skall förklara syftet/principen för någon.

Dem som inte är fullt lika insatta kan ju tro att man faktiskt bara använder sig av ZFS-filsystemet på en vanlig SW/HE RAID 10 så som det låter, vilket är totalt fel, då det inte tillför något praktiskt så som ZFS är tänkt att användas (utan några mellanliggande lager av RAID).

aa, ZFS behöver fullkontroll över sina diskar, med raid kort så får inte ZFS kontroll över diskarna.

Man kan ju säga mjukvaru raid 10.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av superegg:

@Faltaren:

Gör som jag har gjort då spar du pengar på det med.

Kör med FreeNAS med HBA kort går att få tag på ebay till ett okej pris, sen så skaffa du dig två 10 gigabit nätverkskort helst SFP+ så att du kan köra med SFP+ kabel och koppla ihop det till din speldator, och skit i router/switch så kan du komma åt allt via NFS V4.2 eller smb tänkt på att du behöver en slog disk och den disken måste ha mer iops än dina HDD samt gärna ha skriv/läs hastighet mer än alla dina HDD för att få ut så mycket prestanda tänkt även på att du måste skydda slog disken med Striped Mirror VDEV, om slog disken går sönder så förstörs hela din pool och då förlora allt.

Om du bara ska ha den till en dator så kommer du får ut mycket bra prestanda, mina fördelas på över 20-40 VM.

Du kan inte köra FreeNAS utan slog disk, det går om man väljer att ta bort synk detta kan man göra först för att se hur snabba dom blir.

Gör inte mitt misstag att jag köpte två svindyr slog disk som kostar totalt över 12 tusen men dom hade så dålig iops så mina HDD diskar inte kan köra full speed.

Vad är slog disk? Tack för tipsen 😊

Permalänk
Avstängd
Skrivet av Faltaren:

Vad är slog disk? Tack för tipsen 😊

Den kallas även för cache disk, man skulle kunna beskriver det som en mellanhand när du skriver till disken så går den via slog disken sen till dina diskar, detta ha med iops att göra på HDD diskar då dom har så lite och inte kan göra så mycket uppgifter så har man löst det med ett ha en mycket bättre disk som hantera det och sen fördelas det på HDD diskarna då klara den av mycket mer uppgifter.

Men jag har aldrig testat utan slog disk med SMB, men NFS/iscsi kräver det för att ens funka med säkerhet (synk).

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av superegg:

Den kallas även för cache disk, man skulle kunna beskriver det som en mellanhand när du skriver till disken så går den via slog disken sen till dina diskar, detta ha med iops att göra på HDD diskar då dom har så lite och inte kan göra så mycket uppgifter så har man löst det med ett ha en mycket bättre disk som hantera det och sen fördelas det på HDD diskarna då klara den av mycket mer uppgifter.

Men jag har aldrig testat utan slog disk med SMB, men NFS/iscsi kräver det för att ens funka med säkerhet (synk).

Läste igen. Måste man ha 4 diskar för cache? Låter ju galet. Tänkte köra z2.

Permalänk
Medlem
Skrivet av superegg:

aa, ZFS behöver fullkontroll över sina diskar, med raid kort så får inte ZFS kontroll över diskarna.

Man kan ju säga mjukvaru raid 10.

Blir nog tyvärr inte helt rätt ändå med "mjukvaru raid 10" heller. Då du kan köra den traditionella RAID 10 med såväl hårdvaru som mjukvaru raid. Problemet blir detsamma då själva traditionella RAID:en kommer bli till ett "mellanlager" för ZFS som då ej får exklusiv åtkomst till diskarna som ingår i RAID:en.

ZFS är ju helt enkelt ett filsystem i grund och botten, som du med fördel även kan använda på liknande, men ej samma, sätt som traditionell RAID.
Troligtvis är det också därför som de har egna benämningar som RAID-Z1, RAID-Z2, RAID-Z3, för att det just innebär en stor skillnad, inte alltid i teorin, men i praktiken.
Så egentligen kanske "RAID-Z10" hade varit ett mer logiskt namn för SMV, sett till de övriga ZFS nivåerna av RAID.
Men i sammanhanget hade det också blivit fel efter som Zx i första hand syftar på antalet paritetsdiskar

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Quizmaster Göteborg 2023

@Faltaren:
Det är inga problem att nå 16 disk, men du gör det bäst i etapper om 2x8.

Dvs, köp av 8 disk i stöten.

Permalänk
Medlem
Skrivet av zRk-:

@Faltaren:
Det är inga problem att nå 16 disk, men du gör det bäst i etapper om 2x8.

Dvs, köp av 8 disk i stöten.

Så jag tänkte med. Hittade en kalkylator. Då tappade man bara 20% och det är ju bättre än vanlig raid 6. Annan fråga när vi ändå är igång. Om jag har Windows i en VM. Måste jag ha ett eget nätverkskort för det ska kunna kommunicera med freenas och resten av nätverket eller kan man göra det virtuellt? Sitter ju på samma moderkort.

Permalänk
Medlem
Skrivet av Faltaren:

Så jag tänkte med. Hittade en kalkylator. Då tappade man bara 20% och det är ju bättre än vanlig raid 6. Annan fråga när vi ändå är igång. Om jag har Windows i en VM. Måste jag ha ett eget nätverkskort för det ska kunna kommunicera med freenas och resten av nätverket eller kan man göra det virtuellt? Sitter ju på samma moderkort.

Du kan specifikt ge en VM direkttillgång till en viss hårdvara, men normalt så delar de på "allt", inklusive nätverk, lagring, gpu, etc.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av RHWarrior:

Du kan specifikt ge en VM direkttillgång till en viss hårdvara, men normalt så delar de på "allt", inklusive nätverk, lagring, gpu, etc.

Ok men vad händer om freenas och vm har samma nätkort och ska kommunicera? Går det? Känns som en krock

Permalänk
Quizmaster Göteborg 2023
Skrivet av Faltaren:

Så jag tänkte med. Hittade en kalkylator. Då tappade man bara 20% och det är ju bättre än vanlig raid 6. Annan fråga när vi ändå är igång. Om jag har Windows i en VM. Måste jag ha ett eget nätverkskort för det ska kunna kommunicera med freenas och resten av nätverket eller kan man göra det virtuellt? Sitter ju på samma moderkort.

Du kommer tappa mer om du håller dig inom ramen för hur mkt free space som är rekomenderat.
ZFS optimerar kraftigt annorulunda efter 80-90-95% fyllnadsgrad, i stort rekomenderar FreeNASfolket att du håller dig under 80% use av formatterat utrymme, idiothelst under 90%.

Exempel, med 7x6TB i Raidz2 och 80% fyllnadsgrad motsvar det 20TB data. (ZFS/FreeNAS är lurigt med hur mkt som är exakt in use och exakt free, vilket till en början är frustrerande, sedan inser man att man ändå absolut inte ska spela på marginalerna i detta system och plötsligt spelar det inte alls så stor roll).

Permalänk
Quizmaster Göteborg 2023

Vad gäller ZFS calculator är detta den enda rimliga, kodad och scrutinized av freenasforumets högdjur.
https://jsfiddle.net/Biduleohm/paq5u7z5/1/embedded/result/

Permalänk
Medlem
Skrivet av Faltaren:

Ok men vad händer om freenas och vm har samma nätkort och ska kommunicera? Går det? Känns som en krock

Hypervisorn sköter det, varje VM-gäst har (minst ett) virtualiserat interface, som bryggas via värden, så alla kan prata med varandra.
Fungerar helt utan konstigheter.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av RHWarrior:

Hypervisorn sköter det, varje VM-gäst har (minst ett) virtualiserat interface, som bryggas via värden, så alla kan prata med varandra.
Fungerar helt utan konstigheter.

Grymt

Permalänk
Medlem
Skrivet av zRk-:

Du kommer tappa mer om du håller dig inom ramen för hur mkt free space som är rekomenderat.
ZFS optimerar kraftigt annorulunda efter 80-90-95% fyllnadsgrad, i stort rekomenderar FreeNASfolket att du håller dig under 80% use av formatterat utrymme, idiothelst under 90%.

Exempel, med 7x6TB i Raidz2 och 80% fyllnadsgrad motsvar det 20TB data. (ZFS/FreeNAS är lurigt med hur mkt som är exakt in use och exakt free, vilket till en början är frustrerande, sedan inser man att man ändå absolut inte ska spela på marginalerna i detta system och plötsligt spelar det inte alls så stor roll).

Du menar alltså att man inte ska fylla mer än 80%?

Permalänk
Medlem

Tack för all hjälp allihopa 😊

Permalänk
Quizmaster Göteborg 2023
Skrivet av Faltaren:

Du menar alltså att man inte ska fylla mer än 80%?

Det finns naturligtvis en smula slack
Men om du nu ska göra något annat än att arkivera data, så lär du inte vilja ha mer än 85% fyllt.
vid 90% blir det stört segt.

ZFS gillar massor med ledig yta och mycket RAM. Det är då det blir fett snabbt och kul.

Ska du bara chilla ner semesterbilder av mindre oersättbar karaktär, och vill få max nytta av dina diskar är troligen unraid bättre.

Men om du bryr dig om dataintegritet och vill ha det mest kompetenta filsystemet där ute - har du lite läsning att göra för att kalibrera dina förväntningar.