Permalänk

Fråga om ZFS

Tjo.
Jag kör Truenas Core och tänkte göra om min ZFS pool.
Just nu så har jag ingen redudans alls.
Jag har 4 st 2tb diskar som sitter i en ZFS utan backup.
Jag har även 2 st 4 tb diskar varav jag jobbar på att tömma den ena just nu. Den andra är tom.
Så min fråga är,
Kan jag sätta upp 2x2tb diskar som en "raid0" och sedan resterande 2 2tb diskar på samma sätt så att dessa blir 2 4tb diskar och sedan skapa en ZFS med samtliga diskar så att det blir en total 12tb partition där jag kan tappa en disk utan att information går förlorad?

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem

Jag tror att det rekommenderade i ditt fall är att göra en vdev med 3+1 av 2 tb diskarna och en mirror av 2x4tb. Sen kan du stoppa båda vdev'en i samma pool om du vill för att få en stor 10tb pool. Då kan du tappa en och i bästa fall 2 diskar utan att tappa någon data.

Stoppar man olika stora diskar i ett zfs-vdev så kommer den minsta disken bestämma hur mycket som kommer nyttjas av de större diskarna om du vill ha paritet.

Edit: Typo

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Medlem

Nästan, du kan spegla dina 2Tb-diskar två och två, och spegla de två 4Tb-diskarna så att du får 3 st "vdev". Sen sätter du ihop dessa tre till en "partition" (zpool) som du tänker.

Edit: lösningen som @rebben föreslår fungerar också, då får du ca 2Tb extra till priset av lite mer komplexitet. Min lösning ger 8Tb totalt. Det går inte att få 12Tb med redundans med de diskar du har.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem

Hm, vet inte om jag tänker rätt här men... För varje "raid0" hårdvarupool du har så får du inte förlora en enda disk, för då ryker hela den poolen. Sen är det då beroende på hur du gör med ZFS så finns RAIDZ1. som är som en hårdvaru RIAD5, men den är inte beroende av hårdvaran den sitter i på samma sätt.
Du kommer inte kunna nyttja 100% av all diskyta och få vettig redundans på datan utan du behöver ha någon disk som "kan gå förlorad".

EDIT: Ah, du hade fått andra svar där av någon som kanske kan ZFS bättre

Visa signatur

Sugen på att spela lite äldre spel? Glid in på www.braindrainlan.nu och kolla när vi skall ha nästa LAN eller gå med vår Discord för att spela online https://www.braindrainlan.com/

Permalänk

En vän rekommenderar zraid5.
Kan detta vara något?

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem
Skrivet av Hasseman84:

En vän rekommenderar zraid5.
Kan detta vara något?

Ett vdev (virtual device) kan ha olika typer av blockscheman

Mirror är i princip samma som raid1
Striping har ingen redundans utan är i princip raid0.
Raid-z1 är en disks redundans och är i princip raid5.
Raid-z2 två diskars redundans som raid6
... och så vidare med raid-z3 ...

Har du diskar med olika storlekar i samma vdev så kommer den minsta diskens kapacitet gälla även på de större diskarna så dina 4tb diskar kommer endast ses som 2tb om det är en 2tb disk med i vdev'et.

En pool kan bestå av ett eller flera vdev. Förlorar du ett ingående vdev så går hela poolen åt helvete. Det är i poolen du sen skapar partitioner.

Så vill du ha en disks paritet med med maximal lagring så är det ett Raid-z1 vdev med 2tb 3+1 och ett vdev med 1+1 mirror med 4tb diskarna för 10tb. Här kan du tappa 1-2 diskar beroende på vilka som failar.

Lägger du alla diskarna i samma vdev så får du Raid-z1 5+1 och alla diskar behandlas som 2tb-diskar, dvs 10tb även där. Här kan du endast tappa en disk.

Du kan även göra 3 st mirror-vdev som @Oegat nämner ovan vilket är det säkraste men du tappar lite lagring. du kan förlora 1-3 diskar beroende på vilka som failar men det blir bara 8tb.

Om man lägger varje vdev i en varsin pool så får man lite extra skydd då inte allt går åt helvete samtidigt men då får man inte en enda stor disk. Det handlar om vad du prioriterar mest.

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Skrivet av Rebben:

Ett vdev (virtual device) kan ha olika typer av blockscheman

Mirror är i princip samma som raid1
Striping har ingen redundans utan är i princip raid0.
Raid-z1 är en disks redundans och är i princip raid5.
Raid-z2 två diskars redundans som raid6
... och så vidare med raid-z3 ...

Har du diskar med olika storlekar i samma vdev så kommer den minsta diskens kapacitet gälla även på de större diskarna så dina 4tb diskar kommer endast ses som 2tb om det är en 2tb disk med i vdev'et.

En pool kan bestå av ett eller flera vdev. Förlorar du ett ingående vdev så går hela poolen åt helvete. Det är i poolen du sen skapar partitioner.

Så vill du ha en disks paritet med med maximal lagring så är det ett Raid-z1 vdev med 2tb 3+1 och ett vdev med 1+1 mirror med 4tb diskarna för 10tb. Här kan du tappa 1-2 diskar beroende på vilka som failar.

Lägger du alla diskarna i samma vdev så får du Raid-z1 5+1 och alla diskar behandlas som 2tb-diskar, dvs 10tb även där. Här kan du endast tappa en disk.

Du kan även göra 3 st mirror-vdev som @Oegat nämner ovan vilket är det säkraste men du tappar lite lagring. du kan förlora 1-3 diskar beroende på vilka som failar men det blir bara 8tb.

Om man lägger varje vdev i en varsin pool så får man lite extra skydd då inte allt går åt helvete samtidigt men då får man inte en enda stor disk. Det handlar om vad du prioriterar mest.

Tack. Jag får se hur jag skall göra. Får prata mer med min vän som lovat att hjälpa. Vill även ha lite input från er med.
Truenas kommer att köras i Proxmox.

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem

Hyffsad video som förklarar skillnader på olika typer ZFS vdev config på hög nivå, jämför dem med för och nackdelar, samt vissa enklare prestandatester.

https://www.youtube.com/watch?v=ykhaXo6m-04

Visa signatur

stationär 2022: ryzen 7900x@65W, asus strix x670e-f, 32GB, rx6700xt
stationär 2012: i5-3570k@stock, asus p8z77-v le, 16GB, rtx2660s
laptop: ryzen 4800H, 16GB, rtx2060 (Legion 5 15ARH05H)
laptop: i5-2467M, 8GB
nas/server: i5-8400, asus WS C246M PRO/SE, 48GB

Permalänk
Medlem

En fördel som inte nämnts med att köra speglade diskar såsom Oegat föreslog är att du då kan uppgradera genom att byta ut två stycken (dvs ett speglat par) 2 TB-diskar mot något större vid ett senare tillfälle. Kör du istället en RAID-Z1 med alla fyra 2 TB-diskarna behöver du byta ut alla 4 samtidigt när du vill uppgradera.

2 TB-diskar är väldigt små i dagsläget, jag tror inte du kommer vilja köra med dem för all framtid...

Nackdelen med ZFS är just att det inte går att "rekonfigurera" i någon större utsträckning så det gäller att tänka på framtiden. Det är en av anledningarna till att det är vanligt att rekommendera att ha zpool:er bestående av vdevs som är speglade ("RAID-10"). Man kan då både enkelt lägga till fler speglade par, och uppgradera befintliga genom att bara köpa två större diskar.

Permalänk

Tack för alla förslag.
Jag tänkte en annan sak om det går.
Att jag sätter 2 st 2tb diskar i en hårdvaru raid så att det blir en 4tb disk. Och sedan sätta upp en zfs med alla diskar.
Kanske inte går?

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem
Skrivet av Hasseman84:

Tack för alla förslag.
Jag tänkte en annan sak om det går.
Att jag sätter 2 st 2tb diskar i en hårdvaru raid så att det blir en 4tb disk. Och sedan sätta upp en zfs med alla diskar.
Kanske inte går?

Om du stripar 2x2 TB till 4 TB så dubblas risken för diskhaveri. Verkligen inte att rekommendera till annat än som korttidslagring. Förr använde man striping till t.ex. videoproduktion för att öka hastigheten, och kopierade sedan materialet till mer stabil lagring när arbetsdagen var över. Numera är det SSD som gäller för allt som kräver hög hastighet. Till ZFS i en NAS vill jag påstå att striping bara är riskabelt och onödigt.
Lägger du en stripad vdev i en pool med andra diskar ökar det risken för att hela poolen förstörs.

Kör inte hårdvaru-RAID och ZFS samtidigt. Med hårdvaru-RAID abstraheras SMART-info bort så att systemet inte kan följa status på diskarna ordentligt. Man blir också beroende av den specifika hårdvaru-kontrollern man har, och skulle den fallera är det högst osäkert om man kan stoppa in diskarna i en annan modell/märke för att få data tillbaka.
Eller du kanske menade mjukvaru-RAID? Bäst att låta ZFS sköta allt sånt med sin mjukvara och inte blanda in andra RAID-system, oavsett om de är hårda eller mjuka.

Jag håller med tidigare svar om att bästa användningen av 2TB-diskar är att spegla dem, eftersom man då enkelt kan utöka poolen senare. Kort sagt funkar det så här:
- Börja med en 2+2 TB mirror. Det ger 2 TB tillgänglig lagring eftersom diskarna kopierar varandras innehåll.
- Lägg till en ny disk, så att man t.ex. med en ny 10TB speglar 2+2+10 TB).
- Resilver. Det ger då identisk 2TB data på varje disk, men ger bara 2 TB tillgängligt.
- Ta bort en av 2TB-diskarna. Då får man en mirror med 2+10 TB.
- Lägga till en till 10TB disk, så att man får en mirror med 2+10+10 TB.
- Resilver. Ger fortfarande bara 2 TB tillgängligt.
- Ta bort den andra 2TB-disken. Voilá: det blir en mirror med 10 TB tillgängligt.

Visa signatur

Dator: Ja
Telefon: Ja

Permalänk
Skrivet av oooskar:

Om du stripar 2x2 TB till 4 TB så dubblas risken för diskhaveri. Verkligen inte att rekommendera till annat än som korttidslagring. Förr använde man striping till t.ex. videoproduktion för att öka hastigheten, och kopierade sedan materialet till mer stabil lagring när arbetsdagen var över. Numera är det SSD som gäller för allt som kräver hög hastighet. Till ZFS i en NAS vill jag påstå att striping bara är riskabelt och onödigt.
Lägger du en stripad vdev i en pool med andra diskar ökar det risken för att hela poolen förstörs.

Kör inte hårdvaru-RAID och ZFS samtidigt. Med hårdvaru-RAID abstraheras SMART-info bort så att systemet inte kan följa status på diskarna ordentligt. Man blir också beroende av den specifika hårdvaru-kontrollern man har, och skulle den fallera är det högst osäkert om man kan stoppa in diskarna i en annan modell/märke för att få data tillbaka.
Eller du kanske menade mjukvaru-RAID? Bäst att låta ZFS sköta allt sånt med sin mjukvara och inte blanda in andra RAID-system, oavsett om de är hårda eller mjuka.

Jag håller med tidigare svar om att bästa användningen av 2TB-diskar är att spegla dem, eftersom man då enkelt kan utöka poolen senare. Kort sagt funkar det så här:
- Börja med en 2+2 TB mirror. Det ger 2 TB tillgänglig lagring eftersom diskarna kopierar varandras innehåll.
- Lägg till en ny disk, så att man t.ex. med en ny 10TB speglar 2+2+10 TB).
- Resilver. Det ger då identisk 2TB data på varje disk, men ger bara 2 TB tillgängligt.
- Ta bort en av 2TB-diskarna. Då får man en mirror med 2+10 TB.
- Lägga till en till 10TB disk, så att man får en mirror med 2+10+10 TB.
- Resilver. Ger fortfarande bara 2 TB tillgängligt.
- Ta bort den andra 2TB-disken. Voilá: det blir en mirror med 10 TB tillgängligt.

Tack. Mitt problem är just nu att det finns inga pengar att köpa nya diskar för.
Just nu försöker jag att få möjligheten att uppgradera till en NVME i min primära dator så att jag får lös dom 2 480gb SATA SSD som jag har i datorn så att jag kan köra dessa i en raid1 till Proxmox.

Så som det ser ut just nu så kommer det nog att bli så att jag speglar w 4 tb diskar och kör en raidz1 på 2 tb diskarna (3+1).

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem
Skrivet av Hasseman84:

Tack för alla förslag.
Jag tänkte en annan sak om det går.
Att jag sätter 2 st 2tb diskar i en hårdvaru raid så att det blir en 4tb disk. Och sedan sätta upp en zfs med alla diskar.
Kanske inte går?

Ja, jag förstod senare att det var något sådant du var inne på när du frågade om en array med 12Tb användbart utrymme. Grundproblemet är att ZFS minsta enhet är det som kallas vdev, som kan vara en spegel eller raidz(1,2,3 etc) men inte stripe*. Sedan kan man stripa flera vdev, men det motsatta (göra en spegel eller raidz av flera stripes) går inte.

* Edit: Jag hade fel, en vdev kan vara en stripe, men det finns inget sätt att skapa en redundant konfiguration som innehåller en sådan vdev.

Som @oooskar skriver är det nog tekniskt möjligt att först bygga 2st mjukvaru-raidvolymer (stripe) med 2x2Tb diskar i varje, och sen bygga en frankestein-zpool med en raidz1-vdev bestående av dina två 4Tb-diskar och dina två "fejk"-4Tb diskar som mjukvaruraiden skapat. Den skulle få 3x4Tb lagring + 4TB paritet = 12Tb tillgängligt utrymme. Jag tror (utan att ha testat) att ZFS rent praktiskt skulle tillåta en sådan lösning, men det är som sagt inte rekommenderat. Ett ytterligare problem med att lägga in extra lager mellan ZFS och de fysiska diskarna är att den inbyggda felkorrigeringen i ZFS behöver information om de fysiska diskarna för att kunna hantera trasiga sektorer korrekt. Du får inte bara den adderade risken för fel på stripe-volymen pga stripingen, utan också att fel som ZFS annars hade kunnat korrigera leder till att hela stripen faller bort.

Dokumentationen för OpenZFS har ungefär en sida med argument varför man inte ska blanda ZFS och hårdvaru-raid, det mesta gäller också för mjukvaru-raid.

Så, ovanstående lösning "for the lulz" och testa vad som händer med data som man kan förlora, visst. Men knappast värt det för endast 2Tb extra användbart utrymme.

Rättelse
Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Medlem
Skrivet av Hasseman84:

Tjo.
Jag kör Truenas Core och tänkte göra om min ZFS pool.
Just nu så har jag ingen redudans alls.
Jag har 4 st 2tb diskar som sitter i en ZFS utan backup.
Jag har även 2 st 4 tb diskar varav jag jobbar på att tömma den ena just nu. Den andra är tom.
Så min fråga är,
Kan jag sätta upp 2x2tb diskar som en "raid0" och sedan resterande 2 2tb diskar på samma sätt så att dessa blir 2 4tb diskar och sedan skapa en ZFS med samtliga diskar så att det blir en total 12tb partition där jag kan tappa en disk utan att information går förlorad?

Jag är helt med på hur du tänker, gjorde själv en sådan lösning för länge sedan, dock i vanlig linux-miljö med typ mdadm. Har ej testat om det går att få till samma på ZFS, vet du om TrueNAS Scale tillåter nästlade raid-nivåer? I så fall borde det gå teoretiskt. Och ja, det borde då även teoretiskt medför att valfri disk faller bort utan informationsförlust förutsatt att du kör den resulterande poolen som RaidZ (Raid-5).

Användbart utrymme kommer såklart inte vara summan av diskarna (2+2+2+2+4+4=16), utan kommer landa någonstans runt 11TB då det ses som en RaidZ med 4st 4TB, där "en disk går bort i paritet" samt viss ytterligare lagring går åt till metadata etc.

Rättade till beräkning för användbart utrymme
Visa signatur

Gränser är till för att tänjas!

Permalänk
Medlem
Skrivet av Hasseman84:

Tack för alla förslag.
Jag tänkte en annan sak om det går.
Att jag sätter 2 st 2tb diskar i en hårdvaru raid så att det blir en 4tb disk. Och sedan sätta upp en zfs med alla diskar.
Kanske inte går?

Jag har gjort något liknande i Linux när jag ville ersätta en 4TB-disk med två stycken 2TB i min ZFS-array.
Men istället för raid0 så använde jag LVM för att slå ihop de två diskarna till en 4TB stor lagringsenhet som jag sedan stoppade in som en 4TB disk i ZFS-arrayen. Det är lite större risk med detta då det är större sannolikhet att någon av de två diskarna går sönder än en enda disk. Å andra sidan körde jag raidz2, alltså två diskars redundans i ZFS så det kändes som en OK temporär lösning att ersätta en av diskarna med LVM fram tills jag hade köpt en ny 4TB disk.

Hur som helst detta fungerade utan problem. Men det blir lite rörigare setup.

Jag har dessutom backup på min ZFS array så risken om den pajar är mera att det blir extra jobb och nertid att återskapa från backupen jämfört med att bara byta en disk. Men det är ingen katastrof.

Permalänk

Det går nog att få 12TB med en disks redundans utan att blanda in raid, om man partitionerar 4TB-diskarna till 2x2TB.

4st 2TB diskar (A, B, C, D)
2st 4TB diskar (E, F) partitioneras till 4st 2TB partitioner (E1, E2, F1, F2)

vdev1: raidz1 på A, B, E1, F1 (6TB)
vdev2: raidz1 på C, D, E2, F2 (6TB)
Gör en 12TB zpool av vdev1 + vdev2

Så länge du inte har båda E-partitionerna eller båda F-partitionerna i samma vdev så klarar du fortfarande att en disk, vilken som helst, går sönder. Däremot lider säkert prestandan av att dela disk mellan två vdevs.

Permalänk
Medlem

Har kört zfs sedan 2009, i slutändan blev det enklast att köra raid1+0, kört både raidz1(5) och raidz2(6) och raidz3(7?)

Du får sämre utrymmes utnyttjande idag, men bättre längre fram och smidigare och minst lika bra redundans. Plus bättre fart.

När du väl vill utöka utrymmet, så behöver du bara köpa 2st diskar och lägga till dessa till poolen som en mirror.
Eller byta ut ett befintligt par om det är slut på fysiskt utrymme i chassit, tex 2st 2tb till 2st 8tb.

När diskarna är 4tb och större så går det betydligt mkt snabbare med resilver vid raid1+0 än vid "raidzX"

Med de andra raiderna så måste du byta ut alla diskar för att få mer utrymme. Så på längre sikt blir det både billigare och smidigare att få mer utrymme, tänk dig att du satt på 2TB när det kom och låste fast dig i raidz6...Några år senare var 8TB+ diskarna riktigt billiga, köpa 2st och bam rätt mkt mer utrymme, men att köpa 6-8st 8TB+...onödigt när de gamla diskarna kanske fungerar bra fortfarande och dyrt. För i det första scenariot när du utökat med 2st 8TB+ och det är dags igen några år senare så kan du utöka med 2st 18TB+....istället för återigen med samtliga diskar i en raidz...

Visa signatur

Gaming: Playstation 5 | Server: FreeBSD | Supermicro A2SDi-HLN4F | Atom C3758 | Fractal Design Define C | 64GB ECC RAM | HTPC: RPi5 | LibreElec | Chromecast | Laptop: MacBook Air M1 2020 | Phone: iPhone 14 | AP: 2pcs Ubiquity Unifi | Router: Vanilla FreeBSD + Packet Filter FW

Permalänk
Medlem
Skrivet av Quim:

Har kört zfs sedan 2009, i slutändan blev det enklast att köra raid1+0, kört både raidz1(5) och raidz2(6) och raidz3(7?)

Du får sämre utrymmes utnyttjande idag, men bättre längre fram och smidigare och minst lika bra redundans. Plus bättre fart.

När du väl vill utöka utrymmet, så behöver du bara köpa 2st diskar och lägga till dessa till poolen som en mirror.
Eller byta ut ett befintligt par om det är slut på fysiskt utrymme i chassit, tex 2st 2tb till 2st 8tb.

När diskarna är 4tb och större så går det betydligt mkt snabbare med resilver vid raid1+0 än vid "raidzX"

Med de andra raiderna så måste du byta ut alla diskar för att få mer utrymme. Så på längre sikt blir det både billigare och smidigare att få mer utrymme, tänk dig att du satt på 2TB när det kom och låste fast dig i raidz6...Några år senare var 8TB+ diskarna riktigt billiga, köpa 2st och bam rätt mkt mer utrymme, men att köpa 6-8st 8TB+...onödigt när de gamla diskarna kanske fungerar bra fortfarande och dyrt. För i det första scenariot när du utökat med 2st 8TB+ och det är dags igen några år senare så kan du utöka med 2st 18TB+....istället för återigen med samtliga diskar i en raidz...

Inte implementerat i TrueNAS Core än, kanske i Scale, men det går nu mera att utöka RAID-Z vdevs med enskilda diskar.

https://freebsdfoundation.org/blog/openzfs-raid-z-expansion-a...

Permalänk

Tack alla för era råd.
Nu kommer lite mer frågor här.
Moderkortet har 6 Sata kanaler. Jag har även en äldre RAID kontroller med 4 portar.
Lite längre fram så vill jag byta ut denna mot en SAS kontroller.

Så som jag tänker nu är att mina 4 2tb diskar kommer att anslutas till SATA controllern.
När jag väl har råd att köpa SAS controllern och SAS -> SATA kablarna så är tanken att byta ut SATA controllern mot sas controllern.
Om jag kör en hårdvaru raid så kan jag inte flytta över denna till ny controller.
Men gå det att flytta över en raidz till en ny controller?
SATA kontrollern är väldigt gammal. PCI oh 4 st SATA150 (Sata2). Men fungerar.
Sen så har en vän även nämnt att använda en SATA SSD som en cache vilket kan snabba på uppladdning av filer.
SSD_n är på 120 gb.

Visa signatur

CPU: AMD Ryzen 5 5500 | CPU COOLER: Noctua NH-D15 | MB: MSI B-550 Gaming Plus | GPU: Gigabyte GV-RX580AORUS-8GB (Radeon RX580 8G) | RAM: 16 GB TridentZ 3200MHz DDR4 | SSD: OS/PROG/SPEL: 2x Kingston A400 480GB (Raid 0) | HDD (Lagring): 500 GB | Chassi: Cooler Master Storm Trooper (Windowed) | PSU: Coolermaster V1200 | Skärmar: 3x24" ACER - G246HLBbid 60hz + 1x24" ACER - GN246HLB 144hz

Permalänk
Medlem
Skrivet av Hasseman84:

Om jag kör en hårdvaru raid så kan jag inte flytta över denna till ny controller.
Men gå det att flytta över en raidz till en ny controller?

Jag kan inte svara för hur det funkar i TrueNAS, men om man satt upp sin zpool från kommandoraden och använt /dev/disk/by-id/ata-... så är det inga problem att flytta runt dem lite hur som helst. Det är också det rekommenderade sättet att sätta upp en zpool på. Om man däremot använt /dev/sda, /dev/sdb osv så kan man behöva göra lite handpåläggning för att få det att funka efter man flyttat runt dem.

Permalänk
Medlem
Skrivet av Hasseman84:

Tack alla för era råd.
Nu kommer lite mer frågor här.
Moderkortet har 6 Sata kanaler. Jag har även en äldre RAID kontroller med 4 portar.
Lite längre fram så vill jag byta ut denna mot en SAS kontroller.

Så som jag tänker nu är att mina 4 2tb diskar kommer att anslutas till SATA controllern.
När jag väl har råd att köpa SAS controllern och SAS -> SATA kablarna så är tanken att byta ut SATA controllern mot sas controllern.
Om jag kör en hårdvaru raid så kan jag inte flytta över denna till ny controller.
Men gå det att flytta över en raidz till en ny controller?
SATA kontrollern är väldigt gammal. PCI oh 4 st SATA150 (Sata2). Men fungerar.
Sen så har en vän även nämnt att använda en SATA SSD som en cache vilket kan snabba på uppladdning av filer.
SSD_n är på 120 gb.

TrueNAS (och även andra ZFS-lösningar jag testat) har för mig aldrig haft problem när jag flyttat diskar mellan olika controllers. Men som jag tror redan nämnts så ska du undvika hårdvaru-raid. Många hårdvaru-raidkort går att flasha om firmware på så de skippar raid och kör ren pass-through. Har för mig att på de LSI-kort jag kört så har raid-firmware "IR" i namnet och man flashar då om dem till något med "IT" i namnet. Om du är begränsad till att använda hw-raidkort och ej kan nå riktig passthrough skulle jag rekommendera att presentera varje disk som en egen raid-0'a (så 4st 2TB diskar skulle visas som 4st separata 2TB raid-0 volymer)

Själva metadatan om hur dina volymer ser ut ligger lagrad på din vanliga data på diskarna och om/när du lyfter in dem i ett nytt system så räcker det oftast att köra "Import Exsiting pool" och den dyker upp helt automagiskt. https://www.truenas.com/docs/core/13.0/coretutorials/storage/...

Vad gäller att använda en SSD som L2ARC eller ZIL som jag tror din vän menar finns det många åsikter och teorier om. Det kan i teorin låta som en självklarhet men har för mig att inte alltid ger den boost man tror. Skulle rekommendera att du läser in dig lite mer på ämnet innan du bestämmer dig. Tyvärr har jag inte så mycket mer konkret info i frågan.

Lycka till med dina planer, ska bli intressant att följa ditt bygge

Visa signatur

Gränser är till för att tänjas!