Permalänk
Medlem
Skrivet av The Door:

Tackar för kollen

Planen är:
1 Nas4Free eller liknande (kanske testar ZFSGuru)
2 VM för övervaktning och styrning av temperaturer etc 1-wirenät samt nexa och kanske z-wave
3 VM för Minecraft server
4 VM för pfsense

Det är vad första planen är

1
ZFS är ju rätt minnesintensivt, rekommendation är 1GB minne per TB HDD du stoppar in. Det går givetvis att ha mindre minne men på bekostnad av prestanda.
ex, Jag stoppade i 5st 3TB diskar, 5*3 = 15TB det blir 15GB minne till bara diskarna, sedan behöver operativet lite osv så 16GB blev nog bra.
Även om jag kör dessa i RADIZ1 och bara kan nyttja strax över 11TB så är det ändå 15TB man skall räkna på, om jag förstått det rätt.

2
Nog rätt OS beroende. Kör du någon nanoBSD så kan du säkert komma undan med 100-500MB minne.

3
Ingen aning vad en minekraft server kräver kolla deras spec.

4
Kolla deras hardware requerment section men minimum på minne är 256MB, sen är det nog mer cpu som sätter begränsningar i prestanda på olika tjänster där. Jag gav den 1GB

Så sammanfattningsvis är det ZFS volymen du behöver ha mest koll på för att veta om 16GB minne räcker.

Permalänk
Medlem
Skrivet av Stenull:

1
ZFS är ju rätt minnesintensivt, rekommendation är 1GB minne per TB HDD du stoppar in. Det går givetvis att ha mindre minne men på bekostnad av prestanda.
ex, Jag stoppade i 5st 3TB diskar, 5*3 = 15TB det blir 15GB minne till bara diskarna, sedan behöver operativet lite osv så 16GB blev nog bra.
Även om jag kör dessa i RADIZ1 och bara kan nyttja strax över 11TB så är det ändå 15TB man skall räkna på, om jag förstått det rätt.

2
Nog rätt OS beroende. Kör du någon nanoBSD så kan du säkert komma undan med 100-500MB minne.

3
Ingen aning vad en minekraft server kräver kolla deras spec.

4
Kolla deras hardware requerment section men minimum på minne är 256MB, sen är det nog mer cpu som sätter begränsningar i prestanda på olika tjänster där. Jag gav den 1GB

Så sammanfattningsvis är det ZFS volymen du behöver ha mest koll på för att veta om 16GB minne räcker.

Vilka härliga svar, tack

Jag kör nu bara 5st 1TB diskar i RAID-Z2 så kanske klarar mig på att snåla i början, kan ju alltid bygga ut
(har ej råd att byta ut dessa just nu tyvärr)

Tack igen.

Permalänk
Medlem

Tyvärr har haswell arkitekturen en begränsning på 32GB minne
tänker mig om du i framtiden tänker byta till 4-5TB diskar, eller större, så smäller det ju till lite.
Men för tillfället borde 16GB räcka.

Permalänk
Medlem

Som det ser ut nu har jag bara 1TB data lagrat på dem, kanske om jag börjar rippa min blåstrålesamling, men det är långt fram då haha.
Funderar nu på kanske 3st 4TB eller liknande i Raid-Z1
men det får vänta i alla fall

Så 32G känns säkert

Permalänk
Medlem
Skrivet av Stenull:


Han inte med så jätte mycket. Testkörde en test build av memtest86. Dom håller på att implementera ECC error injektion för E3v3 CPU. Dom har ingen sådan CPU själv så jag var vänlig och ställde upp.
Diskarna kom på platts, freenas såg dom utan problem via VT-d -> LSI. RAIDZ volym byggd. Sedan ropade frugan, kan du inte komma och lägga dig!?!? /: så då tog det stopp...
På det ikväll igen...

Kul att du börjar komma igång med din maskin! Är det memtest86 eller memtest86+ du menar?
http://www.memtest86.com/
http://www.memtest.org/

Visa signatur

[ 3.6GHz EM64T | 2GB DDR2 533MHz | 2x160GB 8MB | 256MB X850XT PE | Audigy2 ZS | 24" TFT | GigaWorks 7.1 | DVD+/-RW DL ]
[ 2.2GHz Northwood | 1 GB RDRAM | GF4 Tit 4600 | 1x80 2x120 1x250 | 19" Trinitron | 18,1" TFT ]
[ Börja om från början... Formatera om på nytt! ]

Permalänk
Medlem
Skrivet av Nixus:

Kul att du börjar komma igång med din maskin! Är det memtest86 eller memtest86+ du menar?
http://www.memtest86.com/
http://www.memtest.org/

Passmarks memtest.
http://www.memtest86.com/

Permalänk
Medlem

Finns inget som säger att man ska ha 1GB RAM per TB lagring om man inte kör deduplicering (men det gör man ju inte).

Visa signatur

RIPE LIR

Permalänk
Medlem

Hmm hittar inte nu var jag läste att det var best practice,, måste varit någon freenas doc /:
Dedupe rekommenderar dom 5GB / TB i freenas doc...
Givetvis är det inte ett måste med 1GB/TB men ZFS skulle må bra av det. Ska skumma vidare och se om jag hittar, kan varit nogot Solaris doc med.. Var något år sedan jag läste på om det...

Permalänk
Medlem
Skrivet av Stenull:

Kingston minnen är ajabaja för detta moderkort!

PHEW! Bra att jag kom över denna tråden, köpte (vid misstag faktiskt) ett Supermicro X10SLH-F för att uppgradera min NAS till ECC minnen etc, men va lite väl snabb så missade att det va mATX o inte mini-itx som mitt gamla chassi stöder, så blev nytt chassi, det bästa jag kunde hitta i 'liten' storlek, vill egentligen ha Silverstone DS380, men efter mycket fram o tillbaka får det bli moderkortet jag redan har med Lian Li pc-v354B som ju finns för bra pris just nu.

Men va såå nära beställa Kingston minnen, då blir det inte Kingston minnen ändå.. får tacka TS för detta.

BTW: någon som vet när man får köpt E3-1240Lv3? Hittar E3-1230Lv3 men inga som har 1240L3..?!

Visa signatur

Main: Acer X32FP Fortress II Ryzen 5900X ROG Strix B550-F Wifi II RTX 3080 Ducky Shine 6 SH HD650 O2 amp + DAC Audioengine 2+ Samsung 970 Evo Plus 1TB + Kingston FURY Renegade 2TB
Server: Lian Li PC-V354B X11SCH Xeon E-2176G 64GB ECC RAM LSI 9207-8i
Media: Sony KD-65XF9005 Sony HT-ZF9 nVidia Shield TV pro 2019
nVidia Shield TV pro 2015 SSD Yamaha HS-5

Permalänk
Medlem
Skrivet av Stenull:

Hmm hittar inte nu var jag läste att det var best practice,, måste varit någon freenas doc /:
Dedupe rekommenderar dom 5GB / TB i freenas doc...
Givetvis är det inte ett måste med 1GB/TB men ZFS skulle må bra av det. Ska skumma vidare och se om jag hittar, kan varit nogot Solaris doc med.. Var något år sedan jag läste på om det...

Kan vara så att 1GB/TB disk är best practice när man har många användare. Men hur mycket som behövs beror helt på vilken prestanda man vill ha och hur man använder servern.
http://hardforum.com/showpost.php?p=1040045751&postcount=11 säger sig ha hyffsad koll på zfs och det verkar som det är en missuppfattning att man behöver den mängden minne. Han länkar också till http://en.wikipedia.org/wiki/ZFS#ZFS_cache:_ARC_.28L1.29.2C_L... där det står att det är en missuppfattning, om det är sant eller ej vet jag inte.

Har läst om det här tidigare på flera olika ställen och mitt minne säger mig att det är en tumregel, väldigt grov, för företagstillämpningar. Så man har ett hum på hur mycket minne man kan börja sina prestandamätningar med.

Men det som däremot verkar stämma är att ZFS självklart vill ha så mycket minne som möjligt, för prestandamässigt är det klart man vill ha allt i minnet hela tiden. Och ska man köra dedupe så måste man verkligen hålla tungan rätt i munnen samtidigt som man fläskar på med massor av minne.

Det här är bara vad jag läst mig till. Min användning av ZFS sker än så länge bara via FreeNas för lagring av våra bilder och backup av några datorer. Har inte brytt mig om att göra några prestandamätningar då jag just nu upplever prestandan som tillräcklig. Jag kör med 8GB för 2*3TB mirror.

Permalänk
Medlem
Skrivet av Tossen:

Kan vara så att 1GB/TB disk är best practice när man har många användare. Men hur mycket som behövs beror helt på vilken prestanda man vill ha och hur man använder servern.
http://hardforum.com/showpost.php?p=1040045751&postcount=11 säger sig ha hyffsad koll på zfs och det verkar som det är en missuppfattning att man behöver den mängden minne. Han länkar också till http://en.wikipedia.org/wiki/ZFS#ZFS_cache:_ARC_.28L1.29.2C_L... där det står att det är en missuppfattning, om det är sant eller ej vet jag inte.

Har läst om det här tidigare på flera olika ställen och mitt minne säger mig att det är en tumregel, väldigt grov, för företagstillämpningar. Så man har ett hum på hur mycket minne man kan börja sina prestandamätningar med.

Men det som däremot verkar stämma är att ZFS självklart vill ha så mycket minne som möjligt, för prestandamässigt är det klart man vill ha allt i minnet hela tiden. Och ska man köra dedupe så måste man verkligen hålla tungan rätt i munnen samtidigt som man fläskar på med massor av minne.

Det här är bara vad jag läst mig till. Min användning av ZFS sker än så länge bara via FreeNas för lagring av våra bilder och backup av några datorer. Har inte brytt mig om att göra några prestandamätningar då jag just nu upplever prestandan som tillräcklig. Jag kör med 8GB för 2*3TB mirror.

Bra skrivit. det är väll egentligen min uppfattning också. bara den där generella tumregeln som fått övertaget hos mig

Permalänk
Medlem

Bara för att vi började prata om FreeNas och prestanda så gjorde jag en väldigt enkel prestanda mätning. Jag kopierade helt enkelt över en 40GB+ fil från FreeNas maskinen till min Win8 burk. Jag låg och nosade på 1Gbit hela tiden, där sätter mitt nätverk stopp.

Jag kör FreeNas på en NL54L med 8GB minne och en mirror pool på 2*3GB.

Där jag önskar mer prestanda är när jag gör backup av FreeNas till externa USB diskar. Där blir det bara 20-30MB/s. Och det beror endast på USB diskarna.

Så för en vanlig hemanvändare som har sina bilder och backup av datorer på sin FreeNas så behöver man inte jättemycket kraft. Men det är som jag alltid säger. Vad man behöver och vad man vill ha är olika saker. hehe

Permalänk
Medlem
Skrivet av Tossen:

Bara för att vi började prata om FreeNas och prestanda så gjorde jag en väldigt enkel prestanda mätning. Jag kopierade helt enkelt över en 40GB+ fil från FreeNas maskinen till min Win8 burk. Jag låg och nosade på 1Gbit hela tiden, där sätter mitt nätverk stopp.

Jag kör FreeNas på en NL54L med 8GB minne och en mirror pool på 2*3GB.

Där jag önskar mer prestanda är när jag gör backup av FreeNas till externa USB diskar. Där blir det bara 20-30MB/s. Och det beror endast på USB diskarna.

Så för en vanlig hemanvändare som har sina bilder och backup av datorer på sin FreeNas så behöver man inte jättemycket kraft. Men det är som jag alltid säger. Vad man behöver och vad man vill ha är olika saker. hehe

Hmm vad har du för diskar?? Jag kopierade 1TB från en FreeNas på 4*500GB diskar i RADIZ1 med 8GB minne till FreeNas med 5*3TB diskar i RAIDZ1 och 16GB minne över 1GB nät. mitt snitt blev 456Mb/s alltså knappt en halv Gbit. Ungefär där läsning från 4 mekaniska diskar i RAIDZ1 bör ligga om jag minns rätt...
Hur fan lyckas du maxa en 1Gb lina med två mekaniska diskar? 15K spinnare? låter ändå lite väl mycket...

btw du menar 2*3TB väll?

Permalänk
Medlem
Skrivet av Stenull:

Hmm vad har du för diskar?? Jag kopierade 1TB från en FreeNas på 4*500GB diskar i RADIZ1 med 8GB minne till FreeNas med 5*3TB diskar i RAIDZ1 och 16GB minne över 1GB nät. mitt snitt blev 456Mb/s alltså knappt en halv Gbit. Ungefär där läsning från 4 mekaniska diskar i RAIDZ1 bör ligga om jag minns rätt...
Hur fan lyckas du maxa en 1Gb lina med två mekaniska diskar? 15K spinnare? låter ändå lite väl mycket...

btw du menar 2*3TB väll?

Du blandar ihop Gbit och GB. Halv Gbit ~ 60MB/s vilket är långt under vad man kan läsa i RAIDZ1 (däremot så är läshastigheten i RAIDZ1 lika med läshastigheten för den långsammaste disken så om dina 500GB-diskar inte klarar mer än 60MB/s så är det väl rimligt).
En modern disk kan läsa i över 100MB/s vilket fyller en Gbit-lina men det gäller förstås att mottagaren kan ta hand om datat lika snabbt. RAIDZ1 har ju viss performance penalty även vid skrivning.

Visa signatur

RIPE LIR

Permalänk
Medlem
Skrivet av tomle:

Du blandar ihop Gbit och GB. Halv Gbit ~ 60MB/s vilket är långt under vad 4 diskar läser i RAIDZ1.
En modern disk kan läsa i över 100MB/s vilket fyller en Gbit-lina men det gäller förstås att mottagaren kan ta hand om datat lika snabbt. RAIDZ1 har ju viss performance penalty vid skrivning.

Fan, du har säkert rätt det är ju tidig morgon och jag försökte verkligen hålla tungan i rätt mun när jag räknade på det, men det flög kanske in en tankevurpa någonstans.
kolla på resultatet i denna post..
Det står i Bytes/sec och jag får det bara till ~0,456 Gbit/s när jag räknar om det...
Flaskar skrivningen till mina 5*3 diskar verkligen så mycket? Här måste ligga en hund begraven...

EDIT tillägg:
500gb diskarna är WD black diskar, tror läsningen på dem ligger runt 60MB/s, var ett tag sedan jag bänkmarchade dem...

Permalänk
Medlem

1 byte är 8 bit!
Glöm aldrig det

(Följer denna tråden och det är intressant tjöt som pågår.)

Visa signatur

Stationär: Intel Core i7 3770k @ 4,3GHz [Phanteks PH-TC14PE] | Asus P8Z77-V LX | 16GB DDR3 | GeForce GTX760 2GB | Samsung 840 EVO 500GB SSD | Corsair HX650 | Scythe Kaze Master II Skärmar: Asus MG278Q | AG Neovo L-W27
Bärbar: Lenovo X240 | Intel Core i7 | 256GB SSD | 8GB | 12.5" FHD touch | 4G
Server: 2x HP DL380 G7 | Intel Xeon L5640 | håller på att handla...

Permalänk
Medlem
Skrivet av steele:

1 byte är 8 bit!
Glöm aldrig det

(Följer denna tråden och det är intressant tjöt som pågår.)

japp och 4bit = 1 nibble

Permalänk
Medlem
Skrivet av Stenull:

Hmm vad har du för diskar?? Jag kopierade 1TB från en FreeNas på 4*500GB diskar i RADIZ1 med 8GB minne till FreeNas med 5*3TB diskar i RAIDZ1 och 16GB minne över 1GB nät. mitt snitt blev 456Mb/s alltså knappt en halv Gbit. Ungefär där läsning från 4 mekaniska diskar i RAIDZ1 bör ligga om jag minns rätt...
Hur fan lyckas du maxa en 1Gb lina med två mekaniska diskar? 15K spinnare? låter ändå lite väl mycket...

btw du menar 2*3TB väll?

Korrekt att jag menar TB.

Och vad jag ser så har du redan fått svar på frågan om hur man lyckas maxa en 1Gb lina. Men just jag gör det med 2 st WD Red diskar. Mottagande dator kör SSD, det har alla mina desktop gjort de senaste 7 åren.

Permalänk
Medlem
Skrivet av Tossen:

Korrekt att jag menar TB.

Och vad jag ser så har du redan fått svar på frågan om hur man lyckas maxa en 1Gb lina. Men just jag gör det med 2 st WD Red diskar. Mottagande dator kör SSD, det har alla mina desktop gjort de senaste 7 åren.

Min hjärna hade nog inte startat ordentligt i morse.. Ändå skumt att min överföring inte kom upp i mer än 0,45Gbit/s
Kollar jag på mottagarens skrivprestanda så är sämsta resultat 65.1MB/s (vet inte hur jag skall räkna ut en teoretisk skrivprestanda men gör ett försök, det haltar säkert).
5 diskar i RADIZ1 kan man säga att man har 4 tillgängliga.
4* 60MB/s (tog bort 5MB/s för att kompensera lite) = 240 MB/s = 1920 Mb/s, alltså borde mottagaren med råge kunna svälja vad som går att leverera över min lina :/
Där är säkert en tankevurpa ovan, hur hade ni räknat?
Får hem och göra lite tester, fundera och läsa lite i lugn och ro över julhelgen.

Permalänk
Medlem
Skrivet av Stenull:

Hmm vad har du för diskar?? Jag kopierade 1TB från en FreeNas på 4*500GB diskar i RADIZ1 med 8GB minne till FreeNas med 5*3TB diskar i RAIDZ1 och 16GB minne över 1GB nät. mitt snitt blev 456Mb/s alltså knappt en halv Gbit. Ungefär där läsning från 4 mekaniska diskar i RAIDZ1 bör ligga om jag minns rätt...
Hur fan lyckas du maxa en 1Gb lina med två mekaniska diskar? 15K spinnare? låter ändå lite väl mycket...

btw du menar 2*3TB väll?

När data läses från en ZFS-spegel nyttjas samtliga diskar i samma spegling. För två diskar med en konstant läshastighet på ca 100 MB/s innebär det en teoretisk maximal läshastighet på 200 MB/s för en tvåvägsspegel, 300 MB/s för en trevägs. När jag läste denna tråden blev jag tvungen att själv testa lite mot en spegel med 2x 3TD WD Red där läshastigheten via SMB/Samba konstant låg runt 100 MB/s till min desktop. (Skrivhastigheten var också i snarlik hastighet utan att diskarna fick jobba fullständigt. Med dd kom jag upp i högre hastigheter än vad 1 Gbit.)

Det finns dock mycket annat som påverkar överföringshastigheten än bara diskuppsättningen:

  • Kontrollerkort

  • Övrig belastning på systemet

  • Fragmentering i lagringen (gäller för både server och klient)

  • Nätverkshårdvara som i nätverkskort, switchar samt firmware och drivrutiner till dessa (ett vanligt problem som påverkar nätverksbaserad överföring)

  • Protokoll så som Samba, SMB, NFS, iSCSI, dess implementationer samt versioner

Nu kan också enskilda hårddiskar krångla. I FreeBSD/FreeNAS rekommenderar jag övervakning av dem genom t.ex. gstat. Är hastigheten låg kan t.ex. en hårddisk jobba mycket mer än övriga (ligger vanligtvis nära 100% hela tiden samtidigt som övriga kanske ligger på 50%). Detta var mycket användbart när jag kunde se krånglade diskar i en egen raidz som jag har hemma. Efter att de diskarna hade bytts ut blöev prestandan märkbart bättre.

Skrivet av tomle:

Du blandar ihop Gbit och GB. Halv Gbit ~ 60MB/s vilket är långt under vad man kan läsa i RAIDZ1 (däremot så är läshastigheten i RAIDZ1 lika med läshastigheten för den långsammaste disken så om dina 500GB-diskar inte klarar mer än 60MB/s så är det väl rimligt).
En modern disk kan läsa i över 100MB/s vilket fyller en Gbit-lina men det gäller förstås att mottagaren kan ta hand om datat lika snabbt. RAIDZ1 har ju viss performance penalty även vid skrivning.

Likt ZFS-speglar är läshastigheten i form av bandbredd är en ackumulering av samtliga diskars bandbredd, inklusive paritet, i en raidz utifrån vad jag kunnat observera. Däremot är det helt rätt att I/O per sekund (IOPS) begränsas till den långsamaste hårddisken i en raidz (egentligen en vdev men en raidz kan endast vara en vdev och inget annat). IOPS kan givetvis påverka hastigheten beroende på hur fragmenterad lagringen är, vad för data som läses samt att checksummor ska verifieras, med flera.

Jag gjorde nyss ett eget test hemmavid med min raidz bestående av 3x 4TB HGST 7200RPM. Enskilt klarar de av läsning och skrivning upp mot ca 170 MB/s och troligtvis mer IOPS än t.ex. WD Red på grund av rotationshastigheten. Vid läsning över SMB/Samba som i runda slängor låg konstant över 100 MB/s så lästes det konstant ca 30-40 MB/s från varje enskild disk. I detta fall var det bulkdata som ej var särskilt fragmenterad vilket innebar att diskarna inte ens var i närheten av att svettas. Med gstat kunde jag se att de jobbade i ca 30-50% (varierade givetvis en del).

Skrivet av Stenull:

Min hjärna hade nog inte startat ordentligt i morse.. Ändå skumt att min överföring inte kom upp i mer än 0,45Gbit/s
Kollar jag på mottagarens skrivprestanda så är sämsta resultat 65.1MB/s (vet inte hur jag skall räkna ut en teoretisk skrivprestanda men gör ett försök, det haltar säkert).
5 diskar i RADIZ1 kan man säga att man har 4 tillgängliga.
4* 60MB/s (tog bort 5MB/s för att kompensera lite) = 240 MB/s = 1920 Mb/s, alltså borde mottagaren med råge kunna svälja vad som går att leverera över min lina :/
Där är säkert en tankevurpa ovan, hur hade ni räknat?
Får hem och göra lite tester, fundera och läsa lite i lugn och ro över julhelgen.

Som jag skrev ovan så är räkning nog korrekt förutsagt att samtliga diskar kan upprätthålla en läshastiget i ca 60 MB/s. Ta gärna en titt i gstat på båda sidor för att se att inga hårddiskar agerar flaskhals. Hur utfördes överföringen? Var det via Samba, NFS, scp/rcp, eller kanske ZFS send/receive? Scp eller ZFS send via ssh kommer t.ex. innebära begränsning för kryptering och dekryptering vilket klart påverkar prestandan (där hamnar jag runt ca 50 MB/s på samma datorer som klarar av att maxa linan via Samba/SMB).

Vid skrivning av mycket data kan även metaslabs i ZFS spela roll. Har man många tomma metaslabs innan överföring kan de utnyttjas istället för att fylla upp redan användna som kan ha allt mellan 10 MB och 10 GB ledigt. Vid byte av metaslab krävs ny sökning på hårddiskarna (IOPS) vilket i sin tur påverkar skrivhastigheten. Är datan man läser väldigt utspridd (fragmenterad) kommer det även påverkar läsning. Nu har jag tyvärr inte kvar länkarna om detta men med lite googlande bör man kunna hitta dem igen.

För att kolla hur ens metaslabs ser ut på en pool kör man:

zdb -m <pool>

I min raidz-pool hade jag tidigare 3x 2TB som användes en hel del. De nfylldes aldrig upp men data skyfflades ofta undan, togs bort eller lades till. Efter byte av varje disk till 4TB har jag nu dubbla lagringskapaciteten i samma poo (detta slutfördes rätt nyligen)l. Vid en titt på metaslabsen kan man se att efter ungefär hälften av dem är nästan samtliga helt tomma medan de tidigare varierar stort (skiftet sker vid metaslab 174 av 348 st):

vdev 0 metaslabs 349 offset spacemap free --------------- ------------------- --------------- ------------- metaslab 0 offset 0 spacemap 33 free 14.0G metaslab 1 offset 800000000 spacemap 34 free 10.2G metaslab 2 offset 1000000000 spacemap 42 free 1.22G metaslab 3 offset 1800000000 spacemap 43 free 1.37G metaslab 4 offset 2000000000 spacemap 44 free 1.31G metaslab 5 offset 2800000000 spacemap 45 free 10.2G metaslab 6 offset 3000000000 spacemap 46 free 12.5G metaslab 7 offset 3800000000 spacemap 49 free 1.22G metaslab 8 offset 4000000000 spacemap 50 free 980M ... metaslab 163 offset 51800000000 spacemap 1647 free 1.24G metaslab 164 offset 52000000000 spacemap 283 free 12.6G metaslab 165 offset 52800000000 spacemap 1813 free 29.8G metaslab 166 offset 53000000000 spacemap 1929 free 1.51G metaslab 167 offset 53800000000 spacemap 2172 free 27.7G metaslab 168 offset 54000000000 spacemap 133 free 21.2G metaslab 169 offset 54800000000 spacemap 134 free 32.0G metaslab 170 offset 55000000000 spacemap 137 free 28.6G metaslab 171 offset 55800000000 spacemap 139 free 16.2G metaslab 172 offset 56000000000 spacemap 140 free 20.6G metaslab 173 offset 56800000000 spacemap 141 free 9.8G metaslab 174 offset 57000000000 spacemap 0 free 32G metaslab 175 offset 57800000000 spacemap 0 free 32G metaslab 176 offset 58000000000 spacemap 0 free 32G metaslab 177 offset 58800000000 spacemap 0 free 32G metaslab 178 offset 59000000000 spacemap 0 free 32G metaslab 179 offset 59800000000 spacemap 0 free 32G ... metaslab 344 offset ac000000000 spacemap 0 free 32G metaslab 345 offset ac800000000 spacemap 0 free 32G metaslab 346 offset ad000000000 spacemap 0 free 32G metaslab 347 offset ad800000000 spacemap 0 free 32G metaslab 348 offset ae000000000 spacemap 0 free 32G

Metaslabsen kanske inte behöver säga något men kan nog ändå ge en indikation på hur det kan bete sig, eller varför det beter sig som det gör.

Vid felsökning rekommenderar jag att titta på följande:

  • Testa bandbredd med hjälp av iperf mellan noderna. Gärtna åt båda håll samt med olika "fönster storlekar". Exempelvis följande varianter på klientsidan:

    iperf -c <server> iperf -c <server> -w 64K iperf -c <server> -w 64K -P 2 iperf -c <server> -w 64K -P 10 iperf -c <server> -w 128K

    Jag misstänker att det i samtliga kombinationer ej kommer att nå upp till en Gbit. Dock värt att kolla och se att bandbredden ens kan komma i närheten av det. Parametern "-P" anger antalet simultana överföringar (1 som standard) och "-w" är fönsterstorlek som anger hur stora chunkar data som skall skickas (standard är 8K).

  • Försök att undvika integrerade nätverkskort från t.ex. Realtek. Även om det ibland kan fungera som det ska för vissa så kan det ändå bli problem. T.ex. har jag själv ett i min desktop men prestandan varier stort beroende på hur jag utför nätverksöverföringen. Skriver jag till en specifik hårddisk går det väldigt stötvis trots att den hårddisken utan problem kan skriva bra kontinuerligt (kan eventuellt ha med kontrollerkort på desktop, dåliga drivrutiner eller liknande att göra).
    Det kan även vara andra saker så som att RSS ej är påslaget eller andra konstiga beteenden pga nätverkskort, drivrutiner och firmware.

  • Övervaka diskaktivitet med hjälp av gstat. Då gstat listar alla blockenheter (hårddiskar, partitioner, zvols, glabels, krypterade enheter, m.fl.) så är det bekvämt att köra med ett filter, t.ex. följande för att endast se hårddiskar i form av ada eller da:

    gstat -f '^a?da[0-9]+$'

    Sticker någon eller några diskar ut över en längre tid kan det vara ett tecken på att något inte fungerar som det ska. Stora variationer kan ofta förekomma så att t.ex. en hårddisk tillfälligt jobbar i 100% medan övriga knappt jobbar behöver inte innebära något problem.

  • Vanligtvis används dd av många för att mäta hur snabb man kan skriva eller läsa till en zpool. Man ska dock vara försiktig med de resultaten ibland i och med att data lätt cachas upp vilket påverkar testade läshastigheter (gäller även skrivning om filsystemscache är tillgängligt). För att inte tala om att man lätt kan förstöra data om man inte hanterar det väl. För en snabb indikation tillsammans med gstat kan det dock vara bra. dd har en förmåga att belasta hårddiskar väldigt mycket och då kan man ibland se vad hur vissa diskar beter sig när de belastas hårt.

  • Testa olika protokoll. T.ex. är Samba väldigt singeltrådat vilket kan agera flaskhals. Med NFS kan man utföra asynkrona skrivningar och ange i hur stora chunkar data ska läsas/skrivas vilket kan ge en ytterligare prestandaboost.

Som avslutande ord så känns ZFS som en helt vetenskap. Det finns otroligt mycket man måste hålla reda på för att få till och bibehålla bra prestanda/funktionalitet för just sina behov. Min rekommendeation är att se till att läsa på samt labba mycket innan man börjar köra det i "produktion" då det finns mycket i ens behov och utrsutning som påverkar. Exempelvis finns det saker jag gärna hade gjort annorlunda i min filserver i och med vad jag lärt mig sedan jag satte upp den för snart två år sedan.

Nu har jag dock suttit med detta i två timmar så dags att sova! Visserligen måste man väl inleda sin julledighet

EDIT: Typo.

Visa signatur

Efter att ni har läst det här har ni insett att det inte gav något.

Permalänk
Medlem
Skrivet av Kuufukuji:

massor av matnyttig text...

Tack för inlägget! Intressant läsning.
Vet inte riktigt varför jag fortfarande skriver utan att kolla upp så mitt minne stämmer xD hade någon siffra i bakhuvud att mekaniska diskar låg på 50MB/s i läs och kunde komma upp i 100MB/s i burst,, vet i fan var jag fått det ifrån :/

Ska göra lite tester under julledigheten med ditt inlägg i tankarna rapporterar tillbaka.

Permalänk

Jag har följt ditt bygge ett tag nu, med intresse!
Jag är själv igång med ett liknande bygge, en ESXI host för ett par VM's (xeon e3-v1246v3, Supermicro X10SAE, Crucial 16gb ECC etc) lutar åt ett Seasonic G-450 80+ Gold (osäker på om 450w kommer räcka åt mitt bygge)

Då min tidigare erfarenheter inte stäcker sig långt utanför windows miljö, så ska detta med virtualisering bli väldigt roligt att börja med.

Planen var först att virtualisera freeNAS, men efter har gjort lite mer research är det många som skriver att det är fullt möjligt, men ganska krångligt, en dedikerad låda till freenas skulle dock innebära en rejäl slant ur den redan tunna budgeten, så virtualisera eller inte. input uppskattas!

Hur går det själv i bygget?

Permalänk
Medlem

Testade lite hemma och nätverket verkar ju hålla ivf

------------------------------------------------------------ Server listening on TCP port 5001 TCP window size: 85.3 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58550 [ ID] Interval Transfer Bandwidth [ 4] 0.0-10.0 sec 1.09 GBytes 938 Mbits/sec [ 5] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58615 [ 5] 0.0-10.0 sec 1.08 GBytes 927 Mbits/sec [ 4] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58624 [ 5] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58625 [ 4] 0.0-10.0 sec 558 MBytes 467 Mbits/sec [ 5] 0.0-10.0 sec 559 MBytes 468 Mbits/sec [SUM] 0.0-10.0 sec 1.09 GBytes 936 Mbits/sec [ 6] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58635 [ 4] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58633 [ 5] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58632 [ 7] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58634 [ 8] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58636 [ 9] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58637 [ 11] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58638 [ 12] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58639 [ 10] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58641 [ 13] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58640 [ 7] 0.0-10.0 sec 152 MBytes 127 Mbits/sec [ 8] 0.0-10.0 sec 154 MBytes 129 Mbits/sec [ 11] 0.0-10.0 sec 19.2 MBytes 16.1 Mbits/sec [ 10] 0.0-10.0 sec 150 MBytes 125 Mbits/sec [ 13] 0.0-10.0 sec 24.5 MBytes 20.5 Mbits/sec [ 6] 0.0-10.0 sec 151 MBytes 126 Mbits/sec [ 4] 0.0-10.0 sec 149 MBytes 124 Mbits/sec [ 5] 0.0-10.0 sec 149 MBytes 125 Mbits/sec [ 9] 0.0-10.0 sec 151 MBytes 126 Mbits/sec [ 12] 0.0-10.0 sec 19.6 MBytes 16.4 Mbits/sec [SUM] 0.0-10.0 sec 1.09 GBytes 935 Mbits/sec [ 14] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58656 [ 14] 0.0-10.0 sec 1.09 GBytes 937 Mbits/sec [ 4] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58665 [ 5] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58666 [ 6] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58667 [ 7] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58668 [ 8] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58669 [ 9] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58670 [ 10] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58674 [ 11] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58671 [ 12] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58672 [ 13] local 192.168.1.2 port 5001 connected with 192.168.1.194 port 58673 [ 4] 0.0-10.0 sec 202 MBytes 169 Mbits/sec [ 5] 0.0-10.0 sec 179 MBytes 150 Mbits/sec [ 6] 0.0-10.0 sec 192 MBytes 160 Mbits/sec [ 7] 0.0-10.0 sec 158 MBytes 132 Mbits/sec [ 8] 0.0-10.0 sec 187 MBytes 157 Mbits/sec [ 9] 0.0-10.0 sec 139 MBytes 116 Mbits/sec [ 11] 0.0-10.0 sec 16.1 MBytes 13.5 Mbits/sec [ 10] 0.0-10.0 sec 16.8 MBytes 14.0 Mbits/sec [ 12] 0.0-10.0 sec 16.0 MBytes 13.4 Mbits/sec [ 13] 0.0-10.0 sec 15.8 MBytes 13.2 Mbits/sec [SUM] 0.0-10.0 sec 1.10 GBytes 938 Mbits/sec

Dold text

Och sedan andra vägen

------------------------------------------------------------ Server listening on TCP port 5001 TCP window size: 128 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 59508 [ ID] Interval Transfer Bandwidth [ 4] 0.0-10.0 sec 1.09 GBytes 936 Mbits/sec [ 4] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 60577 [ 4] 0.0-10.0 sec 1.09 GBytes 938 Mbits/sec [ 4] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33083 [ 5] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33084 [ 4] 0.0-10.0 sec 519 MBytes 435 Mbits/sec [ 5] 0.0-10.0 sec 600 MBytes 503 Mbits/sec [SUM] 0.0-10.0 sec 1.09 GBytes 938 Mbits/sec [ 4] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33098 [ 5] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33099 [ 6] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33100 [ 7] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33101 [ 8] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33102 [ 9] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33103 [ 10] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33104 [ 11] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33105 [ 12] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33106 [ 13] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33107 [ 4] 0.0-10.0 sec 97.8 MBytes 81.8 Mbits/sec [ 6] 0.0-10.0 sec 113 MBytes 94.4 Mbits/sec [ 7] 0.0-10.0 sec 114 MBytes 95.0 Mbits/sec [ 9] 0.0-10.0 sec 112 MBytes 93.5 Mbits/sec [ 5] 0.0-10.0 sec 118 MBytes 98.9 Mbits/sec [ 8] 0.0-10.0 sec 113 MBytes 94.6 Mbits/sec [ 10] 0.0-10.0 sec 112 MBytes 93.4 Mbits/sec [ 11] 0.0-10.0 sec 117 MBytes 97.7 Mbits/sec [ 12] 0.0-10.0 sec 116 MBytes 97.1 Mbits/sec [ 13] 0.0-10.4 sec 110 MBytes 88.9 Mbits/sec [SUM] 0.0-10.4 sec 1.10 GBytes 903 Mbits/sec [ 4] local 192.168.1.194 port 5001 connected with 192.168.1.2 port 33117 [ 4] 0.0-10.0 sec 1.07 GBytes 915 Mbits/sec

Dold text

Troligen diskarna som flaskar lite då jag inte ser dessa hastigheter vid överföring

Visa signatur

Citera så hittar jag tillbaks och kan ge svar.

Permalänk
Medlem
Skrivet av discokulan:

Jag har följt ditt bygge ett tag nu, med intresse!
Jag är själv igång med ett liknande bygge, en ESXI host för ett par VM's (xeon e3-v1246v3, Supermicro X10SAE, Crucial 16gb ECC etc) lutar åt ett Seasonic G-450 80+ Gold (osäker på om 450w kommer räcka åt mitt bygge)

Då min tidigare erfarenheter inte stäcker sig långt utanför windows miljö, så ska detta med virtualisering bli väldigt roligt att börja med.

Planen var först att virtualisera freeNAS, men efter har gjort lite mer research är det många som skriver att det är fullt möjligt, men ganska krångligt, en dedikerad låda till freenas skulle dock innebära en rejäl slant ur den redan tunna budgeten, så virtualisera eller inte. input uppskattas!

Hur går det själv i bygget?

Bygget gick fint, är rätt nöjd! Mesta har fungerat som tänkt.
Ang virtualisera freenas, det rekommenderas väll att man inte gör det. Men gör man det så rätt man kan så ser jag inget fel i det. Jag har lite basic esxi kunskaper sedan innan från jobbet så den inlärningskurvan var rätt platt. Freenas pillade jag mycket med för ca två år sedan så även om jag glömt mycket så var den inte heller främmande.
Kritiska i det är att göra passtrough med kontrollern som har hand om diskarna. Så att det inte finns något virtualiseringslager mellan diskar och freenas. Då kan man alltid(hoppas jag) ta diskarna och stoppa dom i en annan maskin om miljön går åt pepparn.

Ser att MBt du siktar på verkar a två sata kontrollers. Ta reda på om den ena går att göra passtrough med om du tänker ge dig på virtualisering. Annars måste du komplettera med ett HBA. Ibm1050, tror jag den heter, är populär för ändamålet.
Sedan så behöver du inte integrerad grafik i cpun om du tänker virtualisera.
Ser också att kortet har två PCI platser, bara kollar så du har användning för dom?

Det var lite tankar som flög upp sittandes i soffan, nu ska det julstökas ordentligt!!

God Jul på er alla!!!

Permalänk
Skrivet av Stenull:

Bygget gick fint, är rätt nöjd! Mesta har fungerat som tänkt.
Ang virtualisera freenas, det rekommenderas väll att man inte gör det. Men gör man det så rätt man kan så ser jag inget fel i det. Jag har lite basic esxi kunskaper sedan innan från jobbet så den inlärningskurvan var rätt platt. Freenas pillade jag mycket med för ca två år sedan så även om jag glömt mycket så var den inte heller främmande.
Kritiska i det är att göra passtrough med kontrollern som har hand om diskarna. Så att det inte finns något virtualiseringslager mellan diskar och freenas. Då kan man alltid(hoppas jag) ta diskarna och stoppa dom i en annan maskin om miljön går åt pepparn.

Ser att MBt du siktar på verkar a två sata kontrollers. Ta reda på om den ena går att göra passtrough med om du tänker ge dig på virtualisering. Annars måste du komplettera med ett HBA. Ibm1050, tror jag den heter, är populär för ändamålet.
Sedan så behöver du inte integrerad grafik i cpun om du tänker virtualisera.
Ser också att kortet har två PCI platser, bara kollar så du har användning för dom?

Det var lite tankar som flög upp sittandes i soffan, nu ska det julstökas ordentligt!!

God Jul på er alla!!!

Tror jag kommer klara mig gott på dem befintliga sata portsen (6 via intel PCH, 2 via AMS1061), verkar fungera med vt-d passthrough för dom.

Misstänker att det kommer vara mycket resurser kvar efter jag fått upp mina VM's, så jag hade gärna använt datorn för lite lätt bildredigering etc.
Så därför valde jag ett "workstation board" med c226 för integrerad grafik, och en processor med intel HD4600 (upp till 4k upplösning).
Det ska inte vara något problem att starta upp ett vm med windows och få full tillgång till den integrerade grafiken om jag förstått det hela rätt.

Som det ser ut nu kommer jag inte ha någon användning för några PCI slots, eller PCIe för den delen - eventuellt ett HBA/LSI i framtiden.
Väntar med spänning på att delarna ska trilla in i brevlådan!

God jul på er alla!

Permalänk
Medlem
Skrivet av roosterx:

BTW: någon som vet när man får köpt E3-1240Lv3? Hittar E3-1230Lv3 men inga som har 1240L3..?!

Får uppdatera min fråga ifall någon undrar, 25W CPU'n E3-1240Lv3 finns nu i vissa butiker, så en är nu på G till mig.

Hade först inte tänkt att köra virtualisering, men ombestämd mig nu, har ju ändå båda minnen o CPU kvar över för det ändamål.

Så blir Crucial CT2KIT102472BD160B x2 (32GB), Supermicro X10SLH-F, IBM m1015, Intel Xeon E3-1240L, Lian Li PC-V354 + dom HDD jag redan har.

Funderar köra ESXI på en 2.5" HDD(spara internal 3.5" HDD utrymme i chassit), och även installera andra virtualiserade os (Freenas) på samma HDD, några åsikter om det?

Visa signatur

Main: Acer X32FP Fortress II Ryzen 5900X ROG Strix B550-F Wifi II RTX 3080 Ducky Shine 6 SH HD650 O2 amp + DAC Audioengine 2+ Samsung 970 Evo Plus 1TB + Kingston FURY Renegade 2TB
Server: Lian Li PC-V354B X11SCH Xeon E-2176G 64GB ECC RAM LSI 9207-8i
Media: Sony KD-65XF9005 Sony HT-ZF9 nVidia Shield TV pro 2019
nVidia Shield TV pro 2015 SSD Yamaha HS-5

Permalänk
Medlem
Skrivet av roosterx:

Funderar köra ESXI på en 2.5" HDD(spara internal 3.5" HDD utrymme i chassit), och även installera andra virtualiserade os (Freenas) på samma HDD, några åsikter om det?

Jag ser ingen nackdel att köra ESXi från HDD om man har utrymme för den (fysiskt) och kan offra en SATA för det. Då får man ju plats med lite ISOs och annat skräp samt slipper styra om syslog. Själv kör jag den på en liten SSD (går blixtsnabbt att patcha och installera VM's om ISOn ligger på SSD, går också märkbart snabbare att boota än från SD-kort men det kan bero på färre HBA's mm som det ska "smakas" på än de servrar jag jämför med).

Visa signatur

i7-8700k | ASUS ROG Strix Z370-F Gaming | 2x8+2x16GB Corsair Vengeance LPX 3200 | ASUS TUF RTX 3080 OC | Samsung 860 EVO 1TB | WD Black SN850 1TB | Intel 660p 2TB | Crucial MX500 4TB | Noctua NH-U14S | Fractal Design North | Seasonic Focus Plus Gold 650FX | ASUS Xonar Essence STX