Kompakt, minimalistisk, billig och energieffektiv DIY NAS

Permalänk
Medlem

Kompakt, minimalistisk, billig och energieffektiv DIY NAS

Hej SweClockers!

Tänkte dela med mig av mitt senaste NAS bygge som har rullat ett halvår ungefär.
Den är byggd för att ta upp så lite utrymme som möjligt, dra så lite ström som möjligt, samt till ett så lågt inköpspris som möjligt. Det jag har kompromissat på är framförallt nätverkshastigheten (inget 10gbit nätverk) främst för att det drar mer ström att driva ett sådant nätverkskort samt för att jag inte behöver det i dagsläget.

Så, nu till bygget:
För att nå mina uppsatta mål så valde jag att bygga en NAS av en begagnad Intel NUC. Jag fick med 32GB minne och en 250GB m.2 sata sticka som jag satte in i min desktop, eftersom jag behöver fria upp M.2 platsen till SATA chippet. Mycket ram kanske känns onödigt vid första ögonkast, men det kommer till användning eftersom jag kör ZFS som raid system. Alla HDD fack är 3D printade av egen design och finns här: https://www.thingiverse.com/thing:4516855

Fötterna är gjorda av disksvampar för ljuddämpning och skydd emot vibration så diskarna (kanske) lever några år extra. Dubbelhäftande tejp, plast-sprintar och buntband får det hela att sitta ihop (inget chassit med andra ord). Ett riktigt DIY bygge ^^

Intel NUC NUC7i5BNH
CPU: i5-7260U
RAM: 32GB DDR4-2133 SO-DIMM
BOOT DRIVE: USB3 usb minne 16GB (låst i read only mode)
SATA CONTROLLER: 6x SATA M.2 ASM1166 controller
FANS: 2x 120mm Noctua chassit fläktar, återvunna från äldre datorer. +En liten 1 tums fläkt som jag tror jag fick med i en raspberry pi byggsats som kyler sata kontrollern.
PSU: HDPLEX 250W GaN Passive AIO ATX Power Supply

DISKS: 4x 3TB WD RED + 3x 14TB (av blandat fabrikat)

Som boot-disk så valde jag att köra ett vanligt USB3 16GB minne (~100MB/s read hastighet) som jag kör i read only mode för att inte skriva sönder flash minnet. När jag gör service så stänger jag temporärt av read only mode och kör uppdateringar, sen aktiverar jag read-only igen efter en reboot.

Hela kalaset (förutom diskarna som jag ägde sedan innan) gick på 4500kr ungefär då jag återanvände fläktarna och behövde inte något chassit. Det dyraste var Intel NUC:en som jag gav 2600kr för samt PSU som gick på kanske 1500kr (om jag minns rätt). SATA kontroller och kablage är china export (Ali express).

Med 7 SATA diskar igång så drar kalaset ungefär 35W i genomsnitt så jag är riktigt nöjd med resultatet. Med en passiv PSU och Noctua fläktar så är min förhoppning att detta håller ett bra tag. Jag tror att det som kommer ge sig först är CPU fläkten, och när det händer så kommer jag förmodligen plocka ut NUC:en ur lådan och hoppas att Noctua fläktarna räcker för att kyla CPU:n

Till mjukvara kör jag Ubuntu Server med endast terminal interface för att lägga relativt lite resurser på OS. Alla tjänster hostas i docker så då slipper man även VM bös.

Hoppas ni gillar mitt bygge och tack för mig!

Besök galleriet här

Permalänk
Medlem

Vilken söt liten anordning! Vacker i sin enkelhet.

Permalänk
Medlem

Tycker det är en riktigt snygg lösning. Mindre vanligt med denna typ av kreativa lösningar idag, vilket jag tycker är synd. Så stort plus!

Hade ingen aning att det fanns sådana m2 till sata adaptrar, tack för den infon

Det enda man eventuellt kan önska är väl fläktgaller på 120mm fläktarna, o andra sidan är man väl inte där och grejar för ofta när systemet är igång.

Visa signatur

There is always a price to pay for convenient

Permalänk
Medlem

Snyggt bygge!

Permalänk
Medlem

Mycket bra och inspirerande!

Permalänk
Medlem

Grymt! Kul ide!

Får blir något sådant ifall jag ned/upp graderar från min HP.MicroServer

Visa signatur

Fractal R6 Blackout TG | ASUS TUF X670E Plus|Ryzen 7600X / H150i Elite LCD | Corsair 32GB DDR5 @6000 | 7900XTX Hellhound | nVme 500GB OS-PRG | NV2 2TB | 4TB HDD x 2 | SteelS Apex 7 | Razer Viper Ultimate | SoundBlasterX G6 + Sennheiser HD 660S | AOC 34" CU34G2X
*SERVER: HP MicroServer Gen8 - Xeon E3-1220L V2 - 16GB - 4x4TB* - PLEX - AdGuard
*MOBIL: Google Pixel 7 Pro 256GB

Permalänk
Medlem

Snyggt! Vad har du för temps? Vill du posta?

Splittar du en sata-port för att få plats med 7 diskar?
Hur strömförsöjer du diskarna?

Visa signatur

AMD 7700X (EK 240mm AIO) | ROG Strix B650E-F Gaming | Gigabyte RX 6800 XT 16GB OC | Kingston Fury 32GB DDR5 5600mhz | Kingston Fury Renegade M2 2TB | Alienware AW2723DF 280hz

Permalänk
Medlem

Vad får du för IOPS på den där? Kör lite disktester mot raiden

Visa signatur

Asus B550E-Gaming / Ryzen 5900X stock / Corsair Vengeance 32GB 3600 MHz CL18 /
ASUS TUF 4080 Gaming OC / Samsung 980 PRO 2TB PCI-Ev4 + 2TB WD Black NVME PCI-Ev3 / Corsair RM850x v2 / Acer Predator XB273UGX 1440p 270 Hz G-Sync / Phantek P500A / Arctic Cooling LF II 240mm / Evo 4 / Sennheiser IE 300 / Rode NT1-A
Synology 1621+ 6*16 / 1513+ 5*8 / LG CX 65" / XBox Series X
Ownit > Bahnhof

Permalänk
Medlem
Skrivet av Oggelito:

Splittar du en sata-port för att få plats med 7 diskar?

Han har ett 6 portars kontrollkort i m2 slotten

Visa signatur

Arbetsdator: HFX Mini. Ryzen 3600, GTX1650. Skärmar: Dell 2415

Permalänk
Medlem

100% funktion före form.... gillart... gillart skarpt!

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Skrivet av mats42:

Han har ett 6 portars kontrollkort i m2 slotten

Jo jag vet men är den sjunde intern port menar du?

Visa signatur

AMD 7700X (EK 240mm AIO) | ROG Strix B650E-F Gaming | Gigabyte RX 6800 XT 16GB OC | Kingston Fury 32GB DDR5 5600mhz | Kingston Fury Renegade M2 2TB | Alienware AW2723DF 280hz

Permalänk
Medlem
Skrivet av Oggelito:

Jo jag vet men är den sjunde intern port menar du?

Det ser så ut då en sata kabel sitter lite på sidan av de andra

Permalänk
Medlem

Nice "hemmapul"
Spontant så skulle kanske en "naken" NUC se roligare ut, kanske med vinklade SATA: https://www.startech.com/sv-se/kablar/sata18lsa1

Men ändå en massa pluspoäng för att se "ghetto" ut men ändå vara ordentligt genomtänkt

Permalänk
Hedersmedlem

Funktionalism i sin bästa form!

Inget onödigt kraffs, bara det allra nördvänligaste

Visa signatur

|| SWECLOCKERS.COM || oskar@sweclockers.com || OSkar000.se || Fototråden ||
|| Gundeman || Bartonofix || GundemanX2 || Obelinux || Nexofix || Filofix || Ircofix ||
|| Tillse att hjärnan är inkopplad innan fingrarna vidrör tangentbordet ||
|| D300 | D700 | 24/2,8 | 28/2,8 | 35/2 | 50/1,8 | 55/2,8 | 85/1,8 | 105/2,5 | 200/4 | 300/4,5 | 10-20 | 24-70/2,8 | 75-150/3,5 | 80-200/2,8 ||

Permalänk
Medlem

Sånt här saknar man ju! Kreativt DIY-bygge. I dagens läge har ju detta mer eller mindre försvunnit med molnlagring för den som inte bryr sig om vem som har tillgång till datat. Tycker det här är toppen, billigt, litet och har man enbart lagring för backup av filer (antar jag) som inte kräver någon hastighet är det ju perfekt.

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

Bra jallabygge!

Permalänk

Snyggt! Funktionalism i dess rätta benämning.
Tänker mig själv behöva något åt detta håll. Space med inslag av mindre än ITX.

Visa signatur

Wasserkühlung::5900X::ASSrock X570 TB3::2x8 Ballistix 3000@3800::6800Nitro+

Vilken leksak>> CH341-biosprogrammerare

Permalänk

Har gjort något liknande, dock hade jag ett gammal 4-disk NAS som hade dött.
Köpte likadan NUC från USA (1500kr gick den på, ink frakt och importavgift) och liknande m.2 sata kort (dock 5 portars).
Lite panelmonterings adapters för usb, rj45 och usb och en egen byggt strömförsörjning till diskarna,
19v in i rumpan (psu som tillhörde NASet från början) och sen var det bara att köra.
Rullar Plex hur fint som helst

Permalänk
Medlem
Skrivet av backlulund:

Det ser så ut då en sata kabel sitter lite på sidan av de andra

NUC har 1st SATA port 1st samt NVME.

Permalänk
Medlem

Du behöver nog byta ut svamparna mot riktigt gummi, har testat detta själv nån gång och efter en tid blir svampen komprimerad och lika hård som skivan det står på.

Permalänk

Har gjort en liknande för ett tag sedan, fast färre diskar. Har rullat på i några år nu (nu kommer den väl att strula bara för det)

Visa signatur

På tok för många datorer för att skriva här

Permalänk
Medlem

Oj vilken respons det blev! Tackar för de fina orden och hoppas jag inspirerar till fler byggen

Skrivet av Oggelito:

Snyggt! Vad har du för temps? Vill du posta?

Det varierar lite beroende på disk, men den svalaste ligger på 39 ute på kanten. Den varmaste ligger på 48 precis brevid nätagget. De i mitten ligger på 42-43 grader.

Skrivet av Oggelito:

Splittar du en sata-port för att få plats med 7 diskar?

Det sitter 1 SATA port på moderkortet.

Skrivet av Oggelito:

Hur strömförsöjer du diskarna?

Det är en passiv litet nätagg på 250W max från HDPLEX
https://hdplex.com/hdplex-fanless-250w-gan-aio-atx-psu.html

Jag kollade vilka pinnar som är 12V, 5V och jord och så kopplade jag på egen PSU kabel till alla SATA power kablar.

Skrivet av KroesusSork:

Vad får du för IOPS på den där? Kör lite disktester mot raiden

Vet inte vad IOPS hamnar på då jag inte riktigt vet hur jag ska testa IOPS men med ett dd kommando verkar som om den skriver 300-400MB/s.

dd if=/dev/urandom of=/tank/deleteme bs=128k status=progress

När den läser så fyller den alltid 1gb länken (ungefär 110MB/s)
Du får gärna förklara hur man testar iops på ett enkelt sätt

Permalänk
Medlem

!!! Riktigt praktiskt och effektivt! Inspirerande!

Visa signatur

Nätverksnörd

Permalänk
Medlem
Skrivet av Gronis93:

Vet inte vad IOPS hamnar på då jag inte riktigt vet hur jag ska testa IOPS men med ett dd kommando verkar som om den skriver 300-400MB/s.

dd if=/dev/urandom of=/tank/deleteme bs=128k status=progress

När den läser så fyller den alltid 1gb länken (ungefär 110MB/s)
Du får gärna förklara hur man testar iops på ett enkelt sätt

Så himla enkelt är det kanske inte

sudo apt install fio sudo fio --name=write_iops --directory=/PATH/DÄR/DISKEN/DU/SKA/TESTA/ÄR/MONTERAD --size=10G \ --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 \ --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 \ --iodepth_batch_submit=256 --iodepth_batch_complete_max=256

Visa signatur

Asus B550E-Gaming / Ryzen 5900X stock / Corsair Vengeance 32GB 3600 MHz CL18 /
ASUS TUF 4080 Gaming OC / Samsung 980 PRO 2TB PCI-Ev4 + 2TB WD Black NVME PCI-Ev3 / Corsair RM850x v2 / Acer Predator XB273UGX 1440p 270 Hz G-Sync / Phantek P500A / Arctic Cooling LF II 240mm / Evo 4 / Sennheiser IE 300 / Rode NT1-A
Synology 1621+ 6*16 / 1513+ 5*8 / LG CX 65" / XBox Series X
Ownit > Bahnhof

Permalänk
Medlem
Skrivet av KroesusSork:

sudo apt install fio sudo fio --name=write_iops --directory=/PATH/DÄR/DISKEN/DU/SKA/TESTA/ÄR/MONTERAD --size=10G \ --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 \ --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 \ --iodepth_batch_submit=256 --iodepth_batch_complete_max=256

Tackar! Kör emot min 3-disk z1 raid med 4k random writes:

sudo fio --name=write_iops --directory=/tank/deleteme --size=10G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 --iodepth_batch_submit=256 --iodepth_batch_complete_max=256 write_iops: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256 fio-3.28 Starting 1 process write_iops: Laying out IO file (1 file / 10240MiB) Jobs: 1 (f=1): [w(1)][100.0%][w="10.0MiB/s"][w="2562 IOPS"][eta 00m:00s] write_iops: (groupid=0, jobs=1): err= 0: pid=24412: Tue Jun 20 12:26:57 2023 write: IOPS=2967, BW=11.6MiB/s (12.2MB/s)(697MiB/60039msec); 0 zone resets slat (msec): min=63, max=132, avg=85.82, stdev=14.28 clat (usec): min=4, max=1728, avg=65.22, stdev=66.45 lat (msec): min=63, max=132, avg=85.89, stdev=14.29 clat percentiles (usec): | 1.00th=[ 20], 5.00th=[ 48], 10.00th=[ 51], 20.00th=[ 55], | 30.00th=[ 56], 40.00th=[ 56], 50.00th=[ 57], 60.00th=[ 58], | 70.00th=[ 66], 80.00th=[ 75], 90.00th=[ 84], 95.00th=[ 97], | 99.00th=[ 143], 99.50th=[ 182], 99.90th=[ 1729], 99.95th=[ 1729], | 99.99th=[ 1729] bw ( KiB/s): min= 8192, max=14364, per=99.98%, avg=11885.41, stdev=1889.95, samples=120 iops : min= 2048, max= 3591, avg=2971.33, stdev=472.49, samples=120 lat (usec) : 10=0.02%, 20=1.05%, 50=8.76%, 100=86.02%, 250=3.86% lat (usec) : 500=0.14% lat (msec) : 2=0.14% cpu : usr=0.67%, sys=43.04%, ctx=167158, majf=0, minf=58 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% issued rwts: total=0,178176,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=256 Run status group 0 (all jobs): WRITE: bw=11.6MiB/s (12.2MB/s), 11.6MiB/s-11.6MiB/s (12.2MB/s-12.2MB/s), io=697MiB (731MB), run=60039-60039msec

Jag har inga referenser men känns ok med tanke på att det är 3st hdd's i raid-z/5

Permalänk
Medlem
Skrivet av Gronis93:

Tackar! Kör emot min 3-disk z1 raid med 4k random writes:

sudo fio --name=write_iops --directory=/tank/deleteme --size=10G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 --iodepth_batch_submit=256 --iodepth_batch_complete_max=256 write_iops: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256 fio-3.28 Starting 1 process write_iops: Laying out IO file (1 file / 10240MiB) Jobs: 1 (f=1): [w(1)][100.0%][w="10.0MiB/s"][w="2562 IOPS"][eta 00m:00s] write_iops: (groupid=0, jobs=1): err= 0: pid=24412: Tue Jun 20 12:26:57 2023 write: IOPS=2967, BW=11.6MiB/s (12.2MB/s)(697MiB/60039msec); 0 zone resets slat (msec): min=63, max=132, avg=85.82, stdev=14.28 clat (usec): min=4, max=1728, avg=65.22, stdev=66.45 lat (msec): min=63, max=132, avg=85.89, stdev=14.29 clat percentiles (usec): | 1.00th=[ 20], 5.00th=[ 48], 10.00th=[ 51], 20.00th=[ 55], | 30.00th=[ 56], 40.00th=[ 56], 50.00th=[ 57], 60.00th=[ 58], | 70.00th=[ 66], 80.00th=[ 75], 90.00th=[ 84], 95.00th=[ 97], | 99.00th=[ 143], 99.50th=[ 182], 99.90th=[ 1729], 99.95th=[ 1729], | 99.99th=[ 1729] bw ( KiB/s): min= 8192, max=14364, per=99.98%, avg=11885.41, stdev=1889.95, samples=120 iops : min= 2048, max= 3591, avg=2971.33, stdev=472.49, samples=120 lat (usec) : 10=0.02%, 20=1.05%, 50=8.76%, 100=86.02%, 250=3.86% lat (usec) : 500=0.14% lat (msec) : 2=0.14% cpu : usr=0.67%, sys=43.04%, ctx=167158, majf=0, minf=58 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% issued rwts: total=0,178176,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=256 Run status group 0 (all jobs): WRITE: bw=11.6MiB/s (12.2MB/s), 11.6MiB/s-11.6MiB/s (12.2MB/s-12.2MB/s), io=697MiB (731MB), run=60039-60039msec

Jag har inga referenser men känns ok med tanke på att det är 3st hdd's i raid-z/5

min pi4:s ssd via USB-kabel gör 17.8k IOPS och mina 4 8TB:s diskar i en win2019-server via SATA-RAID gör 3999 IOPS så 3000 är ju helt klart funktionsdugligt för att titta på film.

Vill du testa READ och WRITE-prestanda så kan du köra (gissar du fattar att du ska peka katalogen till disk där du ska testa) :

sudo fio --name=write_throughput --directory=./ --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=write --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64

respektive

sudo fio --name=read_throughput --directory=./ --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=read --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64

Visa signatur

Asus B550E-Gaming / Ryzen 5900X stock / Corsair Vengeance 32GB 3600 MHz CL18 /
ASUS TUF 4080 Gaming OC / Samsung 980 PRO 2TB PCI-Ev4 + 2TB WD Black NVME PCI-Ev3 / Corsair RM850x v2 / Acer Predator XB273UGX 1440p 270 Hz G-Sync / Phantek P500A / Arctic Cooling LF II 240mm / Evo 4 / Sennheiser IE 300 / Rode NT1-A
Synology 1621+ 6*16 / 1513+ 5*8 / LG CX 65" / XBox Series X
Ownit > Bahnhof

Permalänk
Medlem
Skrivet av KroesusSork:

min pi4:s ssd via USB-kabel gör 17.8k IOPS och mina 4 8TB:s diskar i en win2019-server via SATA-RAID gör 3999 IOPS så 3000 är ju helt klart funktionsdugligt för att titta på film.

Ok, ja ssd's slår ju HDD på fingrarna när det kommer till IOPS.

Angående READ test så känns det som om den använder RAM cache då det går orimligt fort:

sudo fio --name=read_throughput --directory=/tank/deleteme --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=read --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64 [sudo] password for robin: read_throughput: (g=0): rw=read, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=64 ... fio-3.28 Starting 16 processes Jobs: 2 (f=2): [R(1),_(13),R(1),_(1)][100.0%][r="6599MiB/s"][r="6598 IOPS"][eta 00m:00s] read_throughput: (groupid=0, jobs=16): err= 0: pid=191498: Tue Jun 20 13:47:00 2023 read: IOPS=7890, BW=7907MiB/s (8291MB/s)(471GiB/60931msec) slat (msec): min=12, max=20094, avg=136.68, stdev=418.34 clat (usec): min=2, max=28287, avg=42.97, stdev=557.67 lat (msec): min=12, max=4677, avg=127.97, stdev=245.89 clat percentiles (usec): | 1.00th=[ 8], 5.00th=[ 12], 10.00th=[ 14], 20.00th=[ 16], | 30.00th=[ 17], 40.00th=[ 19], 50.00th=[ 20], 60.00th=[ 21], | 70.00th=[ 22], 80.00th=[ 23], 90.00th=[ 25], 95.00th=[ 26], | 99.00th=[ 47], 99.50th=[ 322], 99.90th=[ 9372], 99.95th=[14222], | 99.99th=[28181] bw ( MiB/s): min= 2103, max=30207, per=100.00%, avg=9347.25, stdev=629.97, samples=1546 iops : min= 2096, max=30206, avg=9345.05, stdev=629.97, samples=1546 lat (usec) : 4=0.01%, 10=1.73%, 20=54.04%, 50=43.31%, 100=0.24% lat (usec) : 250=0.17%, 500=0.11%, 750=0.11%, 1000=0.03% lat (msec) : 2=0.05%, 4=0.03%, 10=0.11%, 20=0.07%, 50=0.01% cpu : usr=0.05%, sys=24.48%, ctx=152960, majf=0, minf=934 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% issued rwts: total=480768,0,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=7907MiB/s (8291MB/s), 7907MiB/s-7907MiB/s (8291MB/s-8291MB/s), io=471GiB (505GB), run=60931-60931msec

Write blir ungefär 330MB/s

sudo fio --name=write_throughput --directory=/tank/deleteme --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=write --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64 write_throughput: (g=0): rw=write, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=64 ... fio-3.28 Starting 16 processes write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) ^Cbs: 16 (f=16): [W(16)][61.5%][w="511MiB/s"][w="511 IOPS"][eta 00m:25s] fio: terminating on signal 2 Jobs: 8 (f=7): [_(3),W(2),_(2),f(1),W(3),_(1),W(1),_(2),W(1)][65.6%][w="574MiB/s"][w="573 IOPS"][eta 00m:22s] write_throughput: (groupid=0, jobs=16): err= 0: pid=143509: Tue Jun 20 13:01:50 2023 write: IOPS=288, BW=315MiB/s (330MB/s)(12.1GiB/39246msec); 0 zone resets slat (msec): min=2068, max=3977, avg=3312.93, stdev=315.66 clat (usec): min=5, max=2222, avg=56.55, stdev=196.49 lat (msec): min=2130, max=3977, avg=3335.28, stdev=305.81 clat percentiles (usec): | 1.00th=[ 15], 5.00th=[ 24], 10.00th=[ 29], 20.00th=[ 30], | 30.00th=[ 30], 40.00th=[ 31], 50.00th=[ 32], 60.00th=[ 33], | 70.00th=[ 35], 80.00th=[ 36], 90.00th=[ 45], 95.00th=[ 53], | 99.00th=[ 1336], 99.50th=[ 2212], 99.90th=[ 2212], 99.95th=[ 2212], | 99.99th=[ 2212] bw ( MiB/s): min= 1973, max= 2049, per=100.00%, avg=2040.05, stdev= 2.16, samples=177 iops : min= 1966, max= 2048, avg=2037.39, stdev= 2.23, samples=177 lat (usec) : 10=0.06%, 20=4.73%, 50=89.06%, 100=4.47%, 1000=0.56% lat (msec) : 2=0.56%, 4=0.56% cpu : usr=0.24%, sys=2.62%, ctx=96449, majf=0, minf=932 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% issued rwts: total=0,11328,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): WRITE: bw=315MiB/s (330MB/s), 315MiB/s-315MiB/s (330MB/s-330MB/s), io=12.1GiB (13.0GB), run=39246-39246msec

Permalänk
Medlem

Hej allesammans!

En liten uppdatering för de intresserade:

Jag har bytt ut de snurrande HDD diskarna emot 4st 8TB Samsung 870 QVO diskar i ZFS z1 (RAID 5). Så körde om IOPS write testerna och får ungefär 10k IOPS vilket är helt ok men inte fantastiskt.

sudo fio --name=write_iops --directory=/tank/deleteme --size=10G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 --iodepth_batch_submit=256 --iodepth_batch_complete_max=256 write_iops: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256 fio-3.28 Starting 1 process write_iops: Laying out IO file (1 file / 10240MiB) Jobs: 1 (f=1): [w(1)][100.0%][w="37.4MiB/s"][w="9565 IOPS"][eta 00m:00s] write_iops: (groupid=0, jobs=1): err= 0: pid=843395: Sun Mar 3 21:52:53 2024 write: IOPS=10.3k, BW=40.1MiB/s (42.0MB/s)(2405MiB/60013msec); 0 zone resets slat (msec): min=6, max=143, avg=24.81, stdev= 9.80 clat (usec): min=4, max=619, avg=28.21, stdev=31.54 lat (msec): min=6, max=143, avg=24.83, stdev= 9.80 clat percentiles (usec): | 1.00th=[ 18], 5.00th=[ 19], 10.00th=[ 20], 20.00th=[ 20], | 30.00th=[ 20], 40.00th=[ 21], 50.00th=[ 24], 60.00th=[ 25], | 70.00th=[ 26], 80.00th=[ 30], 90.00th=[ 37], 95.00th=[ 50], | 99.00th=[ 100], 99.50th=[ 247], 99.90th=[ 449], 99.95th=[ 469], | 99.99th=[ 619] bw ( KiB/s): min=30720, max=53248, per=99.91%, avg=41001.34, stdev=4300.00, samples=119 iops : min= 7680, max=13312, avg=10250.32, stdev=1075.00, samples=119 lat (usec) : 10=0.37%, 20=31.75%, 50=62.78%, 100=4.10%, 250=0.50% lat (usec) : 500=0.46%, 750=0.04% cpu : usr=0.70%, sys=37.65%, ctx=125878, majf=0, minf=58 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% issued rwts: total=0,615424,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=256 Run status group 0 (all jobs): WRITE: bw=40.1MiB/s (42.0MB/s), 40.1MiB/s-40.1MiB/s (42.0MB/s-42.0MB/s), io=2405MiB (2522MB), run=60013-60013msec

Write prestanda är ungefär 1.26GB/s

sudo fio --name=write_throughput --directory=/tank/deleteme --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=write --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64 write_throughput: (g=0): rw=write, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=64 ... fio-3.28 Starting 16 processes write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) Jobs: 16 (f=16): [W(16)][100.0%][w="1280MiB/s"][w="1280 IOPS"][eta 00m:00s] write_throughput: (groupid=0, jobs=16): err= 0: pid=991184: Sun Mar 3 22:02:17 2024 write: IOPS=1191, BW=1208MiB/s (1267MB/s)(71.5GiB/60585msec); 0 zone resets slat (msec): min=138, max=1037, avg=852.87, stdev=74.61 clat (usec): min=2, max=4571, avg=23.24, stdev=144.29 lat (msec): min=138, max=1037, avg=852.50, stdev=74.66 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 10], 10.00th=[ 11], 20.00th=[ 11], | 30.00th=[ 12], 40.00th=[ 13], 50.00th=[ 13], 60.00th=[ 14], | 70.00th=[ 15], 80.00th=[ 16], 90.00th=[ 20], 95.00th=[ 30], | 99.00th=[ 126], 99.50th=[ 545], 99.90th=[ 766], 99.95th=[ 4555], | 99.99th=[ 4555] bw ( MiB/s): min= 1878, max= 2050, per=100.00%, avg=2042.54, stdev= 1.79, samples=1125 iops : min= 1868, max= 2048, avg=2041.34, stdev= 1.90, samples=1125 lat (usec) : 4=0.21%, 10=5.28%, 20=84.88%, 50=6.66%, 100=1.66% lat (usec) : 250=0.53%, 500=0.18%, 750=0.44%, 1000=0.09% lat (msec) : 10=0.09% cpu : usr=0.45%, sys=3.01%, ctx=635654, majf=0, minf=933 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% issued rwts: total=0,72192,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): WRITE: bw=1208MiB/s (1267MB/s), 1208MiB/s-1208MiB/s (1267MB/s-1267MB/s), io=71.5GiB (76.8GB), run=60585-60585msec

Permalänk
Medlem
Skrivet av Gronis93:

Hej allesammans!

En liten uppdatering för de intresserade:

Jag har bytt ut de snurrande HDD diskarna emot 4st 8TB Samsung 870 QVO diskar i ZFS z1 (RAID 5). Så körde om IOPS write testerna och får ungefär 10k IOPS vilket är helt ok men inte fantastiskt.

sudo fio --name=write_iops --directory=/tank/deleteme --size=10G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=4K --iodepth=256 --rw=randwrite --group_reporting=1 --iodepth_batch_submit=256 --iodepth_batch_complete_max=256 write_iops: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256 fio-3.28 Starting 1 process write_iops: Laying out IO file (1 file / 10240MiB) Jobs: 1 (f=1): [w(1)][100.0%][w="37.4MiB/s"][w="9565 IOPS"][eta 00m:00s] write_iops: (groupid=0, jobs=1): err= 0: pid=843395: Sun Mar 3 21:52:53 2024 write: IOPS=10.3k, BW=40.1MiB/s (42.0MB/s)(2405MiB/60013msec); 0 zone resets slat (msec): min=6, max=143, avg=24.81, stdev= 9.80 clat (usec): min=4, max=619, avg=28.21, stdev=31.54 lat (msec): min=6, max=143, avg=24.83, stdev= 9.80 clat percentiles (usec): | 1.00th=[ 18], 5.00th=[ 19], 10.00th=[ 20], 20.00th=[ 20], | 30.00th=[ 20], 40.00th=[ 21], 50.00th=[ 24], 60.00th=[ 25], | 70.00th=[ 26], 80.00th=[ 30], 90.00th=[ 37], 95.00th=[ 50], | 99.00th=[ 100], 99.50th=[ 247], 99.90th=[ 449], 99.95th=[ 469], | 99.99th=[ 619] bw ( KiB/s): min=30720, max=53248, per=99.91%, avg=41001.34, stdev=4300.00, samples=119 iops : min= 7680, max=13312, avg=10250.32, stdev=1075.00, samples=119 lat (usec) : 10=0.37%, 20=31.75%, 50=62.78%, 100=4.10%, 250=0.50% lat (usec) : 500=0.46%, 750=0.04% cpu : usr=0.70%, sys=37.65%, ctx=125878, majf=0, minf=58 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=100.0% issued rwts: total=0,615424,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=256 Run status group 0 (all jobs): WRITE: bw=40.1MiB/s (42.0MB/s), 40.1MiB/s-40.1MiB/s (42.0MB/s-42.0MB/s), io=2405MiB (2522MB), run=60013-60013msec

Write prestanda är ungefär 1.26GB/s

sudo fio --name=write_throughput --directory=/tank/deleteme --numjobs=16 --size=1G --time_based --runtime=60s --ramp_time=2s --ioengine=libaio --direct=1 --verify=0 --bs=1M --iodepth=64 --rw=write --group_reporting=1 --iodepth_batch_submit=64 --iodepth_batch_complete_max=64 write_throughput: (g=0): rw=write, bs=(R) 1024KiB-1024KiB, (W) 1024KiB-1024KiB, (T) 1024KiB-1024KiB, ioengine=libaio, iodepth=64 ... fio-3.28 Starting 16 processes write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) write_throughput: Laying out IO file (1 file / 1024MiB) Jobs: 16 (f=16): [W(16)][100.0%][w="1280MiB/s"][w="1280 IOPS"][eta 00m:00s] write_throughput: (groupid=0, jobs=16): err= 0: pid=991184: Sun Mar 3 22:02:17 2024 write: IOPS=1191, BW=1208MiB/s (1267MB/s)(71.5GiB/60585msec); 0 zone resets slat (msec): min=138, max=1037, avg=852.87, stdev=74.61 clat (usec): min=2, max=4571, avg=23.24, stdev=144.29 lat (msec): min=138, max=1037, avg=852.50, stdev=74.66 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 10], 10.00th=[ 11], 20.00th=[ 11], | 30.00th=[ 12], 40.00th=[ 13], 50.00th=[ 13], 60.00th=[ 14], | 70.00th=[ 15], 80.00th=[ 16], 90.00th=[ 20], 95.00th=[ 30], | 99.00th=[ 126], 99.50th=[ 545], 99.90th=[ 766], 99.95th=[ 4555], | 99.99th=[ 4555] bw ( MiB/s): min= 1878, max= 2050, per=100.00%, avg=2042.54, stdev= 1.79, samples=1125 iops : min= 1868, max= 2048, avg=2041.34, stdev= 1.90, samples=1125 lat (usec) : 4=0.21%, 10=5.28%, 20=84.88%, 50=6.66%, 100=1.66% lat (usec) : 250=0.53%, 500=0.18%, 750=0.44%, 1000=0.09% lat (msec) : 10=0.09% cpu : usr=0.45%, sys=3.01%, ctx=635654, majf=0, minf=933 IO depths : 1=0.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=100.0% submit : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% complete : 0=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=100.0%, >=64=0.0% issued rwts: total=0,72192,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): WRITE: bw=1208MiB/s (1267MB/s), 1208MiB/s-1208MiB/s (1267MB/s-1267MB/s), io=71.5GiB (76.8GB), run=60585-60585msec

Det är väl inte helt oväntat, qvo är ju inga superdiskar vad jag vet?

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

Det är väl inte helt oväntat, qvo är ju inga superdiskar vad jag vet?

Nej verkligen inte! Men bra pris per kr, fick tag i dem för 3000-3500kr st innan priset stack iväg. Nu vet jag iof inte hur SATA SSD diskar brukar prestera i allmänhet. Vill man ha bra IOPS så är det NVME som gäller.