Långsam server, vad göra?

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010

Långsam server, vad göra?

Hej!

Jag ahr en server som främst används till media etc.
På senaste tiden har jag märkt att den med tiden blir långsammare och långsamare (Haft den i några månader bara)

CPU: Intel Core I3-4130, 3,6GHz
RAM: 4GB
Diskar: 4 x WD RED 4TB

Det som går långsamt är exempelvis filöverföring (inom servern), och även när jag ska pilla med filer så som namnbyte etc.
Det går speciellt långsamt om jag gör en sak som har med fihanteringen att göra, och sedan försöker göra något annat samtidigt. Tex: Om jag packar upp en rarfil, så går det knappt att göra något med andra filer eftersom det går fruktansvärt långsamt...

Vad jag kan se så behöver processorn inte joba mycket alls, och inte RAM heller..

Skulle en SSD cashe lösa mitt problem, eller vad kan man göra?

Jag kör för övrigt Xpenology DSM 6.0.2

Tack!

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Vad kör du för filsystem och hur mycket ledigt utrymme har du?

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

Hur ser diskarnas 'SMART' ut, något oroväckande där??

I ssh och som root - vad säger dmesg - är det något i texflödet som pekar på att den väntar länge på någon disk (time out eller IO-error, retry, read-error etc. ) brukar ofta visa som röd text.

Jag hade en WD-green som i alla 'yttre' avseede var frisk men i dmesg hela tiden hade oläsbara sektorer, raidystemet skrev den dåliga sektorn och disken kvitterade OK, läste nästa sektor, läsfel, raidsystemet skrev om den dåliga sektor och disken kvitterade OK etc.

Ingen anmärkning i SMART, återvände tillräckligt fort för att RAID-systemet inte skulle kasta ut disken men inget övergripande system i NAS:en insåg att disken sölade med hela läsförloppet gravt. Det enda stället som det syntes att något inte lirade bra var just att det fyllde på med meddelande i dmesg

och nej, det gick inte fort...

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010
Skrivet av Xcorp:

Vad kör du för filsystem och hur mycket ledigt utrymme har du?

Börjar få ganska ont om utrymme, har tänkt inköpa ytterliggare en disk. Har dock alltid gått segt när man gjrot flera sådana saker samtidigt. Även när de va toma och nya..

Filsystem: RAID 5, btrfs

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Alla CoW filsystem blir långsamma när det är nästan fullt, men om du har problem även med att byta namn och liknande så är det något annat som spökar. Som xxargs skriver så borde du kolla dmesg och SMART för att se om du hittar något där.
Ett sidospår, du är medveten om att RAID5 i BTRFS inte är stabilt och inte rekommenderas för att än testning just nu va?

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010
Skrivet av xxargs:

Hur ser diskarnas 'SMART' ut, något oroväckande där??

I ssh och som root - vad säger dmesg - är det något i texflödet som pekar på att den väntar länge på någon disk (time out eller IO-error, retry, read-error etc. ) brukar ofta visa som röd text.

Jag hade en WD-green som i alla 'yttre' avseede var frisk men i dmesg hela tiden hade oläsbara sektorer, raidystemet skrev den dåliga sektorn och disken kvitterade OK, läste nästa sektor, läsfel, raidsystemet skrev om den dåliga sektor och disken kvitterade OK etc.

Ingen anmärkning i SMART, återvände tillräckligt fort för att RAID-systemet inte skulle kasta ut disken men inget övergripande system i NAS:en insåg att disken sölade med hela läsförloppet gravt. Det enda stället som det syntes att något inte lirade bra var just att det fyllde på med meddelande i dmesg

och nej, det gick inte fort...

SMART ser bra ut, får kolla upp de där om dmesg... Dock har jag upplevt att det alltid gått långsamt om jag gör flera sådana saker samtidigt. Bara det att det blivit värre nu!

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010
Skrivet av Xcorp:

Alla CoW filsystem blir långsamma när det är nästan fullt, men om du har problem även med att byta namn och liknande så är det något annat som spökar. Som xxargs skriver så borde du kolla dmesg och SMART för att se om du hittar något där.
Ett sidospår, du är medveten om att RAID5 i BTRFS inte är stabilt och inte rekommenderas för att än testning just nu va?

Okej!

Nej det hade jag inte en aning om. Jag tog det filsystem xpenology valde från början så att säga..
Antar det är för sent att bara byta

Men vad tror ni om SSD cashe eller så? Kan det hjälpa?

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005
Skrivet av Rickykling:

Okej!

Nej det hade jag inte en aning om. Jag tog det filsystem xpenology valde från början så att säga..
Antar det är för sent att bara byta

Men vad tror ni om SSD cashe eller så? Kan det hjälpa?

Att byta från RAID5 till RAID1 går utmärkt i en vanlig Linux-installation, jag har aldrig använt xpenology så vet inte hur det funkar där.
Att lägga till en cache-device är inget som BTRFS har stöd för, så det är om xpenology kör något eget race med bcache, men återigen inget jag har koll på.
Vill du köra RAID5 så skulle jag istället rekommendera ZFS men då får du skapa en ny volym eller vad dom kallar det i xpenology och flytta över all data manuellt. ZFS har även stöd för cache-devices.

En sak du tappar med ZFS mot BTRFS som är den enda anledningen till att jag själv kör BTRFS är att du kan lägga till/ta bort devices hur som helst. Du kan också skapa RAID1 volymer med olika stora diskar och BTRFS kommer använda så mycket som möjligt.

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010
Skrivet av Xcorp:

Att byta från RAID5 till RAID1 går utmärkt i en vanlig Linux-installation, jag har aldrig använt xpenology så vet inte hur det funkar där.
Att lägga till en cache-device är inget som BTRFS har stöd för, så det är om xpenology kör något eget race med bcache, men återigen inget jag har koll på.
Vill du köra RAID5 så skulle jag istället rekommendera ZFS men då får du skapa en ny volym eller vad dom kallar det i xpenology och flytta över all data manuellt. ZFS har även stöd för cache-devices.

En sak du tappar med ZFS mot BTRFS som är den enda anledningen till att jag själv kör BTRFS är att du kan lägga till/ta bort devices hur som helst. Du kan också skapa RAID1 volymer med olika stora diskar och BTRFS kommer använda så mycket som möjligt.

Okej!
Jag får läsa på lite om ZFS osv!

Ang cashe, Xpenology verkar ha någon egen funktion för detta, så verkar vara att bara lägga till!

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Börja med att posta output från "dmesg | grep -i -e btrfs -e io" så kanske vi kan se något där om vad som kan vara galet.

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

Jag kan ha fel för just synology, men ofta ligger BTRFS ovanpå en mdadm RAID5 eller vad man väljer i samband med konfigurationen i sådana här mackapärer.

Då har man inte dom issue som annars förknippas med BTRFS om de försöker köra sin egen version av RAID5, och jag tror inte någon köpeNAS-tillverkare ens överväger att använda BTRFS egna version av RAID5 innan den är klart och tydligt är lanserad som 'säker'

Med andra ord behöver man inte springa benen av sig för att bygga om systemet till annan RAID-version.

Har man en ofta uppdaterad backup som tar hela nasens innehåll så är det heller ingen större fara att 'bara' köra RAID5, men går man över 6-7 diskar så bör man överväga RAID6.

Har man _inte_ en backup så bör man snarast skaffa sig förutsättningar som gör att man kan ta backup på hela NAS:en

Till detta kan man ta de äldre utrangerade (men felfria) gamla externa USB-diskar och i tex btrfs i en linuxhink koppla ihop dessa till en volym som diskarna tillsammans gör att volymen är minst lika stor som nasens filinnehåll, och sedan kopierar man över med tex. rsync.

finessen med BTRFS på backuparkivet är att du kan göra snapshot var gång innan man gör ny backup och på så sätt får historia på backupperna - man kan också slå på filsystemkomression, och klämmer ihop filerna lite extra, de som går att komprimera samt köra deduplicering.

när man kör rsync mot btrfs som mål och använder snapshot, så kan man använda optionen --inplace i rsync och de vägen bara uppdatera filerna i dom delarna som ändrats i filkroppen och inte skriva en helt ny och ta bort den gamla. Kan vara bra att ha i minne om man skall hantera stora virtuella diskimage, och vanliga diskimages mm. och behöver spara plats.

snapshoten är helt isolerade från varandra och vad som händer i den ursprungliga direktoryn där man tog snapshot ifrån, påverkar inte alls filerna som ligger i snapshot-direktoryna.

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010

Av någon anledning har jag inte rättigheter att komma åt Root för at kolla dmesg... Jäkla lustigt. Är ju bara jag som är användare! Brukar jämt använda mig av admin!

Hittade lösning, va bara o skriva "sudo -i" tydligen så blev jag root.

Vet dock inte hur jag kommer åt den info ni vill ha genom terminalen. Brukar aldrig använda mig av terminalen, så har väääldigt lite kunskaper om den. Brukar använda mig av WinSCP eller direkt via nätverket när jag pillar med filer!

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Logga in i terminalen och kör "sudo -i"
Den kommer fråga efter ditt lösenord och sen får du tillbaka prompten, kör då "dmesg | grep -i -e btrfs -e io" och posta allt du får tillbaka här.
Om du först provar med dmesg -T och inte får något fel så kör med -T i kommandot jag gav.

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010

[ 0.000000] Linux version 3.10.77 (root@build1) (gcc version 4.9.3 20150311 ( prerelease) (crosstool-NG 1.20.0) ) #8451 SMP Wed Aug 17 05:12:41 CST 2016
[ 0.000000] Command line: BOOT_IMAGE=/image/DS3615xs/zImage syno_hdd_powerup_ seq=0 HddHotplug=0 syno_hw_version=DS3615xs vender_format_version=2 console=ttyS 0,115200n8 withefi elevator=elevator quiet root=/dev/md0 sn=C7LWN09761 mac1=0011 322CA785 netif_num=1 vid=0x090C pid=0x1000
[ 0.000000] e820: BIOS-provided physical RAM map:
[ 0.000000] BIOS-e820: [mem 0x0000000000000000-0x000000000009c3ff] usable
[ 0.000000] BIOS-e820: [mem 0x000000000009c400-0x000000000009ffff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000000e0000-0x00000000000fffff] reserved
[ 0.000000] BIOS-e820: [mem 0x0000000000100000-0x00000000bcc07fff] usable
[ 0.000000] BIOS-e820: [mem 0x00000000bcc08000-0x00000000bcc36fff] ACPI data
[ 0.000000] BIOS-e820: [mem 0x00000000bcc37000-0x00000000be842fff] usable
[ 0.000000] BIOS-e820: [mem 0x00000000be843000-0x00000000be843fff] ACPI NVS
[ 0.000000] BIOS-e820: [mem 0x00000000be844000-0x00000000be86dfff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000be86e000-0x00000000c2cf6fff] usable
[ 0.000000] BIOS-e820: [mem 0x00000000c2cf7000-0x00000000c43d6fff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000c43d7000-0x00000000c43f9fff] ACPI data
[ 0.000000] BIOS-e820: [mem 0x00000000c43fa000-0x00000000c45f5fff] usable
[ 0.000000] BIOS-e820: [mem 0x00000000c45f6000-0x00000000c4d2efff] ACPI NVS
[ 0.000000] BIOS-e820: [mem 0x00000000c4d2f000-0x00000000c52fefff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000c52ff000-0x00000000c52fffff] usable
[ 0.000000] BIOS-e820: [mem 0x00000000c5300000-0x00000000c7ffffff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000f8000000-0x00000000fbffffff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved
[ 0.000000] BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved
[ 0.000000] BIOS-e820: [mem 0x0000000100000000-0x0000000136ffffff] usable
[ 0.000000] NX (Execute Disable) protection: active
[ 0.000000] SMBIOS 3.0 present.
[ 0.000000] DMI: System manufacturer System Product Name/H110I-PLUS, BIOS 200 2 09/20/2016
[ 0.000000] ACPI: PM-Timer IO Port: 0x1808
[ 0.000000] ACPI: IOAPIC (id[0x02] address[0xfec00000] gsi_base[0])
[ 0.000000] IOAPIC[0]: apic_id 2, version 32, address 0xfec00000, GSI 0-119
[ 0.000000] Using ACPI (MADT) for SMP configuration information
[ 0.000000] Kernel command line: BOOT_IMAGE=/image/DS3615xs/zImage syno_hdd_p owerup_seq=0 HddHotplug=0 syno_hw_version=DS3615xs vender_format_version=2 conso le=ttyS0,115200n8 withefi elevator=elevator quiet root=/dev/md0 sn=C7LWN09761 ma c1=0011322CA785 netif_num=1 vid=0x090C pid=0x1000
[ 0.000000] Synology Hardware Version: DS3615xs-j
[ 0.000000] Vender format version: 2
[ 0.000000] Hierarchical RCU implementation.
[ 0.000000] RCU dyntick-idle grace-period acceleration is enabled.
[ 0.000000] spurious 8259A interrupt: IRQ7.
[ 0.000000] please try 'cgroup_disable=memory' option if you don't want memor y cgroups
[ 0.001000] tsc: Fast TSC calibration failed
[ 0.005000] tsc: using HPET reference calibration
[ 0.000120] Initializing cgroup subsys blkio
[ 0.001323] ACPI: Core revision 20130328
[ 0.013513] ACPI Exception: AE_NOT_FOUND, During name lookup/catalog (2013032 8/psobject-222)
[ 0.030168] ... version: 4
[ 0.030170] ... max period: 000000007fffffff
[ 0.075132] PM: Registering ACPI NVS region [mem 0xbe843000-0xbe843fff] (4096 bytes)
[ 0.075133] PM: Registering ACPI NVS region [mem 0xc45f6000-0xc4d2efff] (7573 504 bytes)
[ 0.094849] xor: using function: prefetch64-sse (19484.000 MB/sec)
[ 0.095141] PCI: Using configuration type 1 for base access
[ 0.096979] bio: create slab <bio-0> at 0
[ 0.198770] ACPI: Added _OSI(3.0 _SCP Extensions)
[ 0.221090] [Firmware Bug]: ACPI: BIOS _OSI(Linux) query ignored
[ 0.249202] ACPI: Using IOAPIC for interrupt routing
[ 0.264039] pci_bus 0000:00: root bus resource [io 0x0000-0x0cf7]
[ 0.264040] pci_bus 0000:00: root bus resource [io 0x0d00-0xffff]
[ 0.264251] pci 0000:00:02.0: reg 20: [io 0xf000-0xf03f]
[ 0.264790] pci 0000:00:17.0: reg 18: [io 0xf090-0xf097]
[ 0.264796] pci 0000:00:17.0: reg 1c: [io 0xf080-0xf083]
[ 0.264803] pci 0000:00:17.0: reg 20: [io 0xf060-0xf07f]
[ 0.265939] pci 0000:00:1f.4: reg 20: [io 0xf040-0xf05f]
[ 0.266238] pci 0000:03:00.0: reg 10: [io 0xe000-0xe0ff]
[ 0.267851] pci 0000:00:1d.1: bridge window [io 0xe000-0xefff]
[ 0.267925] acpi PNP0A08:00: ACPI _OSC support notification failed, disabling PCIe ASPM
[ 0.269714] vgaarb: device added: PCI:0000:00:02.0,decodes=io+mem,owns=io+mem ,locks=none
[ 0.269834] libata version 3.00 loaded.
[ 0.269882] pps_core: Software ver. 5.3.6 - Copyright 2005-2007 Rodolfo Giome tti <giometti@linux.it>
[ 0.277335] system 00:00: [io 0x0290-0x029f] has been reserved
[ 0.278365] system 00:05: [io 0x0680-0x069f] has been reserved
[ 0.278366] system 00:05: [io 0xffff] has been reserved
[ 0.278367] system 00:05: [io 0xffff] has been reserved
[ 0.278368] system 00:05: [io 0xffff] has been reserved
[ 0.278369] system 00:05: [io 0x1800-0x18fe] has been reserved
[ 0.278370] system 00:05: [io 0x164e-0x164f] has been reserved
[ 0.278532] system 00:06: [io 0x0800-0x087f] has been reserved
[ 0.278838] system 00:08: [io 0x1854-0x1857] has been reserved
[ 0.279535] system 00:0b: [io 0xfe00-0xfefe] has been reserved
[ 0.298688] pci 0000:00:1c.0: bridge window [io 0x1000-0x0fff] to [bus 01] a dd_size 1000
[ 0.298696] pci 0000:00:1d.0: bridge window [io 0x1000-0x0fff] to [bus 02] a dd_size 1000
[ 0.298709] pci 0000:00:1c.0: res[13]=[io 0x1000-0x0fff] get_res_add_size ad d_size 1000
[ 0.298710] pci 0000:00:1d.0: res[13]=[io 0x1000-0x0fff] get_res_add_size ad d_size 1000
[ 0.298716] pci 0000:00:1c.0: BAR 13: assigned [io 0x2000-0x2fff]
[ 0.298717] pci 0000:00:1d.0: BAR 13: assigned [io 0x3000-0x3fff]
[ 0.298739] pci 0000:00:1c.0: bridge window [io 0x2000-0x2fff]
[ 0.298749] pci 0000:00:1d.0: bridge window [io 0x3000-0x3fff]
[ 0.298759] pci 0000:00:1d.1: bridge window [io 0xe000-0xefff]
[ 0.298910] pci_bus 0000:00: resource 4 [io 0x0000-0x0cf7]
[ 0.298911] pci_bus 0000:00: resource 5 [io 0x0d00-0xffff]
[ 0.298914] pci_bus 0000:01: resource 0 [io 0x2000-0x2fff]
[ 0.298916] pci_bus 0000:02: resource 0 [io 0x3000-0x3fff]
[ 0.298918] pci_bus 0000:03: resource 0 [io 0xe000-0xefff]
[ 1.434697] PCI-DMA: Using software bounce buffering for IO (SWIOTLB)
[ 1.434700] software IO TLB [mem 0xbecf7000-0xc2cf7000] (64MB) mapped at [fff f8800becf7000-ffff8800c2cf6fff]
[ 1.444377] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 2 51)
[ 1.444379] io scheduler noop registered
[ 1.444380] io scheduler deadline registered
[ 1.444386] io scheduler cfq registered (default)
[ 1.768063] ahci 0000:00:17.0: version 3.0
[ 1.778570] ahci 0000:00:17.0: flags: 64bit ncq sntf led clo only pio slum pa rt ems deso sadm sds apst
[ 1.802137] serio: i8042 KBD port at 0x60,0x64 irq 1
[ 1.802141] serio: i8042 AUX port at 0x60,0x64 irq 12
[ 1.806118] device-mapper: ioctl: 4.25.0-ioctl (2013-06-26) initialised: dm-d evel@redhat.com
[ 2.173462] registered taskstats version 1
[ 2.232336] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S01._PLD] (Node ffff880131105a10), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.232851] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S02._PLD] (Node ffff8801311059c0), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.233291] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S03._PLD] (Node ffff880131105970), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.233794] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S04._PLD] (Node ffff880131105920), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.234315] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S05._PLD] (Node ffff8801311058d0), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.234828] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S06._PLD] (Node ffff880131105880), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.235294] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S07._PLD] (Node ffff880131105830), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.235882] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S08._PLD] (Node ffff8801311057e0), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.236367] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S09._PLD] (Node ffff880131105790), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.236858] ACPI Error: Method parse/execution failed [\_SB_.PCI0.XHC_.RHUB.H S10._PLD] (Node ffff880131105740), AE_AML_NO_OPERAND (20130328/psparse-537)
[ 2.266351] VMware PVSCSI driver - version 1.0.2.0-k
[ 2.282385] Fusion MPT base driver 3.04.20
[ 2.282387] Copyright (c) 1999-2008 LSI Corporation
[ 2.288320] Fusion MPT SPI Host driver 3.04.20
[ 2.291516] Fusion MPT SAS Host driver 3.04.20
[ 2.294702] Fusion MPT misc device (ioctl) driver 3.04.20
[ 2.294922] mptctl: Registered with Fusion MPT base driver
[ 2.304657] mpt2sas version 20.00.00.00 loaded
[ 2.308164] mpt3sas version 01.100.01.00 loaded
[ 2.310400] bromolow_synobios: module license 'Synology Inc.' taints kernel.
[ 2.310975] synobios: load, major number 201
[ 2.433433] tsc: Refined TSC clocksource calibration: 3600.012 MHz
[ 2.810858] synobios cpu_arch proc entry initialized
[ 2.810862] synobios crypto_hw proc entry initialized
[ 2.810866] synobios syno_platform proc entry initialized
[ 2.815698] synobios: unload
[ 3.148316] md0: unknown partition table
[ 10.846019] md1: unknown partition table
[ 10.947150] Adding 2097084k swap on /dev/md1. Priority:-1 extents:1 across:2 097084k
[ 11.164761] Adding 1185788k swap on /dev/zram0. Priority:1 extents:1 across: 1185788k SS
[ 11.169295] Adding 1185788k swap on /dev/zram1. Priority:1 extents:1 across: 1185788k SS
[ 12.724937] fuse init (API version 7.22)
[ 12.741576] dca service started, version 1.12.1
[ 12.743801] e1000e: Copyright(c) 1999 - 2016 Intel Corporation.
[ 12.756424] Intel(R) Gigabit Ethernet Network Driver - version 5.3.5.4
[ 12.756425] Copyright (c) 2007-2015 Intel Corporation.
[ 12.761260] Intel(R) 10GbE PCI Express Linux Network Driver - version 4.4.6
[ 12.761262] Copyright(c) 1999 - 2016 Intel Corporation.
[ 12.764358] i40e: Intel(R) Ethernet Connection XL710 Network Driver - version 1.3.47
[ 12.764360] i40e: Copyright (c) 2013 - 2015 Intel Corporation.
[ 12.776507] Loading modules backported from Linux version v3.18.1-0-g39ca484
[ 12.926726] bio: create slab <bio-1> at 1
[ 12.926796] Btrfs loaded
[ 12.944855] jme: JMicron JMC2XX ethernet driver version 1.0.8
[ 12.948821] sky2: driver version 1.30
[ 12.952848] pch_gbe: EG20T PCH Gigabit Ethernet Driver - version 1.01
[ 12.964826] e1000: Intel(R) PRO/1000 Network Driver - version 7.3.21-k8-NAPI
[ 12.964827] e1000: Copyright (c) 1999-2006 Intel Corporation.
[ 12.968535] VMware vmxnet3 virtual NIC driver - version 1.1.30.0-k-NAPI
This is free software, and you are welcome to redistribute it un der certain conditions; see <http://www.gnu.org/licenses/>.
[ 13.034899] synobios: load, major number 201
[ 13.535135] synobios cpu_arch proc entry initialized
[ 13.535142] synobios crypto_hw proc entry initialized
[ 13.535147] synobios syno_platform proc entry initialized
[ 13.775282] nf_conntrack version 0.5.0 (16384 buckets, 65536 max)
[ 14.033616] systemd-udevd[6244]: starting version 204
[ 15.617755] md/raid:md2: device sda3 operational as raid disk 0
[ 15.617757] md/raid:md2: device sdd3 operational as raid disk 3
[ 15.617759] md/raid:md2: device sdc3 operational as raid disk 2
[ 15.617760] md/raid:md2: device sdb3 operational as raid disk 1
[ 15.622336] md2: unknown partition table
[ 16.200820] BTRFS: device label 2017.03.24-19:23:47 v8451 devid 1 transid 276 390 /dev/md2
[ 16.201095] BTRFS info (device md2): disk space caching is enabled
[ 16.201096] BTRFS: has skinny extents
[ 34.759620] kvm: disabled by bios

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Jag ser inget konstigt där, finns det någon statistik i xpenology du kan kolla på?

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010
Skrivet av Xcorp:

Jag ser inget konstigt där, finns det någon statistik i xpenology du kan kolla på?

Okej vad bra!

Statistik över vadå menar du?

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Över diskarna, io/latency osv.

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Aug 2010

Verkar vara dåligt med det tyvärr!

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2005

Det du kan göra är att se om verktygen iotop och iostat är installerade, båda måste köras som root.

iotop ger dig statistik över vilka processer som läser/skriver till diskarna. Du kan sortera mellan de olika kolumnerna med piltangenterna.

iostat ger dig statistik över de enskilda diskarna och körs lämpligtvis med 5 sekunders samplingsinterval, "iostat -xmd 5". Den kolumn som framförallt är intressant är de två sista som visar servicetider och användning. Det är lite svårt att säga vad som är dåliga servicetider utan att ha koll på vad som körs på burken, hur mycket den används och så vidare, men ligger du på +100 är det inte jättebra. %util är ganska självförklarande, ligger du konstant på 100% så är det inte så konstigt att det går långsamt.

Trädvy Permalänk
Medlem
Registrerad
Aug 2016

Håller med, inget alarmerande när det gäller diskar, en sak kan man i alla fall utläsa - din BTRFS-filsystem ligger på en mdadm-RAID - så den tidiga antydningen att RAID5 skulle vara osäker/farlig (mer än den vanliga RAID5) i samband med BTRFS kan du helt strunta i.

Själva BTRFS kör ingen RAID-funktion alls här, utan ser md-volumen som en enda diskyta att lägga sitt filsystem på.

nu skall man inte klydda ned sin nas med allt för mycket mjukvaror, men...

...jag använder htop och atop (htop installeras före atop då de verka dela lite drivisar för att atop skall bli komplett i sin visning ) - framförallt atop och då kan man se lite av flödena in och ur hd:n, nätverkstrafik och io-tider mm. - ha det på så stor skärm du kan, ju mer man breddar ju mer info.