Muskampen 2025: Segraren korad!

Expandera Raid5, försvunnet utrymme? Ugreen Nas, 4800 Plus

Permalänk
Medlem

Expandera Raid5, försvunnet utrymme? Ugreen Nas, 4800 Plus

Lång historia kort, haft en NAS tidigare som gick sönder, lyckades rädda all min data med en nödlösning men pga tidsbrist blev lösningen framåt dåligt, och hade efter ett par år allt uppdelad på olika diskar.
I augusti löser jag detta genom att köpa en Ugreen DXP4800Plus samt två 18 TB diskar, skyfflar om allt och får loss en till 18TB av samma märke, och sätter upp en Raid5 NAS med en disks redundans.

Efter allt är flyttat, och backuper skapade på det viktigaste har jag en till 18 TB disk över, och med 20+ TB av mina 32 TB totalt vill jag lägga till disken till Storage Pool 1, och utöka min Volume 1.

Att expandera poolen tar nästan en vecka, helt ok, har ingen brådska.
Försöker lägga det nya utrymmet till Volume 1. Task Failed. Ingen förklaring.

Nu är alternativet att expandera borta, kan inte skapa en till volume, men alla diskar syns i Poolen med rätt mängd utrymme (49TB), men vol 1 är fortfarande bara 32,5 TB.

Väntat nästan en vecka nu för att se om det var något liknande att expandera Poolen (men utan progressbar), men börjar tro att jag gjort något fel, eller missat att göra något och hittar ingen förklaring när jag söker svar online.

Otroligt tacksam för hjälp, är lite bittert att en helt inte billig disk bara är borta

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem

Jag antar att du redan har testat att starta om NAS:en för att se om alternativet dyker upp igen? Annars så tycks det vara fler som råkat ut för det du beskriver, jag ser en kille i Reddit-tråden nedan som chattat med Ugreen supporten och fått följande rekommendation.

https://www.reddit.com/r/UgreenNASync/comments/1di1yyh/expand...

"I received a reply from Ugreen support which says that to expand the volume, if unable to do that through the GUI, log in via ssh and run the following command

btrfs filesystem resize max /volume2

I'm not sure if this is currently a bug in the OS or if perhaps I did something incorrectly when adding the two new drives to the storage pool. I haven't tried their suggestion yet but will run it tonight and report back."

Ugreen NAS:arna är som sagt en relativt nya produkter på marknaden om man jämför dem med Synology eller QNAP, så man får räkna med lite småbuggar som dessa.

Visa signatur

Also found as @piteball@mastodon.rockhost.se
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Medlem
Skrivet av Pitr-:

Jag antar att du redan har testat att starta om NAS:en för att se om alternativet dyker upp igen? Annars så tycks det vara fler som råkat ut för det du beskriver, jag ser en kille i Reddit-tråden nedan som chattat med Ugreen supporten och fått följande rekommendation.

https://www.reddit.com/r/UgreenNASync/comments/1di1yyh/expand...

"I received a reply from Ugreen support which says that to expand the volume, if unable to do that through the GUI, log in via ssh and run the following command

btrfs filesystem resize max /volume2

I'm not sure if this is currently a bug in the OS or if perhaps I did something incorrectly when adding the two new drives to the storage pool. I haven't tried their suggestion yet but will run it tonight and report back."

Ugreen NAS:arna är som sagt en relativt nya produkter på marknaden om man jämför dem med Synology eller QNAP, så man får räkna med lite småbuggar som dessa.

Testat att starta om ett par gånger vid olika tillfällen, ingen förändring.

Testade att köra kommandot via SSH, men har inte btrfs filsystem (tror jag bara valde det som var rekomenderat eller det som verkade logiskt med förklaringarna jag fick).

Går med på att de är rätt nya, och att vissa saker har lite buggar mer eller mindre förväntar man sig, men basdelarna som hantering av själva utrymmet kan man väl tycka ska vara väleteblerat och så kritiskt för produkten att de gör det "dummy-safe" med tanke på hur de gjort reklam för produkten. Tror jag får ta det till deras support, hade bara hoppats på att det var något enkelt som jag missat (vilket det förmodligen är, en nackdel med att de är nya är ju också att det finns färre slutanvändare som hunnit stötta på allt som mindre erfarna slutanvändare kan lyckas med)

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem

om du kör med default så är det väl ext4. Så använd resize2fs via ssh

Permalänk
Medlem
Skrivet av pucko:

om du kör med default så är det väl ext4. Så använd resize2fs via ssh

Jag saknar grundkunskapen som behövs för att köra via SSH inser jag, köra kommandon kan jag , men det verkar inte bara vara att ersätta resize med resize2fs. Tack för förslaget!

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Jag saknar grundkunskapen som behövs för att köra via SSH inser jag, köra kommandon kan jag , men det verkar inte bara vara att ersätta resize med resize2fs. Tack för förslaget!

kör kommandot df -T

DÅ bör du kunna se vilket filsystem det är och vilken device.

Om det är ext4 så :

kör du resize2fs devicenamn

Tex resize2fs /dev/md0

Är det xfs så kör du
xfs_growfs /mnt/namn (där /mnt/namn är där du har raiden monterad)

i btrfs:

btrfs filesystem resize max /mnt/namn

Permalänk
Medlem

Försökt med resize2fs /volume1 med resize2fs verkar inte finnas

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Försökt med resize2fs /volume1 med resize2fs verkar inte finnas

<Uppladdad bildlänk>

För det första är det så att det inte är /volme1 du ska använda som argument utan:

resize2fs /dev/mapper/ug_BD5955_175...pool1-volume1 (observera att .... ska bytas ut mot hela namnet)

Kan du installera e2fsprogs?

opkg update
opkg install e2fsprogs

Permalänk
Medlem
Skrivet av pucko:

För det första är det så att det inte är /volme1 du ska använda som argument utan:

resize2fs /dev/mapper/ug_BD5955_175...pool1-volume1 (observera att .... ska bytas ut mot hela namnet)

Kan du installera e2fsprogs?

opkg update
opkg install e2fsprogs

Testat att rätta argumentet, men får fortfarande command not found

lyckats hitta att e2fsprogs är installerat och uppdaterat till senaste versionen

Stort tack för tiden och förlagen!

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Testat att rätta argumentet, men får fortfarande command not found

lyckats hitta att e2fsprogs är installerat och uppdaterat till senaste versionen

Stort tack för tiden och förlagen!

find / -name resize2fs 2>/dev/null

borde tala om var resize2fs ligger. du kanske måste anropa det med hela sökvägen /usr/sbin/resize2fs tex

Permalänk
Medlem

Ett steg framåt, målet också flyttas framåt.

Kommandot fungerar, men mitt admin konto saknar behörigheten/åtkomsten som krävs

open: Permission denied while opening /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Ett steg framåt, målet också flyttas framåt.

Kommandot fungerar, men mitt admin konto saknar behörigheten/åtkomsten som krävs

open: Permission denied while opening /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Kommandot sudo resize2fs.... Sudo gör att det kör med privilegier

Permalänk
Medlem
Skrivet av during:

Går med på att de är rätt nya, och att vissa saker har lite buggar mer eller mindre förväntar man sig, men basdelarna som hantering av själva utrymmet kan man väl tycka ska vara väleteblerat och så kritiskt för produkten att de gör det "dummy-safe" med tanke på hur de gjort reklam för produkten. Tror jag får ta det till deras support, hade bara hoppats på att det var något enkelt som jag missat (vilket det förmodligen är, en nackdel med att de är nya är ju också att det finns färre slutanvändare som hunnit stötta på allt som mindre erfarna slutanvändare kan lyckas med)

Ja precis, man förväntar sig ju att grundläggande saker som lagringshantering ska vara ungefär lika vattentäta som ett tupperwarelock, oavsett om det är en 'nykomling' eller inte 😅. Reklamen får det ju nästan att låta som att även farmor skulle kunna slänga ihop en RAID på kafferasten. Men du har nog rätt – supporten får nog en chans, det kan lika gärna vara något simpelt gömt i menyerna. Fördelen med att vara 'early adopter' är ju att man får upptäcka de där barnsjukdomarna först, nackdelen är att man faktiskt får upptäcka dem...

Visa signatur

Also found as @piteball@mastodon.rockhost.se
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2690, 272GB, 3TB SSD, Nvidia Tesla P4
XCP-ng Node - Dell PowerEdge R720xd, Xeon E5-2697v2, 256GB, 2TB SSD
Xpenology Storage - SuperMicro X10SLL-F/SC825TQ, Xeon E3-1231 v3, 16GB, 90TB HDD
Xpenology Backup - Dell PowerEdge R230, Xeon E3-1220v6, 16GB, 12TB HDD

Permalänk
Medlem

Att resiza och låta det ta en vecka+ vet inte jag om jag skulle göra, inte om jag har data på diskarna jag är rädd om.

Bättre att backa det viktiga och börja om från början.

Annars är risken du får ett problem (disk går sönder, strömavbrott, annan störning) och all data försvinner.

Nackdelen med Raid5 som är så stora, att byta en disk är i teorin möjligt om den går sönder. Men i praktiken är risken för dataförlust 50% eller större, då en trasig disk tar veckor att köra in och under den tiden kommer befintliga diskar ligga på 100% och om det är något fel på dom kommer dom gå sönder. Speciellt läskligt är det om alla diskar är köpt i samma tillfälle för då chansen är större att flera diskar lider av samma problem...

Diskar har största fail-chansen i början och slutet av sin livslängd, sk badkaret. Samma gäller det mesta i världen.

Permalänk
Medlem
Skrivet av boibo:

... Men i praktiken är risken för dataförlust 50% eller större, då en trasig disk tar veckor att köra in och under den tiden kommer befintliga diskar ligga på 100% och om det är något fel på dom kommer dom gå sönder. ...

Jag vill nyansera detta radikalt. Nog för att det inte är riskfritt så behöver du visa nån form av källa på att mer än hälften av alla skulle resulterar i dataförlust.

Jag, som många andra, kör scrub på mina raid5or flera gånger om året. Vilket är samma sak i form av last, och inte alls så att den failar och dödar en disk mer än varannan körning.

Permalänk
Medlem
Skrivet av varget:

Jag vill nyansera detta radikalt. Nog för att det inte är riskfritt så behöver du visa nån form av källa på att mer än hälften av alla skulle resulterar i dataförlust.

Jag, som många andra, kör scrub på mina raid5or flera gånger om året. Vilket är samma sak i form av last, och inte alls så att den failar och dödar en disk mer än varannan körning.

https://superuser.com/questions/1334674/raid-5-array-probabil...

Nu tog jag en 50TB array istället för ynka 8TB och då blev sannolikheten för en URE närmare 98%

Så jag vet inte, jag skulle då inte göra något utan en backup. Även om chansen bara är 10% är den fortfarande för stor..

(edit: med ett bit error rate på 10^15 så blir sannolikheten bara 33%)

Permalänk
Medlem
Skrivet av boibo:

https://superuser.com/questions/1334674/raid-5-array-probabil...

Nu tog jag en 50TB array istället för ynka 8TB och då blev sannolikheten för en URE närmare 98%

Så jag vet inte, jag skulle då inte göra något utan en backup. Även om chansen bara är 10% är den fortfarande för stor..

(edit: med ett bit error rate på 10^15 så blir sannolikheten bara 33%)

Att man bör ha backup är jag helt överens om.

Permalänk
Medlem
Skrivet av boibo:

https://superuser.com/questions/1334674/raid-5-array-probabil...

Nu tog jag en 50TB array istället för ynka 8TB och då blev sannolikheten för en URE närmare 98%

Så jag vet inte, jag skulle då inte göra något utan en backup. Även om chansen bara är 10% är den fortfarande för stor..

(edit: med ett bit error rate på 10^15 så blir sannolikheten bara 33%)

Om det är https://magj.github.io/raid-failure/ från din länk du använde så säger koden

function gigabytesToBits(gigs){ return gigs * 1000 * 1000 * 1000 * 8; } var readSize = gigabytesToBits((diskCount - 1) * disksizeGB);

Så den räknar bitar som läses över diskar-1.

Kollar vi tex på Segate X18 https://www.seagate.com/content/dam/seagate/migrated-assets/w...

Så står det

Citat:

Nonrecoverable Read Errors per Bits Read: 1 sector per 10E15

Och vi kan läsa ut på en SATA disk

Citat:

4Kn Sector Size (Bytes per Sector): 4096

Alltså räknar skriptet på andra saker än vad data blandet anger.

Permalänk
Medlem
Skrivet av pucko:

Kommandot sudo resize2fs.... Sudo gör att det kör med privilegier

Haft lite ont om tid senaste dagarna, försökt själv komma vidare efter resize2fs ger mig nedan fel om att det är fel antal block, och inget vad jag hittat har haft fungerade commanon.

device is an LV 0 physical volume(s) resized or updated / 0 physical volume(s) not resized
on-line resizing required old_desc_blocks = 4188, new_desc_blocks = 6281

Skrivet av Pitr-:

Ja precis, man förväntar sig ju att grundläggande saker som lagringshantering ska vara ungefär lika vattentäta som ett tupperwarelock, oavsett om det är en 'nykomling' eller inte 😅. Reklamen får det ju nästan att låta som att även farmor skulle kunna slänga ihop en RAID på kafferasten. Men du har nog rätt – supporten får nog en chans, det kan lika gärna vara något simpelt gömt i menyerna. Fördelen med att vara 'early adopter' är ju att man får upptäcka de där barnsjukdomarna först, nackdelen är att man faktiskt får upptäcka dem...

Har skickat till deras support, det har gått vidare till deras utvecklare tydligen men inga svar ännu. Otroligt tacksamt att det finns hjälpsamma människor här, har inget problem med engelska, men att kommunicera på svenska underlättare lite

Skrivet av boibo:

Att resiza och låta det ta en vecka+ vet inte jag om jag skulle göra, inte om jag har data på diskarna jag är rädd om.

Bättre att backa det viktiga och börja om från början.

Annars är risken du får ett problem (disk går sönder, strömavbrott, annan störning) och all data försvinner.

Nackdelen med Raid5 som är så stora, att byta en disk är i teorin möjligt om den går sönder. Men i praktiken är risken för dataförlust 50% eller större, då en trasig disk tar veckor att köra in och under den tiden kommer befintliga diskar ligga på 100% och om det är något fel på dom kommer dom gå sönder. Speciellt läskligt är det om alla diskar är köpt i samma tillfälle för då chansen är större att flera diskar lider av samma problem...

Diskar har största fail-chansen i början och slutet av sin livslängd, sk badkaret. Samma gäller det mesta i världen.

Skrivet av varget:

Att man bör ha backup är jag helt överens om.

Resize av Poolen är redan gjord, och tog c:a en vecka, har en backup på det viktigaste redan så hade kunnat börja om, men backup på allt så är det c:a 5000 kr till på hårddiskar vilket jag helst undviker samt sätta upp allt igen vilket tog en stund, men kanske bara ska bita i det sura äpplet...

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Haft lite ont om tid senaste dagarna, försökt själv komma vidare efter resize2fs ger mig nedan fel om att det är fel antal block, och inget vad jag hittat har haft fungerade commanon.

device is an LV 0 physical volume(s) resized or updated / 0 physical volume(s) not resized
on-line resizing required old_desc_blocks = 4188, new_desc_blocks = 6281

exakt vilket kommando körde du? vilket argument angav du till resize2fs ? /volume1 eller faktiska enheten?

Permalänk
Medlem
Skrivet av pucko:

exakt vilket kommando körde du? vilket argument angav du till resize2fs ? /volume1 eller faktiska enheten?

Körde

sudo /usr/sbin/resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Verkade rimligt med att old desc block är 2/3 av nya när man utökar från 2 till 3 diskar av samma storlek.

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Haft lite ont om tid senaste dagarna, försökt själv komma vidare efter resize2fs ger mig nedan fel om att det är fel antal block, och inget vad jag hittat har haft fungerade commanon.

device is an LV 0 physical volume(s) resized or updated / 0 physical volume(s) not resized
on-line resizing required old_desc_blocks = 4188, new_desc_blocks = 6281

Vad säger : sudo lvs -o lv_name,vg_name,lv_size /dev/mapper/ug_BD5955_1754645277_pool1-volume1
(detta kollar lv's storlek)

Vad säger df -hT /volume1
(du kollar fs storlek)

Skiljer dessa storlekar? Är LV större än FS?

Isf

sudo resize2fs /dev/mapper/ug_BD5955_1754645277_pool1-volume1

Annars är det nog så att raiden måste utökas:

vadsäger

cat /proc/mdstat
Och
sudo mdadm --detail /dev/mdX

(ersätt mdX med ditt md-namn, t ex md0 eller vad mdstat säger)

Permalänk
Medlem
Skrivet av pucko:

Vad säger : sudo lvs -o lv_name,vg_name,lv_size /dev/mapper/ug_BD5955_1754645277_pool1-volume1
(detta kollar lv's storlek)

Vad säger df -hT /volume1
(du kollar fs storlek)

Skiljer dessa storlekar? Är LV större än FS?

Isf

sudo resize2fs /dev/mapper/ug_BD5955_1754645277_pool1-volume1

Annars är det nog så att raiden måste utökas:

vadsäger

cat /proc/mdstat
Och
sudo mdadm --detail /dev/mdX

(ersätt mdX med ditt md-namn, t ex md0 eller vad mdstat säger)

sudo /usr/sbin/lvs -o lv_name,vg_name,lv_size /dev/mapper/ug_8D5955_1754645277_pool1-volume1

LV VG LSize
volume1 ug_8D5955_1754645277_pool1 <49.07t

df -hT /volume1
Filesystem Type Size Used Avail Use% Mounted on
/dev/mapper/ug_8D5955_1754645277_pool1-volume1 ext4 33T 22T 11T 67% /volume1

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sda2[0] sdd2[3] sdc2[2] sdb2[1]
52686584832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 4/131 pages [16KB], 65536KB chunk

sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Fri Aug 8 11:27:57 2025
Raid Level : raid5
Array Size : 52686584832 (49.07 TiB 53.95 TB)
Used Dev Size : 17562194944 (16.36 TiB 17.98 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Fri Sep 19 10:10:17 2025
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

Consistency Policy : bitmap

Name : UGREEN-DATA-x86_64-5347B0
UUID : f1ae11e4:0162599e:607b6d0f:405fd34d
Events : 215814

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
3 8 50 3 active sync /dev/sdd2

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

sudo /usr/sbin/lvs -o lv_name,vg_name,lv_size /dev/mapper/ug_8D5955_1754645277_pool1-volume1

LV VG LSize
volume1 ug_8D5955_1754645277_pool1 <49.07t

df -hT /volume1
Filesystem Type Size Used Avail Use% Mounted on
/dev/mapper/ug_8D5955_1754645277_pool1-volume1 ext4 33T 22T 11T 67% /volume1

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sda2[0] sdd2[3] sdc2[2] sdb2[1]
52686584832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 4/131 pages [16KB], 65536KB chunk

sudo mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Fri Aug 8 11:27:57 2025
Raid Level : raid5
Array Size : 52686584832 (49.07 TiB 53.95 TB)
Used Dev Size : 17562194944 (16.36 TiB 17.98 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Fri Sep 19 10:10:17 2025
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

Consistency Policy : bitmap

Name : UGREEN-DATA-x86_64-5347B0
UUID : f1ae11e4:0162599e:607b6d0f:405fd34d
Events : 215814

Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
3 8 50 3 active sync /dev/sdd2

OK.

Storlek: 49,07 TiB (~53,95 TB)
Status: clean, alla 4 diskar med.

Alltså är RAID-poolen är redan resizad

Logical Volume (LV) /dev/mapper/ug_8D5955_1754645277_pool1-volume1
Storlek: 49,07 TiB

LV är också fullt utökat

Filsystem (ext4 på /volume1)
Storlek: 33 T

Här ligger problemet: filsystemet har inte vuxit ikapp LV ännu.

Kör:
sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Så bör det växa till fulla storleken.

Permalänk
Medlem
Skrivet av pucko:

OK.

Storlek: 49,07 TiB (~53,95 TB)
Status: clean, alla 4 diskar med.

Alltså är RAID-poolen är redan resizad

Logical Volume (LV) /dev/mapper/ug_8D5955_1754645277_pool1-volume1
Storlek: 49,07 TiB

LV är också fullt utökat

Filsystem (ext4 på /volume1)
Storlek: 33 T

Här ligger problemet: filsystemet har inte vuxit ikapp LV ännu.

Kör:
sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Så bör det växa till fulla storleken.

Då saknar tydligen mitt admin konto rättigheter (det finns bara två användare på NASen, ett som är admin och ett user konto jag har använder för att inte har admin överallt om något händer/blir stulet)

sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume 1
resize2fs 1.47.0 (5-Feb-2023)
Filesystem at /dev/mapper/ug_8D5955_1754645277_pool1-volume1 is mounted on /volume1; on-line resizing required
old_desc_blocks = 4188, new_desc_blocks = 6281
resize2fs: Permission denied to resize filesystem

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Då saknar tydligen mitt admin konto rättigheter (det finns bara två användare på NASen, ett som är admin och ett user konto jag har använder för att inte har admin överallt om något händer/blir stulet)

sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume 1
resize2fs 1.47.0 (5-Feb-2023)
Filesystem at /dev/mapper/ug_8D5955_1754645277_pool1-volume1 is mounted on /volume1; on-line resizing required
old_desc_blocks = 4188, new_desc_blocks = 6281
resize2fs: Permission denied to resize filesystem

Du kan testa med sudo -i resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Hjälper inte det kan det vara så att något låser volymen och den därför inte kan resiza

Kolla med: sudo fuser -vm /volume1 för att se vilka pid som använder den

Stoppa alla tjänster som använder den. Har uinte ugreen men du har väl säkert ngn kontrollpanel där du kan stoppa tjänster.

(Kan gissningsvis vara smbd, nfs, docker, ev ngn mediatjänst osv. osv) annars kan man nog göra det med
systemctl stop <service>

Sen:

Avmontera volymen:

sudo umount /volume1

resiza : sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume

montera igen:

sudo mount /dev/mapper/ug_8D5955_1754645277_pool1-volume1 /volume1

Permalänk
Medlem
Skrivet av pucko:

Du kan testa med sudo -i resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Hjälper inte det kan det vara så att något låser volymen och den därför inte kan resiza

Kolla med: sudo fuser -vm /volume1 för att se vilka pid som använder den

Stoppa alla tjänster som använder den. Har uinte ugreen men du har väl säkert ngn kontrollpanel där du kan stoppa tjänster.

(Kan gissningsvis vara smbd, nfs, docker, ev ngn mediatjänst osv. osv) annars kan man nog göra det med
systemctl stop <service>

Sen:

Avmontera volymen:

sudo umount /volume1

resiza : sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume

montera igen:

sudo mount /dev/mapper/ug_8D5955_1754645277_pool1-volume1 /volume1

Stängt av allt, kör unmount och sedan resize, antar att den ska vara monterad på /home under detta skede istället för volume1 som det var tidigare?

JaDur@TheArchive:~$ sudo umount /volume1
JaDur@TheArchive:~$ sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1
resize2fs 1.47.0 (5-Feb-2023)
Filesystem at /dev/mapper/ug_8D5955_1754645277_pool1-volume1 is mounted on /home; on-line resizing required
old_desc_blocks = 4188, new_desc_blocks = 6281
resize2fs: Permission denied to resize filesystem

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Stängt av allt, kör unmount och sedan resize, antar att den ska vara monterad på /home under detta skede istället för volume1 som det var tidigare?

JaDur@TheArchive:~$ sudo umount /volume1
JaDur@TheArchive:~$ sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1
resize2fs 1.47.0 (5-Feb-2023)
Filesystem at /dev/mapper/ug_8D5955_1754645277_pool1-volume1 is mounted on /home; on-line resizing required
old_desc_blocks = 4188, new_desc_blocks = 6281
resize2fs: Permission denied to resize filesystem

Nä du ska inte ha den monterad: vad säger : mount | grep /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Är den monterad på /home ?

sudo umount /home
sudo umount /volume1

(om det klagar, använd sudo umount -l för lazy umount eller -f för force men börja utan tvingande flaggor).

kolla att den inte längre är monterad: mount | grep pool1-volume1
ingen output = bra, då är den verkligen avmonterad.

sen kör du sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Och sen monterar tillbaka den där du vill ha den:

sudo mount /dev/mapper/ug_8D5955_1754645277_pool1-volume1 /volume1
eller om /home var avsikten, dit istället.

Permalänk
Medlem
Skrivet av pucko:

Nä du ska inte ha den monterad: vad säger : mount | grep /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Är den monterad på /home ?

sudo umount /home
sudo umount /volume1

(om det klagar, använd sudo umount -l för lazy umount eller -f för force men börja utan tvingande flaggor).

kolla att den inte längre är monterad: mount | grep pool1-volume1
ingen output = bra, då är den verkligen avmonterad.

sen kör du sudo resize2fs /dev/mapper/ug_8D5955_1754645277_pool1-volume1

Och sen monterar tillbaka den där du vill ha den:

sudo mount /dev/mapper/ug_8D5955_1754645277_pool1-volume1 /volume1
eller om /home var avsikten, dit istället.

Det var inte avsiktligt den hamnade på /home, det vara bara en skillnad jag märkte mot tidigare försök att köra resize kommandot.

Kör jag umount på både vol1 och home och kör resize får jag följande svar;

resize2fs 1.47.0 (5-Feb-2023)
resize2fs: Device or resource busy while trying to open /dev/mapper/ug_8D5955_1754645277_pool1-volume1
Couldn't find valid filesystem superblock.

Förövrigt definitivt skyldigt dig öl och pizza för all hjälp, får hitta ett sätt att lösa det också

Visa signatur

| Intel i2500k | 16g Ram | ASUS ROG STRIX RX460 |

Permalänk
Medlem
Skrivet av during:

Det var inte avsiktligt den hamnade på /home, det vara bara en skillnad jag märkte mot tidigare försök att köra resize kommandot.

Kör jag umount på både vol1 och home och kör resize får jag följande svar;

resize2fs 1.47.0 (5-Feb-2023)
resize2fs: Device or resource busy while trying to open /dev/mapper/ug_8D5955_1754645277_pool1-volume1
Couldn't find valid filesystem superblock.

Förövrigt definitivt skyldigt dig öl och pizza för all hjälp, får hitta ett sätt att lösa det också

vad säger

lsblk -f
och
blkid