Stora ownCloud/Nextcloud-tråden

Permalänk
Snusfri

Jag skulle kört Proxmox i grunden och ha ett VM för TrueNAS och ett VM med Ubuntu Server för LAMP med Nextcloud och mappa shares från TrueNAS i den senare.

Går alldeles utmärkt att köra TrueNAS som VM, dock så bör du köra tex ett HBA för diskarna du tänkte ha till TrueNAS och köra en passthrough på det istället för att diskarna kopplade till mobo och köra passthrough på dom.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Kamouflage:

Nya rön sedan bytet Freenas/Truenas har jag för mig. Tidsmässigt i krokarna där i alla fall. De har instruktioner för att köra Truenas som en VM nu mer. Ironiskt att dra ett 'RTFM' utan att ha läst manualen..
Det är ju knappast något mulle meck-hack att göra riktig disk passthrough heller, men jag håller med om att det är att krångla till det i onödan om man inte har stenkoll på vad man gör.

Jag satte upp min FreeNAS för 4 år sen, och då stod det med stora bokstäver överallt att det inte var rekommenderat, och på egen risk. Visst går det, men sen är ju frågan hur stabilt det är.

Den infon kanske kan ha ändrats sedan jag gjorde mina efterforskningar.

Sen är det ett stort plus att ha stenkoll givetvis.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av laukan82:

Jo jag är med dig där.
Jag krånglar "lite" men det är för att jag inte vill måla in mig eller prioritera ned för mkt.

Jag vill ha ganska stor disk på Nextcloud vm:et eftersom jag tänkt dumpa backuper på familjens mobilbilder när de ligger på laddning.

Tänkte i truenas banan då eftersom jag just har det uppsatt och det funkar finfint mot familjens datorer med SMB shares och helst inte "fragmenterar upp" vart bilder/backuper/media ligger lite för att enklare kunna lägga upp en automatisk off-site kopia på sikt när allt övrigt snurrar på.

Truenas lägger rabarber på HBA/LSI.
Vill inte köra annat än ZFS på poolerna men kanske kan VM host och Nextcloud dela på moderkortets portat.. det har jag lite förbisett inser jag.

Ska försöka dra huvudet ur arslet och se om jag får till allt.

Tack och trevlig helg!

Att köra TrueNAS i VM är nog inte problemet, men att nesta VM's blir väldigt krångligt och ökar riskerna att det pajar. Separera NAS och Nextcloud till att börja med. Om du kör Proxmox i grunden så har du stöd för LXC och kan tanka Turnkey direkt i webb-gui, om du inte vill göra det ordentligt med Ubuntu VM + script.

Edit: Vet inte om jag förstår dig rätt, men jag tolkar 2 möjliga scenarion:

1. Du vill att andra klienter ska komma åt det som sparas på Nextcloud via SMB.

Detta kommer nog aldrig funka bra, korrekta och säkra behörigheter när nog i det närmaste omöjligt.

2. Du vill dela utrymme ifrån NAS till Nextcloud för att ha styrning av lagring centraliserat.

Inga problem alls, finns alla möjliga varianter. T.ex. vSwitch/brygga i proxmox endast mellan NAS och Nextcloud med NFS/SMB/iSCSI, etc. Prestandan tas av hosten och förlitar sig inte på externt nätverk.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem

Hej!
Jag har en gammal Nextcloud (14.0.4) som körs på en trött server. Jag har nu satt upp en bättre server som jag tänkte installera Nextcloud på. Finns det några problem med att köra två Nextcloud på samma lan? Detta är bara tillfälligt tills jag ställt in allt för den nya Naxtcloud. På min gamla server används inte 440 och 80 vilket den nya Nextclouden kommer ha om det har någon betydelse.

Visa signatur

ASUS ROG STRIX B450-F GAMING - AMD Ryzen 5 3600 3.6 GHz 35MB - Cooler Master - Hyper 212 Black Edition - Corsair 16GB (2x8GB) DDR4 3200Mhz CL16 Vengeance LPX - Kingston A2000 500GB M.2 NVMe - Fractal Design Define C Svart - 2 X Noctua NF-P14s redux-1200 140mm PWM - Corsair RM650X 650W v2 - ASUS GeForce GTX 1060 6GB DUAL OC - Raijintek Morpheus II Heatpipe VGA Cooler - 2 X Noctua NF-P12 120mm PWM - OS Debian 10 Stable

Permalänk
Medlem
Skrivet av Eazy:

Hej!
Jag har en gammal Nextcloud (14.0.4) som körs på en trött server. Jag har nu satt upp en bättre server som jag tänkte installera Nextcloud på. Finns det några problem med att köra två Nextcloud på samma lan? Detta är bara tillfälligt tills jag ställt in allt för den nya Naxtcloud. På min gamla server används inte 440 och 80 vilket den nya Nextclouden kommer ha om det har någon betydelse.

Inga problem alls, men du kommer ju få peka till servern du vill använda. Eller så kör du båda samtidigt, men på icke-standard portar.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Skrivet av scienta:

Inga problem alls, men du kommer ju få peka till servern du vill använda. Eller så kör du båda samtidigt, men på icke-standard portar.

Tack för svar!

Visa signatur

ASUS ROG STRIX B450-F GAMING - AMD Ryzen 5 3600 3.6 GHz 35MB - Cooler Master - Hyper 212 Black Edition - Corsair 16GB (2x8GB) DDR4 3200Mhz CL16 Vengeance LPX - Kingston A2000 500GB M.2 NVMe - Fractal Design Define C Svart - 2 X Noctua NF-P14s redux-1200 140mm PWM - Corsair RM650X 650W v2 - ASUS GeForce GTX 1060 6GB DUAL OC - Raijintek Morpheus II Heatpipe VGA Cooler - 2 X Noctua NF-P12 120mm PWM - OS Debian 10 Stable

Permalänk
Medlem

Jag sitter själv och leker med en gammal 2015 inuc där jag kör Proxmox>OMV i VM med en M.2 disk pass through där jag kör docker med bland annat Nextcloud. So far fungerar det smidigt. Men om jag förstår de senaste diskussionerna här så är det kanske ett bättre alternativ att helt enkelt separera sin virtualiserings-server och filserver (ursäkta min urusla terminologi, hoppas ni hänger med) till två olika fysiska maskiner?

Bygga en NAS med Freenas/Unraid/OMV vs Synology NAS är mitt stora huvudbry just nu då jag kollar på alternativ till molnlagring och månadskostnader. Men första tanken var att bygga en lite fetare server som också kunde klara av att virtualisera men blev lite tveksam i och med nestingen Proxmox>VM med FreeNAS>container Nextcloud. Jag har bara pillat med Proxmox i kanske dryga året och är även ganska ny på Linux-sidan men vill ju också lära mig hantera det. Synology är förstås det säkra men det är ju också typ 10K+ för en 4-bay med åtminstone 2 diskar.

Hur kör ni backups på er NC data? Är det någon poäng att ta mer mer än bara användarens data-mapp? Jag har inga problem att sätta upp NC igen om skiten slår i fläkten men man vill ju verkligen inte förlora sina filer. Jag har tittat på duplicati och Rclone men den förstnämnda verkar folk ha lite halvproblem med och den andra saknar, vad jag kan hitta, ett GUI och även om jag börjar lära mig Linux smått så skulle jag inte känna mig bekväm att det skulle fungera i längden om jag satte upp det.

Permalänk
Medlem
Skrivet av Filikun:

Men första tanken var att bygga en lite fetare server som också kunde klara av att virtualisera men blev lite tveksam i och med nestingen Proxmox>VM med FreeNAS>container Nextcloud.

Förstår inte varför alla envisas med att nesta på det viset. Om man virtualiserar ett NAS-OS så ska det i sig inte användas för virtualisering. Installera istället en VM till i Proxmox för att köra Docker osv. Om nu inte Linux Container direkt i Proxmox fyller behovet.

Ang backup så funkar ZFS med syncoid fantastiskt bra. Guruns skript sätter upp en ZFS-disk automatiskt,, sen är det bara att sätta upp en pool på den maskin som agerar backup.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Skrivet av scienta:

Förstår inte varför alla envisas med att nesta på det viset. Om man virtualiserar ett NAS-OS så ska det i sig inte användas för virtualisering

Du har såklart en bra poäng. Jag hade HA OS i en VM och en VM med ubuntu server och docker från början men Nucen börjar bli gammal och klen så det var helt enkelt ett försök att spara resurser som jag klämde ihop det på det här sättet när jag började testa OMV. Det är väl här frågan om två olika maskiner kommer upp då jag antar att det egentligen är smartast att köra ett NAS-OS utan virtualiseringen från första början.

Vad gällande backupen så är det grekiska för mig. Jag får försöka läsa på om ZFS och syncoid! Finns det någon lösning som liksom är enkelt för en nybörjare att ta sig an? Duplicati verkade trevligt, gick rätt smidigt att sätta upp kryptering och slänga upp på min 1TB OneDrive som jag ändå bara har liggandes i 365 paketet familjen har. Men om jag förstår det rätt så behöver jag även ha duplicati för att kunna komma åt filerna sedan om något skulle skita sig. I min hjärna så hade det typ räckt om den zippade ihop skiten med ett lösenord jag valt och skickade upp det, fattar att det inte är så man borde gå till väga kanske.

Permalänk
Medlem
Skrivet av Filikun:

Jag hade HA OS i en VM och en VM med ubuntu server och docker från början men Nucen börjar bli gammal och klen så det var helt enkelt ett försök att spara resurser som jag klämde ihop det på det här sättet när jag började testa OMV.

En nestad VM drar ju inte mindre resurser. Däremot så kan du spara resurser på att köra Containrar, eller VM's med så snarlik grund som möjligt för att dra nytta av KSM. Kort sagt så buntar det ihop sidor i RAM som är liknande och använder pekare till alla VM-instanser som använder dessa sidor. Kan spara ett par GB rätt snabbt om man kör flera maskiner.

Skrivet av Filikun:

Vad gällande backupen så är det grekiska för mig. Jag får försöka läsa på om ZFS och syncoid! Finns det någon lösning som liksom är enkelt för en nybörjare att ta sig an? Duplicati verkade trevligt, gick rätt smidigt att sätta upp kryptering och slänga upp på min 1TB OneDrive som jag ändå bara har liggandes i 365 paketet familjen har. Men om jag förstår det rätt så behöver jag även ha duplicati för att kunna komma åt filerna sedan om något skulle skita sig. I min hjärna så hade det typ räckt om den zippade ihop skiten med ett lösenord jag valt och skickade upp det, fattar att det inte är så man borde gå till väga kanske.

Rsync är väl bland det mest grundläggande du kan köra annars. Det mesta körs i CLI, så kommer vara obekvämt oavsett om du inte är van att arbeta så. Men hjälp finns alltid att tillgå, så det är bara att kolla upp nåt som verkar bra.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Skrivet av Filikun:

Men om jag förstår det rätt så behöver jag även ha duplicati för att kunna komma åt filerna sedan om något skulle skita sig. I min hjärna så hade det typ räckt om den zippade ihop skiten med ett lösenord jag valt och skickade upp det, fattar att det inte är så man borde gå till väga kanske.

Rsync ersätter inte ensam en backuplagring där man vill kunna gå tillbaka till hur det såg ut för tex. 3 veckor sedan - sådant är enormt viktigt om man tex. blivit utsatt för ransomware och fått alla sina filer krypterade då med en rsync-operation till en backupdisk/NAS då man tar bort alla friska filer och ersätter dem med de krypterade versionen istället...

Rsync är bara till för att spegla directorys och filerna i dem (och gör det väldigt bra). Skall man ha generationsbackup så måste det lösas på lagringssidan med tex. kopiering med hårda länkar göra en kopia av hela filträdet till en mappkopia (med datum) då rsync har i alla fall har den goda smaken att bryta hårda länkar för filer som modifierats (och därmed inte påverkar de äldre hårdlänkade filerna över många backupssesioner tidigare). På lagring med modernare filsystem som BTRFS/ZFS så gör man lämpligen en snapshot på mappen i read-only mode innan man startar backuppen och många köpeNAS med BTRFS som primära filsystem för lagringen så kan man aktivera att mapparna man delar ut över nätverket har automatisk snapshot på dyngsbasis (timbasis går också) och sedan utglesning av snapshot efter time-line regler.

---

För att packa upp zip-filer behöver du zip-program som körs i någon miljö - det är inte annorlunda med att behöva köra duplicati för att hantera duplicati-repositorier, dvs programmet behöver installeras igen på någon dator innan man kan få hem filerna igen.

Idag tänker inte folk på att 'zip' var ett eget program precis som RAR och 7zip då när patenten för själva algoritmen gick ut så började man bygga in det i själva fil-explorern och andra filhanterare och nu anses nu av många vara 'inbyggt' i OS.

En annan program du kan kika på för akutåterställning av en hel fungerande disk med windows är tex. macrium reflect (urbackupp har också den funktionen men är serverbaserad och mer att sätta upp) och i värsta fallet kan startas upp från en USB-sticka

---

Duplicati använder också zip för sina fildelar (chunk) som sedan krypteras och läggs hos repositoriet - om du väljer att inte kryptera så kan du själv se att filerna som lagras i repositoriet är zip-filer med fildelar i sig. Småfiler kan vara hela men större filer kan vara upphackadade i bitar och det behöver inte alls vara lagrat i linjär ordningsföljd.

Duplicati:s stora del gentemot traditionell backupprogram är att den deduplicerar - dvs. finns flera lika filer eller delar av filinnehållet på flera olika filer (som disk-imagens) på olika ställen i filsystemet som är lika i innehåll så lagras det bara en enda gång - samma sak om man i en backupsession senare med filer som bara är ändrat till en liten del så är det bara den delen av filen som ändrats som sparas medans resten hänvisar till redan befintliga filkroppar i repositoriet.

Att hålla reda på allt detta sköts av databasmotor och databasfiler (som även läggs i repositoriet) där man har hash-summor av alla fildelar och också har 'receptet' i hur man från de olika delarna kan få tillbaka filerna i sin ursprungliga form igen och för var dag för backupsessionerna.

Duplicati har också funktion att ta bort de fildelar i repositoriet som inte längre finns kvar i databaserna för att tex. de inte längre refereras i någon session längre, som raderade sessioner över en viss (ställbar) antal generationer bakåt i tiden, timeline-utrensning etc. och på så återställer lite ledig diskplats igen.

Alla backupprogrammen som duplicati, duplicacy, borgbackup, restic jobbar på liknande sätt med 'chunk' i repositoriet för filbitar efter deduplicering och detta gör att man i princip kan gör hur många backupsessioner man vill och har alla versioner kvar, man kan ta bort backupsessioner i önskad ordning och tidslinje (tex. utglesning med dagliga backupper i max två veckor, veckobackup i två månader och sedan månadsbackup, halvårsbackup, årsbackup etc.), vilket är omöjlig med traditionella backupper med inkrementella backupper och att man inte behöver göra en ny huvudbackup på månadsbasis som tar en massa diskplats om man tex. skall ha minst 3 månaders historia vilket då kan ge 4 fulla fullbackupper + alla inkrementella backupper ovanpå detta - vilket är annars det vanliga på traditionella backupper med inkrementella backupper med ny huvudbackup per 30 dagar.

---

Det finns en historia från tiden när ISP och Internet fortfarande var ganska nytt och det här gällde en ISP som hette Algonet (detta var tiden kring 1992 och innan dagens system med virtuella maskiner och distribuerad lagring med SAN var etablerad eller ens fanns HW för det), och där en HD på enstaka GB kostade över 10 papp...

De hade ett antal SUN-servrar borta i Sunbyberg och en dag gick AC som kylde rummen sönder och typisk i den typen av teknikrum så blir det bastuvarmt på bara enstaka timmar - vilket gjorde att ett antal hårddiskar havererade. Shit happens!

Problemet efteråt var att lägga tillbaka data igen från backup och de körde klassisk backup på band med huvudback och inkrementell-backup vilket i princip alla backupprogram gjorde tills bara för ett antal år sedan (och många fortfarande gör)

problemet: man hade 30 dagar inkrement per huvudbackup och ovan händelse hände den 29 dagen inkrement dvs. dagen innan ny huvudbackup skulle tas, men med Murphys law så händer alltid skit när det är som mest kritiskt och ställer till med mesta möjliga elände.

Med andra ord backuppen innebar att man först fick köra tillbaka huvudbackuppen - sedan lägga på varje inkrement efter varandra dag för dag av backuppen och det hela byggde på att modifiera på datat som fans på den föregående dagen på diskarna - med andra ord skulle en inkrement för en dag vara skadad i kedjan så är alla backupper efter denna 'dag' inte möjliga att återställa. Med andra ord känsligt för fel.

Det tog dem ca 1.5 dygn innan det hela var återställt och man kunde släppa in folk igen och starta alla olika hemsidor som fans där på den tiden. Och slutsatsen var att denna backupstrategin fungerar inte i praktiken då återställningen tog för lång tid... vilken lösning som användes efter detta vet jag inte men det var en sådan kris där allt drogs till sin spets visade att strategin man hade inte höll för det.

Permalänk
Medlem
Skrivet av xxargs:

Rsync ersätter inte ensam en backuplagring där man vill kunna gå tillbaka till hur det såg ut för tex. 3 veckor sedan - sådant är enormt viktigt om man tex. blivit utsatt för ransomware och fått alla sina filer krypterade då med en rsync-operation till en backupdisk/NAS då man tar bort alla friska filer och ersätter dem med de krypterade versionen istället...

Rsync är bara till för att spegla directorys och filerna i dem (och gör det väldigt bra). Skall man ha generationsbackup så måste det lösas på lagringssidan med tex. kopiering med hårda länkar göra en kopia av hela filträdet till en mappkopia (med datum) då rsync har i alla fall har den goda smaken att bryta hårda länkar för filer som modifierats (och därmed inte påverkar de äldre hårdlänkade filerna över många backupssesioner tidigare). På lagring med modernare filsystem som BTRFS/ZFS så gör man lämpligen en snapshot på mappen i read-only mode innan man startar backuppen och många köpeNAS med BTRFS som primära filsystem för lagringen så kan man aktivera att mapparna man delar ut över nätverket har automatisk snapshot på dyngsbasis (timbasis går också) och sedan utglesning av snapshot efter time-line regler.

---

För att packa upp zip-filer behöver du zip-program som körs i någon miljö - det är inte annorlunda med att behöva köra duplicati för att hantera duplicati-repositorier, dvs programmet behöver installeras igen på någon dator innan man kan få hem filerna igen.

Idag tänker inte folk på att 'zip' var ett eget program precis som RAR och 7zip då när patenten för själva algoritmen gick ut så började man bygga in det i själva fil-explorern och andra filhanterare och nu anses nu av många vara 'inbyggt' i OS.

En annan program du kan kika på för akutåterställning av en hel fungerande disk med windows är tex. macrium reflect (urbackupp har också den funktionen men är serverbaserad och mer att sätta upp) och i värsta fallet kan startas upp från en USB-sticka

---

Duplicati använder också zip för sina fildelar (chunk) som sedan krypteras och läggs hos repositoriet - om du väljer att inte kryptera så kan du själv se att filerna som lagras i repositoriet är zip-filer med fildelar i sig. Småfiler kan vara hela men större filer kan vara upphackadade i bitar och det behöver inte alls vara lagrat i linjär ordningsföljd.

Duplicati:s stora del gentemot traditionell backupprogram är att den deduplicerar - dvs. finns flera lika filer eller delar av filinnehållet på flera olika filer (som disk-imagens) på olika ställen i filsystemet som är lika i innehåll så lagras det bara en enda gång - samma sak om man i en backupsession senare med filer som bara är ändrat till en liten del så är det bara den delen av filen som ändrats som sparas medans resten hänvisar till redan befintliga filkroppar i repositoriet.

Att hålla reda på allt detta sköts av databasmotor och databasfiler (som även läggs i repositoriet) där man har hash-summor av alla fildelar och också har 'receptet' i hur man från de olika delarna kan få tillbaka filerna i sin ursprungliga form igen och för var dag för backupsessionerna.

Duplicati har också funktion att ta bort de fildelar i repositoriet som inte längre finns kvar i databaserna för att tex. de inte längre refereras i någon session längre, som raderade sessioner över en viss (ställbar) antal generationer bakåt i tiden, timeline-utrensning etc. och på så återställer lite ledig diskplats igen.

Alla backupprogrammen som duplicati, duplicacy, borgbackup, restic jobbar på liknande sätt med 'chunk' i repositoriet för filbitar efter deduplicering och detta gör att man i princip kan gör hur många backupsessioner man vill och har alla versioner kvar, man kan ta bort backupsessioner i önskad ordning och tidslinje (tex. utglesning med dagliga backupper i max två veckor, veckobackup i två månader och sedan månadsbackup, halvårsbackup, årsbackup etc.), vilket är omöjlig med traditionella backupper med inkrementella backupper och att man inte behöver göra en ny huvudbackup på månadsbasis som tar en massa diskplats om man tex. skall ha minst 3 månaders historia vilket då kan ge 4 fulla fullbackupper + alla inkrementella backupper ovanpå detta - vilket är annars det vanliga på traditionella backupper med inkrementella backupper med ny huvudbackup per 30 dagar.

---

Det finns en historia från tiden när ISP och Internet fortfarande var ganska nytt och det här gällde en ISP som hette Algonet (detta var tiden kring 1992 och innan dagens system med virtuella maskiner och distribuerad lagring med SAN var etablerad eller ens fanns HW för det), och där en HD på enstaka GB kostade över 10 papp...

De hade ett antal SUN-servrar borta i Sunbyberg och en dag gick AC som kylde rummen sönder och typisk i den typen av teknikrum så blir det bastuvarmt på bara enstaka timmar - vilket gjorde att ett antal hårddiskar havererade. Shit happens!

Problemet efteråt var att lägga tillbaka data igen från backup och de körde klassisk backup på band med huvudback och inkrementell-backup vilket i princip alla backupprogram gjorde tills bara för ett antal år sedan (och många fortfarande gör)

problemet: man hade 30 dagar inkrement per huvudbackup och ovan händelse hände den 29 dagen inkrement dvs. dagen innan ny huvudbackup skulle tas, men med Murphys law så händer alltid skit när det är som mest kritiskt och ställer till med mesta möjliga elände.

Med andra ord backuppen innebar att man först fick köra tillbaka huvudbackuppen - sedan lägga på varje inkrement efter varandra dag för dag av backuppen och det hela byggde på att modifiera på datat som fans på den föregående dagen på diskarna - med andra ord skulle en inkrement för en dag vara skadad i kedjan så är alla backupper efter denna 'dag' inte möjliga att återställa. Med andra ord känsligt för fel.

Det tog dem ca 1.5 dygn innan det hela var återställt och man kunde släppa in folk igen och starta alla olika hemsidor som fans där på den tiden. Och slutsatsen var att denna backupstrategin fungerar inte i praktiken då återställningen tog för lång tid... vilken lösning som användes efter detta vet jag inte men det var en sådan kris där allt drogs till sin spets visade att strategin man hade inte höll för det.

Tack för ett utförligt svar! Jag har landat i att försöka hålla mig ifrån lagring av filer så länge jag bara kan. Tanken var i förstahand att kolla på alternativ till Google Photos men efter att ha vänt på alla stenar hittar jag egentligen inget som känns någorlunda vettigt. Det i kombination med rädslan för att förlora viktiga foton har fått mig att tänka om då jag verkligen har dålig koll på det här med redundans och backups.

Dock kommer jag behöva en backuplösning för lite andra vm's och såg att Proxmox ju faktiskt har bra backuplösningar. Så i detta nu har jag börjat köra backups till en extern hårddisk. Om jag ska försöka flytta den off site återstår att se.

Permalänk
Medlem
Skrivet av Filikun:

Dock kommer jag behöva en backuplösning för lite andra vm's och såg att Proxmox ju faktiskt har bra backuplösningar. Så i detta nu har jag börjat köra backups till en extern hårddisk. Om jag ska försöka flytta den off site återstår att se.

Tänk 3-2-1:
3 backups på minst 2 olika medier med 1 backup offsite.

Jag ska kanske inte vara så styv i korken för egen del, har inte fått upp min off-site än såhär i pandemin.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Inaktiv

Visste ni att NextCloud är med i en utvärdering för Skatteverket och kronofogdemyndigheten?

Lite coolt att svensk myndighet kollar på open-source lösninhar

Permalänk
Medlem
Skrivet av anon300311:

Visste ni att NextCloud är med i en utvärdering för Skatteverket och kronofogdemyndigheten?

Lite coolt att svensk myndighet kollar på open-source lösninhar

Yes, är medveten om det. Även försäkringskassan och en del universitet.

Mitt bolag ju partner i Sverige till Nextcloud...

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Avstängd

@enoch85

Det finns en allvarlig bug i appen till android som måste fixa.

Appen försöker ladda upp data till server och misslyckas med det på grund av SSL fel och den sitter och spammar hela tiden och gör slut på min surf samt gör att mobilen dör så att den startas om flera gånger.

Lösning på problemet är att den kollat först om server är ok och inga tex SSL fel innan den försöker ladda upp filer.

Jag kör den nyaste version på mobilen, detta problem har vart länge.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Sötast
Skrivet av superegg:

@enoch85

Det finns en allvarlig bug i appen till android som måste fixa.

Appen försöker ladda upp data till server och misslyckas med det på grund av SSL fel och den sitter och spammar hela tiden och gör slut på min surf samt gör att mobilen dör så att den startas om flera gånger.

Lösning på problemet är att den kollat först om server är ok och inga tex SSL fel innan den försöker ladda upp filer.

Jag kör den nyaste version på mobilen, detta problem har vart länge.

Borde inte lösningen vara att åtgärda SSL felen?

Permalänk
Avstängd
Skrivet av Allexz:

Borde inte lösningen vara att åtgärda SSL felen?

Inte så lätt att fixa, problemet kommer kvarstår.

När man använder pfsense så går det inte att loppa ip adressen, har gjort att den använder lan ip adress när man är hemma och ute med publik ip adressen men det har funkat bra innan men strular när man använder andras wifi.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av Allexz:

Borde inte lösningen vara att åtgärda SSL felen?

Håller med.

Skulle inte kalla det en bugg i Android appen. Snarare en (sorry) dålig TLS-uppsättning.

Men, dock värt att skapa en ticket för att se vad utvecklarna säger: https://github.com/nextcloud/android/issues

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem

Har precis satt upp en ny Nextcloud med Apache. Har fått bort alla felmmedelanden förrutom detta:

Din webbserver är inte korrekt inställd för att lösa "/.well-known/webfinger". Ytterligare information finns i dokumentationen. Din webbserver är inte korrekt inställd för att lösa "/.well-known/nodeinfo". Ytterligare information finns i dokumentationen Din webbserver är inte korrekt inställd för att lösa "/.well-known/caldav". Ytterligare information finns i dokumentationen Din webbserver är inte korrekt inställd för att lösa "/.well-known/carddav". Ytterligare information finns i dokumentationen

Har försökt med de lösningarna från Nextclouds manual, men det funkar inte. Jag har även försökt med andra lösningar jag googlat fram. Min Nextcloud ligger i /var/www/html/nextcloud/ och har till och med försökt att ge hela länken i htaccess-filen (den som ligger i /var/www/html/nextcloud/). Ska det kanske länkas i någon annan fil?

Tror inte dessa felmedelanden spelar nog roll för funktionen, men mest nyfiken på hur man löser dem.

Edit:
Lyckades lösa det.
i /etc/apache2/sites-available/default-ssl.conf lade jag till:

Redirect 301 /.well-known/carddav /nextcloud/remote.php/dav Redirect 301 /.well-known/caldav /nextcloud/remote.php/dav Redirect 301 /.well-known/webfinger /nextcloud/index.php/.well-known/webfinger Redirect 301 /.well-known/nodeinfo /nextcloud/index.php/.well-known/nodeinfo

La till detta under raden DocumentRoot /var/www/html

sparade filen och körde:

sudo service apache2 restart

Hoppas det hjälper någon.

Visa signatur

ASUS ROG STRIX B450-F GAMING - AMD Ryzen 5 3600 3.6 GHz 35MB - Cooler Master - Hyper 212 Black Edition - Corsair 16GB (2x8GB) DDR4 3200Mhz CL16 Vengeance LPX - Kingston A2000 500GB M.2 NVMe - Fractal Design Define C Svart - 2 X Noctua NF-P14s redux-1200 140mm PWM - Corsair RM650X 650W v2 - ASUS GeForce GTX 1060 6GB DUAL OC - Raijintek Morpheus II Heatpipe VGA Cooler - 2 X Noctua NF-P12 120mm PWM - OS Debian 10 Stable

Permalänk
Medlem

ÄR det nån här som använder Face Recognition plugin i Nextcloud
https://apps.nextcloud.com/apps/facerecognition
Får inte till de där tilläggen som behövs hur jag än gör.
https://github.com/matiasdelellis/facerecognition

Finns det andra lösningar för att få till Face Recognition i nextcloud, har c:a 70 000bilder som jag skulle vilja indexera upp.

Permalänk
Medlem
Skrivet av Quart:

ÄR det nån här som använder Face Recognition plugin i Nextcloud
https://apps.nextcloud.com/apps/facerecognition
Får inte till de där tilläggen som behövs hur jag än gör.
https://github.com/matiasdelellis/facerecognition

Finns det andra lösningar för att få till Face Recognition i nextcloud, har c:a 70 000bilder som jag skulle vilja indexera upp.

Det finns ingen annan i dagsläget. Eller inte som integrerar så som den appen gör.

Tog lite tid på min test setup. Men annars tyckte jag det inte har så knepigt att få in det.

Kom med text som inte skulle vara med
Permalänk
Medlem
Skrivet av SmallOne:

Det finns ingen annan i dagsläget. Eller inte som integrerar så som den appen gör.

Tog lite tid på min test setup. Men annars tyckte jag det inte har så knepigt att få in det.

Hittade via denna sidan ett script som installerade Nextcloud med allt jag behövde. Så jag har fått igång det.
https://www.hanssonit.se/nextcloud-vm/

Men tyvärr var det inte så bra som jag trodde, man får klicka på klicka på olika ställen för at göra de olika urvalen.
Hade velat ha det mer samlat likt Qnaps QuMagie eller Synlogys photos.
Att man kan tex välja person och tex år och då få den personen på den platsen osv

Kanske blir att bita i det sura äpplet och köpa en NAS

Permalänk
Medlem
Skrivet av Quart:

Hittade via denna sidan ett script som installerade Nextcloud med allt jag behövde. Så jag har fått igång det.
https://www.hanssonit.se/nextcloud-vm/

Men tyvärr var det inte så bra som jag trodde, man får klicka på klicka på olika ställen för at göra de olika urvalen.
Hade velat ha det mer samlat likt Qnaps QuMagie eller Synlogys photos.
Att man kan tex välja person och tex år och då få den personen på den platsen osv

Kanske blir att bita i det sura äpplet och köpa en NAS

Applikationen har ju inte utvecklats så mycket än. Men kan den få lite backning så kan den säkerligen blir bättre med tiden.

Kom på att recognize finns med. Men den är direkt för bara ansikten utan allt möjligt

Permalänk
Medlem
Skrivet av Quart:

Hittade via denna sidan ett script som installerade Nextcloud med allt jag behövde. Så jag har fått igång det.
https://www.hanssonit.se/nextcloud-vm/

Kul att du gillade den!

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av Quart:

ÄR det nån här som använder Face Recognition plugin i Nextcloud
https://apps.nextcloud.com/apps/facerecognition
Får inte till de där tilläggen som behövs hur jag än gör.
https://github.com/matiasdelellis/facerecognition

Finns det andra lösningar för att få till Face Recognition i nextcloud, har c:a 70 000bilder som jag skulle vilja indexera upp.

Har du installerat vald modell? Kolla under inställningar och Face Recognition under Administration. Röd/grön lampa? Där ser du om något saknas.
Har du schemalagt aktiviteten https://github.com/matiasdelellis/facerecognition#schedule-ba...?

Skrivet av SmallOne:

Det finns ingen annan i dagsläget. Eller inte som integrerar så som den appen gör.

Tog lite tid på min test setup. Men annars tyckte jag det inte har så knepigt att få in det.

Denna appen finns också:
https://apps.nextcloud.com/apps/recognize
Däremot inte testat den. (såg nu att du hade svarat om den senare)

Photoprism är ett annat alternativ som funkar att köra mot Nextcloud och som erbjuder ansiktsigenkänning + lite annat.

Permalänk
Medlem

Hmm, Photoprism är intressant! Har cirka 1 TB foto från mobilen sedan 2013, och det ligger helt osorterat.

Hur funkar det att koppla Photoprism mot AutomatiskUppladdning-mappen? Blir det dubbel lagring? Samt, kommer Photoprismt att skriva tillbaka över Webdav till Nextcloud med allting sorterat och klart?

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av enoch85:

Hmm, Photoprism är intressant! Har cirka 1 TB foto från mobilen sedan 2013, och det ligger helt osorterat.

Hur funkar det att koppla Photoprism mot AutomatiskUppladdning-mappen? Blir det dubbel lagring? Samt, kommer Photoprismt att skriva tillbaka över Webdav till Nextcloud med allting sorterat och klart?

Jag ska göra ett test där. Det borde gå utmärkt att bara peka ut photoprism mot mappar med bilder.

Permalänk
Medlem
Skrivet av enoch85:

Hmm, Photoprism är intressant! Har cirka 1 TB foto från mobilen sedan 2013, och det ligger helt osorterat.

Hur funkar det att koppla Photoprism mot AutomatiskUppladdning-mappen? Blir det dubbel lagring? Samt, kommer Photoprismt att skriva tillbaka över Webdav till Nextcloud med allting sorterat och klart?

Kör direkt mot autouppladdnings-mappen, har den som skrivskyddad för tillfället men kanske ändrar på det ju mer bekväm jag blir med PhotoPrism. Just att kunna enbart hantera foton från PhotoPrism framöver. Det blir inte dubbel lagring (om du inte vill så klart) utan det som blir extra är miniatyrer som skapas och ev taggar/personer som identifieras och hamnar i PP:s databas. För min del är det betydligt snabbare att använda PhotoPrism.

Behöver du sortera bilder in i mappar kan du använda PowerShell. Hade samma problem och fixade så att en bild med exempelvis namnet IMG_0774.jpg ändrades till [datum då bilden togs/filen skapades] [Klockslag] [löpnummer från tidigare namn] . [filändelse], så exempelvis 17-10-06 15-35-46 0774.jpg. Sen in i mapp utifrån år och månad, för att matcha med Nextcloud.