OneDrive som backuplösning?

Permalänk
Medlem

OneDrive som backuplösning?

Hej,

Jag vet att det är stor skillnad på molnlagring(ex onedrive) och backuplösning. Molnlagring är huvudsakligen tänkt att synka filer mellan system, raderar man dem så är de borta. Det verkar dock finns vissa molnlagringar som erbjuder file recover? Jag hittade denna länken :

https://support.office.com/en-us/article/restore-deleted-file...

Det verkar dock inte vara självklart att det går? Någon som vet mer eller har erfarenhet av detta?

I mitt fall är det bara 400 GB som jag gör backup på.

Kan jag inte använda OneDrive för detta så lutar det åt Backblaze.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Har jag förstått dig rätt om det är så att du vill använda Onedrive som backup och inte molnlagring, eller en kombination av dessa? Om det är en ren backup du vill ha tycker jag det är smidigast att använda tredjepartsmjukvara som har stöd för att använda Onedrive som destination. Kolla in Duplicati t.ex. Även Rclone fungerar bra om du är villig att pilla lite med CLI.

Visa signatur

Alla mina leksaker får inte plats här, så här jag listar istället mina favoritinlägg:
1 2 3 4 5 6 7 8 9 10 11 12

Utelåst hobbymoderator

Permalänk
Medlem

Du kan använda OneDrive med flera olika backup-lösningar. Min personliga favorit är Duplicati som är open source och skapar versioner som du kan återskapa från varje gång du kör en backup. https://www.duplicati.com/

Jag kör en backup dagligen men använder JottaCloud istället för OneDrive. Har behövt återskapa filer från backup några gånger och det har fungerat utmärkt.

Permalänk
Medlem

OneDrive är molnlagring, inte en backuptjänst. Däremot kan du såklart använda OneDrive som lagringsyta för ett backupprogram. Själv använder jag Google Drive som lagring för backup från min Synology NAS. Till min NAS skickar jag även en backup från min pappas dator så för honom finns det tom två lager av backup, en kopia på min NAS och en på Google Drive. Givetvis med versionshantering/retention och skydd från oavsiktlig radering..

Skickades från m.sweclockers.com

Visa signatur

WS: R7 2700x | RTX 2070S | Corsair AX860W | Lian Li PC-O11 Dynamic
Unraid: R7-2700X | GTX1050 | 3U chassi med 20 diskplatser
Servrar: 3x NUC 10 i5 ESX-kluster

Permalänk
Medlem

Man får titta på resp molntjänst om de har någon versions och revisionshantering av filer (dvs gamla versioner ligger kvar en tid) - ofta är det något man får betala lite extra för och är inte i standard-paketet.

detta är också något som få tänker på tills man blir utsatt för totala katastrofen - dvs. ett ransonware-program krypterat alla filer ett varv, backupprogrammet har kört upp de krypterade filerna och raderad de gamla 'friska' filerna under tex. en långhelg eller semester...

är molnlagringen monterade som nätverksvolymer så kan även ransomware-program gå runt på molnlagrigen och kryptera eller förstöra/radera filer den vägen - det går fort att kryptera upp de första 4096 byten på varje fil i arkivet för att det skall bli katastrof för de flesta...

Somliga molnttjänster som blackblaze har någon veckas spartid på gamla versioner av ändrade filer i sina standard backup-kit och köper man plats och använder B2 (som duplicati stöder, fungerar på ungefär samma sätt som Amazons S3 ) så kan man själv styra hur länge gamla filer skall finnas kvar trots nya är skrivna med samma namn och plats - där betalar man för totala volymen man tar upp med alla backuper och generationer som finns.

Permalänk
Medlem

Jag kör med Zoolz Cloud Storage:
https://depot.xda-developers.com/sales/zoolz-cloud-storage-li...

Mindre än US$50 för 2TB på "livstid" är inte fel. Hittills har jag dock enbart laddat upp filer till deras "vault" (likt Dropbox). Deras lösning använder Amazon i grunden.

För backup använder man deras egna klient.

Skickades från m.sweclockers.com

Permalänk
Medlem

Hur fungerar Duplicati, känner den av om någon är ändrat innan den skickar upp eller skickar den alltid upp? D.v.s kommer den skicka upp 20 GB även om det är identiskt med det som ligger där.

Det jag inte gillar med Duplicati är alla inställningar, förstår att de fyller en funktion men just backup vill man ska vara så enkelt det går. Min tidigare backuplösning var bara till att installera och peka ut, inget mer behövde man fundera på. Smidigt när man ominstallerade datorn!

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Det finns ju alltid saker du bör ta i beaktande när man väljer backuplösningar. Att "bara peka ut" och köra låter som om programmet väljer massa saker åt dig som du själv inte vet vilka val du gjort. Tex hur många versioner skall sparas, vilka skall kastas eller ska de flyttas till annan plats efter vis tid, ska alltid allt backas upp eller bara differensen, vilka filer är intressanta, ska vissa filtyper sållas bort mfl.

Visa signatur

.: Learn the system, Play the system, Break the system :.

Permalänk
Hedersmedlem
Skrivet av Jimmy:

Hur fungerar Duplicati, känner den av om någon är ändrat innan den skickar upp eller skickar den alltid upp? D.v.s kommer den skicka upp 20 GB även om det är identiskt med det som ligger där.

Det jag inte gillar med Duplicati är alla inställningar, förstår att de fyller en funktion men just backup vill man ska vara så enkelt det går. Min tidigare backuplösning var bara till att installera och peka ut, inget mer behövde man fundera på. Smidigt när man ominstallerade datorn!

"Så enkelt som möjligt" är inte alltid det bästa när det gäller backup. Att hela tiden ha flera rullande generationer av filer är mycket viktigt vid virusangrepp, felaktigt redigerade eller borttagna filer osv. Det kräver oftast en del inställningar men då sitter man säkert och förlorar inte mer än max en dags arbete.

Jag kör Crashplan (mycket bra generationshantering) och Google Drives relativt nya "säkerhetskopiera och synkronisera" för enklare, okritiska saker.

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Medlem
Skrivet av MultiMan:

"Så enkelt som möjligt" är inte alltid det bästa när det gäller backup. Att hela tiden ha flera rullande generationer av filer är mycket viktigt vid virusangrepp, felaktigt redigerade eller borttagna filer osv. Det kräver oftast en del inställningar men då sitter man säkert och förlorar inte mer än max en dags arbete.

Jag kör Crashplan (mycket bra generationshantering) och Google Drives relativt nya "säkerhetskopiera och synkronisera" för enklare, okritiska saker.

Jag går från Crashplan då de efter skrotningen av konsumenttjänsten har blivit extremt långsamma. Min server har inte slutfört en backup på över 4 månader, och en klient har inte en enda komplett backup. Eftersom man inte vet vilka filer som inte backas så fungerar det inte.

Skickades från m.sweclockers.com

Visa signatur

WS: R7 2700x | RTX 2070S | Corsair AX860W | Lian Li PC-O11 Dynamic
Unraid: R7-2700X | GTX1050 | 3U chassi med 20 diskplatser
Servrar: 3x NUC 10 i5 ESX-kluster

Permalänk
Medlem
Skrivet av Bakgrund:

Har jag förstått dig rätt om det är så att du vill använda Onedrive som backup och inte molnlagring, eller en kombination av dessa? Om det är en ren backup du vill ha tycker jag det är smidigast att använda tredjepartsmjukvara som har stöd för att använda Onedrive som destination. Kolla in Duplicati t.ex. Även Rclone fungerar bra om du är villig att pilla lite med CLI.

Tack för tipset, installerade precis Duplicati och kör mot OneDrive, verkar smidigt.

Ska dock testa återställning innan jag är helt nöjd

Det är något många glömmer, det räcker inte att ha backup, utan det ska fungera att återställa också, så jag rekommenderar att testa det minst 1ggn / månad.

Visa signatur

Ny signatur!

Permalänk
Medlem

Körde Crashplan under många år och kan inte minnas att jag behövde ställa in någon där merän vad som skulle backas? Så vid ominstallation var det smidigt.

Visst finns det mycket man kan göra med backup men jag vill ha en färdig lösning där jag inte behöver göra dessa val, där mjukvaran ställer in det som anses tillräckligt bra.

Backblaze verkar ganska likt Crashplan men det är mycket möjligt att även där finns en del inställningar.

Duplicati hade en hel hög inställningar och jag har ingen aning om vad som är rimligt att välja, särskilt inte i kombination med ex onedrive där man ändå har ett begränsat utrymme.

Jag backar inte merän 400 GB och detta har Crashplan fixat utmärkt, har fått mail ständigt om att de lyckats backa sakerna. Dock har jag aldrig testat att återställa vilket såklart är minst lika viktigt. Min känsla är dock att de e mindre som kan gå fel när man väljer en färdig lösning jämfört med Duplicati. Man vill inte hamna i en sits där man behöver hämta tillbaka och det visar sig att man missat en lite inställning någonstans.

Vid ominstallation ska jag inte behöva fundera på vilka inställningar som nu var rätt.

Kort sagt kan man säga att jag vill inte behöva läsa mig in och bli specialist på hur backup fungerar, jag vill köpa något liknande crashplan där det bara fungerar.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem

Det är en av osäkerheterna med externa molntjänster - villkor och snabbhet (samt pris) kan ändras, klienter gör plötsligt inte sitt jobb eller tar för lång tid på detta etc. etc. - och när man väl behöver backuppen så kanske det går väldigt långsamt att tanka tillbaka och en del tjänster har typ 4-dubbla GB-kostnaden när man återhämtar datat (tex. blackblaze B2 och Amazon S3 har asymmetrisk prissättning beroende om data skickas upp eller hämtas tillbaka)

man bör se till att molntjänsten inte är den enda backupstället, utan man har också en nära sig i form av extern USB-disk och/eller egen NAS.

Backup på molntjänster är en 'last resort' när det skitit sig rejält hemma som stöld, brand, översvämning eller åsknedslag.

---

Duplicati är ganska rättfram när man sätter upp en backupsession och default-värdena fungerar ganska bra. - möjligen kan momentet att man sätter passorword på sina arkiv och delen var man sänder sin backupdata till som upplevs lite komplicerat eftersom det finns allt större urval även till kommersiella molntjänster (men det är också dess styrka i många fall).

Skall man sända data via en ssh-konto till en NAS så brukar det vara lite bök innan allt fungerar - men det är också en av de säkrare sätten att 'gömma undan' sina backup-filer så att de inte är åtkomliga av oönskad programvara som ransomware - ja under förutsättning att filerna inte dyker upp i skrivbar form i någon nätverksvolym på använda NAS förstås.

Duplicati kör diffar mellan backupgenerationer (använder liknande teknik som rsync och lagrar bara över de binärstycken som skiljer sig sedan förra backuppen) - dock gör den en full backup 1 gång i månaden (eller vilken tidsmellanrum man nu sätter) då det beror på att återställningstiden kan bli för lång (och allt ökad risk för att fel i någon diff-fil kan ge omfattande kedjefel vid återställande senare om det är många generationer) om man på sista dagen innan ny fullbackup vill hämta gårdagens version - då relevant del av fullbackuppen måste hämtas och sedan applicera alla diff-filer dag för dag tills man får den generationen som man tänkt hämta hem. Det gör också att man inte kan ta bort enskilda dagar eller glesa ut backuppen i efterhand (typ daglig backup 1' veckan, vecka 2-4 är veckobackup, och därefter månadsbackup) då alla sessioner inom månadsbackuppen är hårt inflätade i varandra i en råtta på repet-kedja, utan det är hela månades backup med alla ingående dagar som ryker på en gång när fullbackuppen väl tas bort.

Det är den delen med flera fullbackupper i Duplicati som man faktiskt blir lite irriterad på (om man är på sidan som skall göra backup på NAS:en där dessa filer är lagrade...) om man skall ha daglig backup med 3 månaders historia - man har då 4 fulla uppsättningar (3 sparade och en pågående) + tillhörande dagliga diff-filer på sin backupmedia hela tiden och man tycker att det borde bara räcka med 1 fullbackup + diff-filer...

...men försöker man med detta i snålhetens namn med att bara göra fullbackup var 3 månad och ha diff-filer för 3 månader (och ändå måste ha 2 uppsättningar eftersom man inte kan ta bort den gamla backuppen innan den nya är gjord och rymmer 3 månader med data - om man skall ha 3 månaders retension-tid i alla lägen) så är det större sannolikhet att man biter sig i tummen den dagen man vill ha tillbaka filer igen...

Nu skall dock sägas till Duplicati:s fördel att den har alltid fungerat när det behövs - har en dator på jobbet där duplicati installerades 2012 och sedan snurrat på - två tillfällen varav en helt nyligen så behövde man hämta tillbaka filer och då har det alltid fungerat fläckfritt, installationen har haft noll och intet i underhåll och ingen har tänkt på det eller ens verifiera funktionen efter månaderna efter installationen - det är precis så backupprogram skall jobba, stabilt och osynlig tills den dagen när den behövs.

Ur stabilitets-synpunkt så är det troligen det stabilaste backuplösningen jag har sett när det gäller backupprogram.

---

Nu är jag rätt förtjust i tankegången i 'Borg-backup' med "key - value storage" av datablock med en nyckel som pekar på ett stycke binärdata i någon 'bucket' i repositoriet och sedan databas som håller reda på vilka stycken som hör till vilka filer, vilket gör det enkelt att deduplicera, ta bort och lägga till stycken samt accessen till dessa 'stycken' är samma oavsett backup-session. Backupsessionerna i sig har då ingen beroende av varandra utan kan tas bort i valfri ordning och för sessionen unik data tas bort samtidigt från repositoriet för att återskapa lagringsutrymme igen (man kan även filtrera ut oönskade filer i hela repositoriet gällande samtliga backupper om man fått med tex. icke deduplicerbara, komprimerbara och krypterade cache-filer från spotify och andra streamade-tjänster, oönskade duplicatisessioner, eller sängkammarbilder... etc.)

- Borg-backup har också support på klientsidan där man hashar igenom klientdatorns ändrade filer snabbt och hittar skillnader och kopierar bara över de binärstycke som inte redan finns i repositoriet och uppdaterar databasen. Har man mycket bilder, kopior av dessa på flera ställen samt flyttar runt hela filträn med bilder så är borg-backup oslagbar då den förstår att filen i fråga bara bytt position i filträdet och uppdaterar bara databasen lite - De flesta andra backupsystem ser inte sammanhanget att en fil eller filträd-flyttat på sig utan ser bara att filerna försvann på ett ställe och dök upp på annat ställe mellan backupsessionen vilket gör att det lagras dubbelt i backupprogrammets diff-filer och det sväller iväg i storlek.

Nu är borg-backup tyvärr inte särskilt väl-stött i windows (finns cygwin-client eller under 'linux' i windows) eller har snygga(re) GUI:n på samma sätt som Duplicati - hade gärna sett en ihopslagning av teknikerna på lagringssidan just för att inte behöva mer än 1 fullbackup och effektiv lagring, återställning och borttagning av enskilda backupsessioner och därmed inaktuell data av skillnader mellan backupsessionerna.

---

I stort sett alla moderna stora lagringssystem jobbar med 'key - value' filosofi i olika former (även det tänket finns mer eller mindre uttalat i moderna filsystem som BTRFS och ZFS - och definitivt i hyrda lagringsutrymmen hos Blackblaze B2 och Amazons S3 mfl.) då att köra linjär ström som med 'tar' och dess efterföljare (inklusive duplicity, duplicati med samma grundfilosofi med huvudbackup och därefter diff-filer som modifierar huvudbackupen som om datat ligger sekventiellt på band) har visat sig vara riktigt jobbiga och tidsödande vid en återställning.

Permalänk
Medlem

Provar nu Backblaze och det verkar vara vad jag söker. D.v.s jag behöver inte bry mig om inställningar och annat, den backar upp allt, behöver inte ens ange vilka kataloger.

Återstår att se hur det fungerar i längden och man kan undra om 30 dagar räcker för att hinna restora ev fel.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem
Skrivet av Jimmy:

Provar nu Backblaze och det verkar vara vad jag söker. D.v.s jag behöver inte bry mig om inställningar och annat, den backar upp allt, behöver inte ens ange vilka kataloger.

Återstår att se hur det fungerar i längden och man kan undra om 30 dagar räcker för att hinna restora ev fel.

Drar igång en gammal tråd igen för att jag är lite nyfiken på att få reda på hur Backblaze fungerat?

Permalänk
Medlem
Skrivet av reverend benny:

Drar igång en gammal tråd igen för att jag är lite nyfiken på att få reda på hur Backblaze fungerat?

Vad vill du veta? För oss fungerar det utmärkt, har redan fått återhämta par filer och det gick fint via deras hemsida. Dock så är den ganska långsam på att göra backup så även om de säger att de inte har någon gräns så finns det en gräns.

Jag valde att backa upp alla diskar jag har men efter 6 månader hade den fortfarande inte backat upp allt. Valet då var att köpa annan tjänst eller välja ut mindre data för backup vilket nu fungerar bra.

Du kan alltid testa på det gratis men som sagt, backa inte upp allt för mycket data.

Visa signatur

CPU : AMD Ryzen 5 5600X Moderkort : ASUS ROG Strix B550-F GAMING Grafikkort :EVGA GeForce GTX 1080 Ti FTW3 iCX Gaming HDMI 3xDP 11GBMinne : Corsair 16GB Chassi :Fractal Design Define 7 Compact Nätdel : Corsair RM750x Skärm #1 : Asus VG349Q Ultrawide Skärm #2 : Acer X34 Ultrawide

Permalänk
Medlem
Skrivet av Jimmy:

Vad vill du veta? För oss fungerar det utmärkt, har redan fått återhämta par filer och det gick fint via deras hemsida. Dock så är den ganska långsam på att göra backup så även om de säger att de inte har någon gräns så finns det en gräns.

Jag valde att backa upp alla diskar jag har men efter 6 månader hade den fortfarande inte backat upp allt. Valet då var att köpa annan tjänst eller välja ut mindre data för backup vilket nu fungerar bra.

Du kan alltid testa på det gratis men som sagt, backa inte upp allt för mycket data.

Superbra feedback, stort tack.
Försöker hitta ett bra alternativ till en kompis som ska backa sin mac på något smidigt sätt.
Han är inte så datorvan och vill helst slippa ha en massa nasboxar som ska synkas osv.

Permalänk
Medlem

Jag använder för närvarande Blackblaze B2 och Duplicati (version 2) - där slutförs backuppen inom rimlig tid vid första körningen och sedan är det mindre poster på förändringar som körs över på mycket kortare tid - dock inte på långa vägar lika snabbt som till egen server/NAS. Duplicati (ver. 2) kör också med 'key - value' strategi packade i chunk på lagringen precis som borg-backup (även om det sistnämnda gör jobbet bättre IMHO) vilket gör att huvudbackuppen bara görs en enda gång och sedan plockar man bara de bitar som ändrats sedan förra gången (även bara det ändrade styckena [diffar] på jättestora filer körs över, inte hela filen på nytt) och när man ta bort gamla backupsessioner så tas de stycken bort som inte längre har någon referens kvar i de kvarvarande sessionerna och på så sätt återskapar plats i lagringen.

Dock har jag kört på 'Canary versionen' av Duplicati 2 (läs betaversion) och åkt på en och annan smäll vilket inneburit att man fått bygga om hela arkivet igen - vilket man förhoppningsvis inte behöver uppleva med 'stable' version av Duplicati - men även om man kan skaka av sig detta med beta-körning och dess smällar så har Duplicati ver. 2 en bit kvar innan det är lika skottsäker som Duplicati ver. 1 var (och är). och som rullar ännu på gamla jobbdatorer fast det installerades för typ 8 år sedan och i stort sett bortglömd och verka överleva allt i uppgraderingsväg på OS-sidan inklusive konvertering från win7 till win10 - den bara finns där redo och klar när man behöver den, 5 år senare, typ... (nackdelen är på serversidan med minst 3 upplagor av fullbackup med tillhörande diffar om man har minst 90 dagars retensiontid och de sticker lite i ögon platsmässigt om man pillar med backupper på serversidan, därför hade åtm. jag lite mer förhoppning på Duplicati ver. 2 för att få ned volymerna...)

Det som jag tycker borgbackup hanterar (mycket) bättre än Duplicati är hanteringen av metadatat och framför allt reda ut det när det blir trassel i databaser - för det är där det trasslar i Duplicati och att reparationsförsöken tar evig tid trots att det körs lokalt och mot nätverksvolymer och i slutändan ofta slutar med att backuppen måste göras om från början igen. Och är det trassel på lagringen på en molntjänst så kan man lika gärna skrota denna en tid efter man kört upp en ny instans backup från början.

Till detta så finns kommersiella backupprogram som också hanterar molntjänster, men man skall ha i minnet att inte ens med dessa köper man problemfrihet utan man måste hålla ett getöga på backupprocesser och att de gör som tänkt även där.

När det skrivs om stora haverier så beror det oftast på 'lazy admin' som _inte_ kollar att backupstrategierna fungerar och att programmen som används fortfarande är kompatibla mot varandra - vilket kom till kritan vid den stora haveriet för några år sedan där komun, sjukvård och apotek mfl. fick sina data förstörda pga. havererad lagringssystem från stor känd tillverkare av sådana system 'där sådana fel aldrig händer' och man fann ut att MS egna backupprogram som användes som en sekundär backup inte var kompatibla med varandra och fördröjde återställning med dagar och om inte tom. veckor... och det var ändå lucka på dagar och veckor som inte kunde återställas alls.

---

Har också kört över Blackblazes 'konsumentprodukt' med fri lagringsvolym på en dator men den är designad att inte ta data över nätverksvolymer - bara datorns egna fysiska diskar (går dock att komma runt med iSCSI-volymer över nätverk då dessa betraktas som fysiska volymer i windows när de är monterade, men gör också att dessa volymer inte kan delas över flera maskiner samtidigt eftersom de är just en diskimage på NASen man jobbar på och då kan inte flera OS vara där och rota samtidigt på samma sätt som nätverksvolymer) - medans det låg på ADSL så blev aldrig backuppen helt färdig sas. Det är först med fiber som man ser att backuppen faktiskt slutförs (om man inte trottlar ned bandbredden för mycket vilket är lätt hänt om man kört ADSL innan för att övh. vara körbart mot Internet)

Permalänk
Medlem

Jag använder onedrive för backup av en nas. Funkar bra.

Skickades från m.sweclockers.com

Permalänk
Medlem

Formeterade nyligen min dator, har Onedrive och valde "frigör utrymme". Om jag förstår det rätt flyttar man filer från hårddisken till Onedrive servrar. Varför skulle det inte vara en bra backup.
Mvh

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av KeWm90:

Formeterade nyligen min dator, har Onedrive och valde "frigör utrymme". Om jag förstår det rätt flyttar man filer från hårddisken till Onedrive servrar. Varför skulle det inte vara en bra backup.
Mvh

Skickades från m.sweclockers.com

Fast en flytt av filer är väl inte en backup? Det är ju en flytt av filer.
Skulle något hända ditt onedrive konto, som att du på en annan enhet väljer att ta bort filerna, så är dom ju borta.

Permalänk
Medlem

Att ha backup innebär att samma fil finns lagrade på minst 2 oberoende ställen, så fort filen blir i en enda exemplar så är det en original och skadas/försvinner den så är filen förlorad för alltid.

och nej, molntjänster är inte 100% säkra dom heller, konton kan stängas/spärras av olika orsaker - har hänt även hos MS, juridiska orsaker varför konton stängs/spärrats är mycket svårare att häva för att få tillbaka sina filer än att skicka tappad snurrdisk till en diskräddningsfirma - mao. utsätt dig inte risken att få dina data tagen som gisslan i en molntjänst och eventuell dispyt där genom att alltid också ha full kopia av dem hemma - alltid och i alla lägen!

Permalänk
Medlem
Skrivet av xxargs:

Att ha backup innebär att samma fil finns lagrade på minst 2 oberoende ställen, så fort filen blir i en enda exemplar så är det en original och skadas/försvinner den så är filen förlorad för alltid.

och nej, molntjänster är inte 100% säkra dom heller, konton kan stängas/spärras av olika orsaker - har hänt även hos MS, juridiska orsaker varför konton stängs/spärrats är mycket svårare att häva för att få tillbaka sina filer än att skicka tappad snurrdisk till en diskräddningsfirma - mao. utsätt dig inte risken att få dina data tagen som gisslan i en molntjänst och eventuell dispyt där genom att alltid också ha full kopia av dem hemma - alltid och i alla lägen!

+100. https://hothardware.com/news/microsoft-patents-pirated-conten...

Some patent titles are vague, but Microsoft's latest leaves nothing to the imagination: "Disabling prohibited content and identifying repeat offenders in service provider storage systems".

Permalänk
Medlem

Visar också på att det är program som analyserar allt som lagras upp och förstås görs intel på innehållet - för vems syften eller vad som kan ske i framtiden? - sådant här blir aldrig bättre med tiden. Man ger sig inte på det som är krypterat men allt omkring som folk inte orka packa och kryptera är en guldkälla att ösa ur...

Hur mycket företags-intel görs det - information som ingen annan än företaget skall känna till ?? - har det väl läckt ut och förts över nätverket är det försent även om datat bara ligger delar av en sekund (synligt...) hos molntjänsten för att användaren inser misstaget väldigt kvickt och raderar igen.

Precis som Google och andra tjänster så sparas precis allt och inget försvinner - därför kommer inte snurrhårddiskarna att försvinna på överskådlig tid även om det inte är så synligt i databutiker längre - för det måste lagras någonstans och tål lite lagringstid och är det krav på access på delar av sekund så är snurrdiskar det billigaste idag.