Inlägg

Inlägg som xxargs har skrivit i forumet
Av xxargs

det är inte så att du har indexeringsprogram, defender eller liknande som går i bakgrunden och låser filer som gör att det stannar ??

Av xxargs

Ett alternativ till korken är ju just 'kork' kanske, eller en korkbricka i pluggen/locket beroende på hur det ser ut och hur det tätar - kork från korkträdet är ett material som är väl utprovat under hundratals år och med känd riskprofil (den avger nog mer ämnen av olika slag till bakomliggande vätskan än de flesta av de syntetiska materialen om man skall vara petig)

Av xxargs
Skrivet av BasseBaba:

Jag är faktiskt benägen att hålla med här.
Om man under cert-processen märker att mjukvaran läser in filer som kan uppdateras, så hade en av dom första grejorna jag testat varit att slänga dit en ”trasig” fil.

Hur man inte har märkt att det inte finns något skydd mot detta är under all kritik.

Det är alltid lätt att vara efterklok när skadan väl har visats och man ser en väg varför det hände...

Krasst sett så är det nog rätt många företags konfigfiler och annan typ av datafiler som skulle behöva börja testas med randomiserade bitfel i ganska hög takt, kan visa att systemet inte beter sig olämplig och också helst kan upptäcka felen och ha 'safe operation' för dem. mycket check/hashvärden blir det - men hjälper ändå inte om det är 'syftningsfel' som får en för felet korrekt checksumma påhängd efter sig - tex en datastruktur får en rad med '0' fast det aldrig skall bli bara '0' någon gång.

Av xxargs
Skrivet av Morna:

Ja, jag förstår hur du menar men jag tycker att det förutsätter exempelvis att NTFS får en cow-funktion, eller att man kan köra ReFS på boot-driven då ReFS har bättre möjligheter för snapshots och att funktionen kan särskilja på vilken komponent det är som orsakar felet, exempelvis en uppdateringsfil och inte hela mjukvaran. Alltså att din tänkta funktion skulle ta bort uppdateringsfilen istället för att blocka mjukvaran den hör till (och att saker inte går sönder för att mjukvaran kan hantera att den inte har en uppdateringsfil etc etc).

Problemet är att MS drog ReFS ur utvecklarnas händer innan den var klart för att desperat visa Enterprise-kunderna för Big Data att man hade en filsystem som inte slog i NTFS fragmenteringsgräns.

Och då kom det inte med för system-OS viktiga funktioner där den viktigaste och mest fatala bristen för windows skall kunna fungera var att den inte har stöd för hårda länkar ala. Posix-style, det är mycket annat som också är bristfälligt och ReFS är idag i stort sett bara en big-storage-filsystem som tas till när NTFS inte längre räckte till - det är också därför som den har i princip stoppats tillbaka till garderoben igen och bara fins på windowsserver-nivå - i alla fall för att kunna skapa nya ReFS-filsystem medans användning och läsning gick att köra på win-pro om jag mins rätt.

NTFS själv har ingen COW-struktur utan det försöker man emulera i ett mjukvarulager med VSS/shadowcopy där systemet arbetar mot en virtuell lager av filsystem som ligger ovanpå NTFS genom VSS som sedan alla filacess-API:er går igenom, men detta är inget som är igång i samband med i tidiga steg i en bootprocess och knappt lämnat UEFI-steget utan i stort sett hela windows måste vara igång när detta är aktivt.

---

I slutändan med all lappande och lagande är att MS verkligen behöver titta på en modernt system-filsystem - men man kan inte göra som med ReFS utvecklarteam att man slänger uppgiften på en undersysselsatt programmerargrupp utan erfarenhet av filsystembyggande och design och säger till dem att gör något som liknar BTRFS men inte så mycket att det kan anklagas för plaigat - och just det - tidplanen och milstolparna är absolut viktigaste att följa!!, mer än kvalitén på koden och funktionalitet så länge skrivna filerna inte längre begränsas av antalet fragment!!, för detta måste levereras inom xx-månader !!!

(har läste blogg från en utvecklare som var med i den teamet - kan inte har varit rolig alls att bli forcerad in i något som är långt utanför gruppens kompentens-zon och ingen ledare/designer som verkligen förstår filsystem och vad som är viktigt där och vilka misstags som gjorts tidigare och helst inte skall upprepas, och framförallt grovt underskatta i tiden det tar innan man har en bra och stabil filsystem som tål stress utan katastrofala haverier)

Av xxargs

Rescuezilla ger en komplett diskavbild i hur disken ser ut när datorn är avstängd.

Systemåterställning ger en diskavbild medans windows körs och i samma status som efter att man ryckt ur nätsladden ur datorn medans windows körs samtidigt - dessutom gör den bara partitionsavbilder i det som MS känner igen, inte en diskavbild (i princip bygger den VHDx-filer för var partition och sedan några headrar så att partitionerna kan återskapas på rätt ställe på nya disken och vilken maskinstatus det var när det hela initierades). - tex. om du har en linuxpartition också och en dualboot så kommer inte dessa med med systemavbildningen och det kan bli krångel med dualboot eller ersätts helt av windows egna boothandler när du senare gör en återställning.

- därav att det är så viktigt att prova detta på en blank ny disk innan du vet att återställningen fungerar som tänkt.

Till detta så är systemavbildningen en 'virtuell' partionsavbild som visas via VSS/shadowcopy och tex. filer som finns under 'System Volume Information' på datorns systempartition är inte samma som skapas i partitionsavbilden för att dölja shadow copys egna differensfiler i hur disken ser ut efter gjorda snapshot och andra föregående shadowcopy-snapshot och tex raderad data inom partitionen - då dessa är filer som tar extra diskplats om de skulle med en systemavbildning.

med andra ord är det en hel del som har en chans att kunna gå fel vid en systemavbildning, som inte händer när man gör en diskavbild med Rescuezilla eller diskimage tagen av 'dd/ddrescue' (vilket Rescuezilla använder sig av bakom sin gränssnitt)... KISS-principen är A och O och så enkla manövrar som det går för att kunna säkra en snabb återställning av en diskimage, MS egna systemavbildning är inte en sådan lösning, för mycket saker är involverad och saker modifieras på vägen och en del struntar man i (tex 'ledig' utrymme på partitionen tas inte med även om de innehåller gammal, ej raderad data) när systemavbildningen skapas och mycket kan trassla även senare.

Av xxargs

BTRFS för min del sedan ganska många år tillbaka på framförallt extern/USB-storage

OS-filsystemet är oftast ext4 och det är rätt mycket bättre på att hitta fel inom sin metadata då den har checkumma med 'CRC32C' i jämförelse med tex. NTFS som inte några intrigitets-check alls och upptäcker bara fel när något pekar utanför sitt scoop (och bara när filsystemcheck görs) , inte när den peka fel inom sig själv, även med filsystemscheck.

ett skäl att ha ext4 som filsystem för just system är att det är en av de snabbaste filsystemalternativen som fins tillgängligt under Linux repertoar men förlorar lite av tex. vad BTRFS erbjuder som att man kan välja vilken av 'snapshot' (subolym) som man kan starta som root-filsystem och tex. kan göra en rollback efter en misslyckad uppgradering, sådan som är lite halvpyssligt att fixa idag när det körs internt inom filsystemet (snap, snapper mfl, vilket kan närmast jämföras med shadowcopy i windowsvärlden) eller att man går via någon volymhanterar med snapshotfunktion.

Av xxargs

Det som är spöket i NTFS-världen är att en fil får för många fragment och går över gränsen - och när det går över gränsen så hanteras det inte snyggt.

Därför måste man närmast desperat köra en defragmentering på de mest fragmenterade filerna och mappfilerna (de specialfiler som håller namnlistan för filerna inom en mapp) tillräckligt ofta för att situationen inte skall hända och det blir systemkrasch - forceringen av utvecklingen av ReFS under WIN8-tiden berodde på detta när MS ville konkurrera på 'big data'-sidan på winservrar och NTFS som filsystem höll inte för det och kunderna började komma tillbaka med fullständiga systemkrascher som när tex. thumbnails skapades och lades i en mapp av tex. stora mängder bildfiler i en lagring - och där var problemet att det var själva mappfilen som hade alla filnamnen för thumbnailen som kraschade då den blev väldigt defragmenterad eftersom filen växte långsamt över tid när indexeringen gick i bakgrunden och inte skrevs sekventiellt då det kom en massa andra skrivningar mellan hela tiden.

windows har inte någon mer intelligent strategi att allokera sekventiell diskutrymme när det gäller att skriva mot sakta växande filer eller i situationer med många öppnade filer samtidigt (som torrentnedtagning av filer) och man skriver på de olika filerna i olika ordningar allt annat än sekventiellt och det som sedan lagrades på diskens sektorer blev sedan i zebarordning blandat i varandra efter när sektorerna skrevs och därmed stort sett ett fragment för varenda block som skrevs.

det som också lider av fragmentering är filsystemkomprimerade filer då var kompressionsblock på 64 kByte är en fragment och det 3' som kan fragmentera väldigt mycket är sparsefiler när grupper av data skrivs på olika ställen inom filen hela tiden - något jag tror jag råkade på med virtualbox körd på en windows på en imagefil där jag försökte använda klientens TRIM när den raderade filer för att göra unmap (och därmed skapa en sparse-segment) på motsvarnde dataplats på VM-filen för dess raderade data och den vägen minska dess avtryck på den fysiska disken - det gick ett tag... sedan var det fetkrasch. medans kör man samma sak med QEMU/KVM under linux så är det inga alls problem och man slipper problem med VM-image som blåser upp sig över tiden.

Ext3/4 i linux tog läxa av misstagen som gjorts med NTFS, som framförallt blev väldigt uppenbar när man började tanka torrents och ser till att den typen av fragmentering inte händer, men även linux har en numerisk begränsning i max antal filer i en mapp (men inte för att det är för att det är fragmenterat) men får inte samma katastrofala verkan som det kan bli i NTFS.

Sist jag så något om det så klarar ext4 10 miljoner filer i en mapp men inte 20 miljoner - var gränsen går var inte utforskat av den som testade det hela och kan också bero på hur stor volymen är totalt då ext4 har en fixt antal möjliga inoder som bestäms av volymstorleken i samband när filsystemet skapas, medans tex. BTRFS har ingen begränsning på just den delen utan skapas dynamiskt efter behov.

Av xxargs

Libre office och dess släktingar kan väldigt mycket som msoffice gör och det går att byta filer mellan varandra¹ - men det är klart skall man köra massa macron och script från msofficemiljön så skiljer det sig för mycket för att fungera utan en massa konvertering och förmodligen det som gör att det inte kommer ut i företagen utöver den gamla IBM-tänket, fast för MS, att köper man IBM så kan man in bli blamed/sparkad för det som man sa på 80 och 90-talet

Dock gnälls det ibland som ursäkt mot libre office att införa det på kontorsnivå att dokumenten ser inte exakt lika mellan libreoffice och winoffice - men det gör det heller inte mellan winoffice på en Mac och en winoffice på en PC och det är passningsfel i bilder och fönster och utskrifter är inte identiska även där fast MS har gjort båda varianterna av word själva och med data från samma wordfil - men när det gäller Mac så är allt helt plötligt OK med den små missmatchen eftersom högre chef/VD kör på Mac.

- ibland undrar man och man känner underströmmningen 'jag vill inte, jag vill inte' ala litet barn fast båda lösningarna fungerar lika bra i vardagskontorsjobben.

På kontoret har vi blandat - kastar in libreoffice i burkar som inte motiveras/tvingas med en office-paket eller sitter bakom airgappade isolerade nät men ändå kan göra dokument som senare öppnas i vanliga msoffice och det går förvånansvärt smärtfritt.

95% av 'standardanvändaren' efter inkörning på GUI:t skulle inte märka skillnaden mellan libreoffice eller winoffice - dvs. de vanligaste funktionerna och hanteringen kommer fungera lika bra på de båda och dessvärre implementeras samma irriterade moment och sätt att hantera i windows office även i libre office inklusive att tex. beräkningar i excel-ark görs enkeltrådat i de båda och går lika långsamt... och borde också göras väldigt mycket fortare oavsett miljö...

Av xxargs

Prova att återställa från avbildningen på ny lagring¹ oavsett verktyg/metod, men kom ihåg att en snapshot-avbildning som med systemåterställning (via shadowcopy) i windows aldrig blir lika bra som en diskavbildning från en avstängd system som man gör med rescuezilla.

En icke verifierad systemåterställning/backup är ingen backup - bara falsk trygghet.

har du en linuxpartion eller annan för windows okänd partition på lagringen så kommer det heller inte med windows inbyggda systemavbildning.

¹windows återställning hade förr ibland problem om ersättningsdisken inte var exakt lika som den gamla både i avseende modell och storlek - men det är förhoppningsvis åtgärdat idag så länge ersättningsdisken är lika stor och större än orginalet- men det är också den orsaken varför man skall prova återställningen hela vägen och verkligen ser att det fungar.

Av xxargs

Man vill helst inte lagra stora datamängder på en extern USB-disk med NTFS, om man inte gillar att spela rysk roulette med sin data med en viss risk för total filsystemhaveri och förlorad data... om man ändå måste ha det på NTFS, se till att det fins backup eller att det är en kopia från en master....

Av xxargs

1-pars med tillräcklig area är väl grundtipset - grövre ju längre till högtalarna för att slingresistansen skall hålla sig lägre än 1/10-del av högtalarens impedans¹, hur ändarna ansluts beror både på slutsteg och högtalare och kan vara olika lösningar i var ända - kabeln bör dock ha lagom fintrådiga kardeler - annars kan det bli knöligt med anslutningen i de flesta fallen.

Och nej, man behöver lite köpa några svindyra HiFi-kablar för mirakulöst mycket pengar utan en bra 1-pars installationskabel i tillräcklig area för uppgiften och avståndet mellan slutsteg och högtalare och som fungerar för förläggning och är smidig att hantera och skala.

'magin' som man försöker förmedla för en svindyr typ av kabel i olika HiFi- skrifter/site är i området 'marknadsföringsbluff' om man nu skulle skulle sträcka till börja mäta S-parametrar på kabeln med tex. en RF-nätverksanalysator. Det viktiga är kvoten mellan högtalarens impedans och kabelns slingresistans är tillräckligt stor, typ faktor 10 och större.

¹ Typ att när man kopplar ihop kablarna i bortre ändan så bör inte motståndet vara mer än 0.4 Ohm om det kopplas mot 4 Ohms högtalare, men man kan tolerera 0.8 Ohm om det matar 8 Ohm högtalare, med detta inser man ganska snabbt att 8-Ohms högtalare klarar sig på halva koppar-arean eller dubbla längden på kabeln gentemot 4-Ohms högtalare för samma påverkan impedansmässigt.

med 2.5 mm kvadrat så lär du har ordentliga marginaler även för rätt lång kabelbit till dina högtalare (på 5 meter ger det ca 0.069 Ohm i slingresistans vilket ger en kvot på 58 ggr mindre resistans än 4 Ohms högtalarens impedans).

Av xxargs

Rören är 'alltid' för korta och längden är avpassad för att maskinen precis skall klara av vad det den lovar. Tittar du i instruktionen får man inte ens böja slangen för mycket eller för hårt...

Maskinen designas efter att du designar installationens efter maskinens krav, inte efter vad du har redan innan.

Skall man förlänga så behöver man ofta gå upp en storlek på slangen/röret för att kompensera för den högre luftmotståndet som det blir av den längre rörlängden - därför brukar det inte finnas tillbehör med längre slang för dessa portabla AC från tillverkaren (varav slangkiten ofta är väldigt standardiserade även där, och inte gjord för svenska fönster - dvs. samma kit även över olika 'märken', utan är något man får försöka pussla ihop med allmänna ventilationsdelar man hittar i byggvaruhusen.

I hur mycket man kan fuska i med att inte gå upp med slangdimensionerna så är en termometer med en sensor som kan stickas in i varmluftutloppet bra att ha för att mäta utloppstemperaturen på varmluften vid portabla AC - går det upp mer än 5 grader och uppemot kanske 10 grader gentemot orginalslangen inkopplad rakt ut så stryper slanglösningen för mycket då dessa maskiner ofta har fläktar som tappar andan rätt fort så fort det är lite flödesmotstånd. Blir det för andtäppt så stänger maskinen av - men långt innan dess så har dess kylkapacitet sjunkit drastiskt.

Av xxargs

Om materialet är något annat än motsvarande 'gorillaglas' som man har på mobiltelefoner med glasfront så är det budet till att ytan får skador med tiden - speciellt om det är mjukare material som PC-plast.

Det är något att tänka på vid nästa inköp eller motsvarande att välja någon produkt med fysiska knappar (helst i metall) och att det går att köpa reservdelar för front-delen även efteråt.

---

Detta att rengöringsmedel etc. skulle gett skadorna är bara ursäkter för en produkt som är undermålig med fel material i panelen och inte gjort för att användas, för är det riktig glas så är det få rengöringsmedel som kan ge skador (mycket stark basisk lösning under lång tid möjligen, och fluorvätesyra som etsar)

Av xxargs

Med industrikontakter inom kemi och teknik så är det fortfarande möjligt att köpa koboltsaltinfärgad silikagel - men det som går mot konsument så är det idag mer eller mindre helt utfasat - men bara för så 'sent' som 10 år sedan så kunde man hitta enstaka blå koboltklorid-indikatorpärlor (som inte syntes förrän när man torkat kudden i ugn) inblandat i färglös silikagel i olika tork-kuddar som följde med typiskt förpackningar av elektronik. Det hela 'förvärrades' ofta av att man hade inblandade falska blåa pärlor som inte ändrar färg oavsett fuktnivå av någon orsak.

Och själv har jag något kilo koboltkloridinfärgad silikagel liggande för en vacuum desiccator, för man torkar inte vatten med vakumpumpning då det skulle bli oerhörda mängder volym som måste pumpas per gram vatten utan man tar bort luften runt varan som skall torkas, för att fukten fortare skall sugas upp av torkmedlet under genom galler utan hinder strömmningsmässigt av en massa luftmolekyler på vägen (eller kylbafflar modell väldigt stora när man pratar om industriell frystorkning) - vattenrik vara som torkas blir snabbt väldigt kall när vattnet och sublimation från isen när vattnet har fryst kort stund senare avdunstar fort och har man inte tillskottsvärme som värmer varan under torkning så kan det ta rätt lång tid att få det helt torrt.

Av xxargs

Eller https://handla.ica.se/produkt/1397533 för runt 140 kr i en butik nära dig - denna är dessutom i lite grövre granulat, nackdelen är att den inte är indikerande när den blir för fuktig.

Båda behöver torkas/genereras i ugn innan om man skall ha det riktigt torrt och vara torkande (dvs Rh << 20%) av fuktigare material och inte bara kompensera för fuktnivåväxlingar som en buffert.

Vid 20% Rh så är det typisk ca 11 % av vikten av silikagelet bestående av adsorberad vatten.

gul-orange-färgen med infärgning med metyl-violett (10B) har en färgskiftesövergång från gul/orange via grönt till blått med mitten vid 10% Rh +/- 6% - dvs. skiftet påbörjas smygande vid 4% Rh och avslutas vid 16% Rh - koboltsaltinfärgad silikagel har ungefär samma indikatorområde mellan blå mot rosa och till sist grå vid ökad fukthalt. I praktiken säger man att färgskiftet skett vid runt 15% Rh.

Båda använder sig av mekanism att de har en typ av färg när de är protoniserad för att det saknas fri vatten innan alla porers ytan i silikagelmassan har beklätts med en första lager med H2O-molekyler på kiseloxidytorna (och är i området 0-1% Rh) och när det fins så mycket 'fritt' vatten (dvs. från när andra lagret vattenmolekylerna bekläder insidan av porernas ytor av kapillärkondensation att de kan deprotoniseras/protolyseras (dvs. släpper lös en H⁺ i form av H3O-jon)⁺ så ändras färgen¹

koboltsaltinfärgad silikagel används numera bara industriellt då kobolt-metallsalter kan vara problematiska ur giftighetssynpunkt om det tex. äts (läs barn) och bör inte gå in i vanliga hushållsavfallshanteringen, men tål värme och kemisk misshandel på annan nivå än tex. metyl-violett utan att riskera att blekas.

Metylviolett har en biologisk nedbrytningsskedja med svampar (bla. vitmögelsvamp i trä) och bakterier, bleks av sol och bryts ned ganska enkelt med väteperoxid eller natriumhypoklorit-lösning.

¹Metylviolett 10B är också en pH-indikator för starkt sura lösningar med omslag i området pH 0 -1.6 - av samma skäl med protonisering för gul vid starkt surt och protolys/deprotonisering för blå vid mindre stark surhet.

tabell över olika torkmedels vatteninnehåll gentemot aktuell Rh i luft kan man finna här: https://www.sorbentsystems.com/desiccants_charts.html

- att komma ihåg är att sorbenter är inte speciellt temperturkänsligt under sin 'kritiska' temperatur och håller Rh stabil från typ rumstemperatur till bra många minusgrader - av den anledningen används sorbent-avfuktare i kallare miljöer där isbildning med kondensavfuktning skulle bli stort problem.

Av xxargs

Kommer silikagelen i genomskinliga plastförpackningar från amazon och inte aluminiumfolirad och svetsad förpackning så är den inte speciellt torr utan behöver torkas i ugn först, med andra ord är det inte annorlunda med den silikagelen man köper på amazon än den som köps på lokala konsum och ICA-handeln under varugruppen 'kattsand' - gäller bara att identifiera rätta påsarna med den lätta, halvgenomskinliga vita krossade granulatet...

Även dolomitleran (klumpande kattsand) kan användas som torkmedel när kraven på låg Rh inte är så hög om det först torkas strax över 100 grader C i ugn. Dolomitleran används också i de billigare versionerna av torkpåsar som ibland kommer med elektronik.

Av xxargs

Som sagt kattsand av silikageltyp (med den lätta halvgenomskinliga vita krossen och ofta med blå pärlor/kross iblandat)

In i ugn i någon cm-lagertjocklek på en plåt i 120-130 grader C under ett par timmar och gärna med en liten glipa på ungsluckan så att den fuktiga varma luften byts ut hela tiden till dito torrare luft.

När man är klar hälls över i glasburk med plåtlock typ äppelmosburkar eller salt-gurke burkar - se till att dra till plåtlocket tätt och det kan sedan förvaras lång tid tills det behövs.

Redan använd torkmedel av ovanstående typ kan återtorkas ett flertal gånger i ugnen, men färre gånger ju varmare temperatur de har torkats vid då kornen har tendens att spricka sönder till mindre korn hela tiden och upptagningsförmåga av fukt minskar kraftigt.

För torrare silikagel (under 1% Rh) kan man köra varmare till typ 170-180 grader C om silikagelen har blå pärlor eller kross inblandat - med lite omröring då och då och när de blåa kornen/krosset blir först lila och sedan börja blekna mot rosa så är det dags att ta ut den het och sedan raskt hälls över till torr till typ 50 grader C förvärmd glasburk, och snabbt lock på och draget tätt, då har man efter det silikagel som är nära 0 % Rh när det har svalnat. När den lila/rosafärgade kornen åter har blivit blådaskiga igen utan märkbar röd komponent i färgen så har fukthalten gått över 1% Rh igen.

Jag har använt detta för att torka gaser för ett antal år sedan och då ville jag ha under 1% Rh (vilket ger mindre än 10 ppm fukt i tex. R134a när det kondenserats till vätska) och lärde mig beteendet när det parallellmättes med Honywells analoga HIH2000 hygrometrar (en av de få som går ned helt rakt till 0% Rh utan att kurvan krokar av långt innan dess¹ och jag kalibrerade dess Rh 0 % punkt mot typ 1*10⁻⁵ mBar absoluttryck vakuum för att vara säker på att det inte kan mäta med minus-värde för Rh och med detta kan lita hyfsat på att när det är visar spänningen för motsvarande 0.0 i Rh så är det mindre än 0.1 % i Rh).

---

Man skall komma ihåg att torkmedel som har varit öppnade en tid eller legat länge i lager i plastpåsar och plastburkar är värdelösa för torrhet under 30-40% Rh (halvtorr rumsluft) om de inte ungstorkas igen². Skall man under 1% Rh så räcker det med enstaka minut öppentid i förpackningen (tänk på hur fort en iskall läsk immar eller en fryst vara frostar när det tas ut kyl/frys sommartid - en torkmedel på mindre än 1% Rh suger fukt ur luft i betydligt högre takt än tex. nyss uttagna frysta varorna) för att förstöra torkmedels-satsen (dvs inte längre uppnå önskad torrhet) och helt omöjligt att få till så torrt över tid i förpackningar om det inte levereras i svetsade aluminiumfolierade förpackningar, att de är nytillverkade och att det verkligen är vältorkat av leverantören...

Fukt kryper igenom plasten i plastpåsar, plastbägare och andra icke-metall behållare med stor yta (då själva plasten innehåller märkbar del av fukten) och gör att den torra silikagelen ganska snart blir värdelös om man vill ha riktigt låga Rh-nivåer. - därav att värmetorkad silikagel förvaras i glasburk med plåtlock - väl tilldraget och tätt.

Skall man ha det riktigt torrt så får man göra det själv och själv har jag gått så långt att jag har torkat och vakumsugit silikagel vid typ 180 grader C samtidigt i ugn till vakunmivå under 0.1 mBar absoluttryck... - då skall man inte greppa granulatet med näven efteråt då skinnet torkar, blir hårt och lätt spricker där kornen legat mot huden när man sedan rätar ut handen och det bara på 30 sekunder och man känner värmen i silikagelen av kapillärkondensationen när den hårt drar ur fukten ur skinnet... fråga inte hur jag vet det...

¹ de billigare elektroniska hygrometrarna brukar stanna av vid 25 - 20% Rh och sedan händer inget mer även om luften är betydligt torrare än så.

² det har visat sig att silikagel i form av kattsand är bättre för ungstorkning vid högre temperatur än påsarna med torkpärlor som vanligtvis följer med elektronik - då sistnämnda har en massa konstiga saker påprejat på sig (dammbindmedel??) som blir svart och kolfärgat och torkmedlet efter det har tveksam funktion när det torkas i temperaturer över 120 grader C

Av xxargs
Skrivet av Mörksuggan:

Jag ser detta som ett typiskt exempel när detta kan ske.
https://youtu.be/2zpCOYkdvTQ?si=hFoGglUbJmgk53No

Känner lite för träffad för att jag skulle kunna skratta gott åt detta - ok inte en satellit som är på väg att ramla ned i jordatmosfären men mätningar på tåg med inhyrda lokförare, typ 20 personer nattetid inblandat och en bestämd tidslott att köra på - och så bestämde datorfan med alla mätprogram att reboota och därefter att göra en forcerad filsystemcheck mitt i alltihop när bromsarna släpper på tåget... sådana övningar som kostar uppemot 500000:- per gång att köra... detta var på win2K-tiden, som förövrigt fungerade rätt stabilt på den laptopen utom just den natten...

När jag fyllde jämt något år senare så fick jag en T-shirt med kraftuttryck från arbetskamraterna i vad jag tycker om MS i sådana showstoppersituationer när det är kostsamt att göra om det igen trots att man provat och provat och provat och uppdaterat så mycket det går och med nattkörningar efter detta för att verifiera att det fungerar innan den dyra övningen...

Fick jag välja så skulle jag inte använda windows alls i sådana här situationer....

Av xxargs
Skrivet av wilsontaylor:

Med risk för att låta som en total simpleton - med andra ord är det fortfarande besvärligt med Linux om jag förstår er i tråden.

Bästa sättet att se om Linux passar eller inte är faktiskt att prova ett antal distributioner själv än att försöka göra sig uppfattning på vad folk skriver i forum

Den som förmodligen är minst krångel med om man bara skall ha lite office-funktioner (libre office-paketet) och kunna köra en webbrowser med ljud och bild fullt fungerande precis som i windows är nog Ubuntu.

Och windows kan minsann vara krånglig också när den sätter den sidan till - tex. att installera från en ISO-image hämtad direkt från MS till sin laptop slutar ofta med att varken nätverkskort, ljud eller BT fungerar och heller inte kan ladda hem dessa från MB/laptoptillverkaren av just anledningen att nätverkskortet, WLan eller BT inte fungerar!!, och detta upptäcker man förstås efteråt - inte före installationen och preparerat en USB med dom nödvändiga drivrutinerna för den specifika laptopmodellen/moderkortet i fråga....

Vid en ubuntuinstallation är det ytterst sällsynt att just LAN/WAN inte skulle fungera under en installation och det nästan oavsett vilken laptop/MB som helst...

Ubuntu har en live-mode på sin ISO som gör att man prova runt lite utan att installera något alls på datorns lagring, men det är klart att om man installerar på en lagring och eventuellt med dualboot så blir miljön mer komplett och mer kan aktiveras/installeras.

vill man inte hålla på att installera på OS-systemdisken så kan man kika på att göra dessa tester i virtuella maskiner - välj den VM-miljö du känner dig mest bekväm i - för min del körs det i virtualbox när det kör i windows (undviker det om det går) och QEMU-KVM när man har linux som host.

VM-filerna som skapas är default ofta 'thin provisioned' och brukar inte bli större än mängden data de fylls även om man formaterar en virtuell disk på säg 200 GB storlek (en nygjord win10-istallation blir typ 32 GB stor som VM-image)

Dessvärre krymper inte dessa VM-filer automagiskt när filer raderas inom VM-maskinen (undantaget med KVM som kan byta ut skrivna data mot sparse-segment mha. TRIM/Unmap som sända av klienten när den raderar filer) och man får använda VM-miljöns toolbox för att 'pressa ur luften' ur dem efter en tids körande

Av xxargs

CD/DVD/BR-skiva som har läsproblem ger inte en tom mapp utan felmeddelande av olika slag (av IO-fel typ) - en tom mapp tyder mer på att den inte kan tolka skivans format.

Däremot har supporten för de formaten som florerade under CD-skivornas storhetstid och med ibland egna lösningar innan joliet och iso9660 blev standard och/eller att man missade att 'stänga skivan' när man gör flera bränningar efter varandra och innan DVD+R(W) med sektoradressbar bränning och UDF-filsystem, gör att en del skivor ser tomma ut fast de har data kvar och stödet för detta i windows har mer eller mindre försvunnit helt, och det redan med början för 15 år sedan.

har man den typen av skivor vill jobba på att få ut datat så är rekommendationen idag att försöka göra jobbet under Linux istället och även där kanske man måste leta efter program från ungefär samma tidsepok som när skivorna brändes en gång i tiden för att kunna läsa dem korrekt.