Inlägg

Inlägg som xxargs har skrivit i forumet
Av xxargs

Det är ju detta som är DDoS attack - dvs. hålla en service upptagen så hårt att de rättmätiga användarna inte kan nyttja denna längre. Att kontot blockeras efter bara 10-15 försök gör det enklare för en angripare att skada tänkta offret och kostar väldigt lite resurser med inloggningsförsök då och då från olika datorer med olika IP att hålla denna blockering aktiv i lång tid framöver.

Frågan att ställa är varför din konto är så uppvaktad - är det en generell grej, någon kontonamn som sticker ut eller någon i din bekantskap med kännedom av ditt kontonamn som gör detta eller beställt en sådan attack bara för att jävlas/mobba/förtrycka??

En modern DDoS-attack sker ofta med hjälp av väldigt många datorer över hela världen som någon har tagit kontrollen över (hackade IP-kameror, NAS, Routar och annan oftare enklare utrustning med gammal, ej uppdaterad mjukvara och med kända attackvägar in i samt åtkomliga över publik Internet) som bara provar en enda gång var för att göra IP-blockning svår/omöjlig och också att enheten gör det så sällan för att inte riskerar att det själv bli bannat.

Att lära sig av detta är att all data man har på olika molntjänster - skall man så mycket det går också ha en egen lokal kopia av datat lagrat hemma eller på någon urkopplingsbar USB-disk samt vara beredd på att konto kan som en blixt från klar himmel stängas eller blockeras så att du inte kan logga in längre - det går inte att tänka att alla är vänliga utan det finns alltid några ute för att sabba så mycket det går och en dag så är det du som är målet.

Av xxargs

bra uttittat !! - blir så när personer som inte hållit på med elektronik inte förstår att tecknen på kapseln betyder något - dessutom fattas det ett antal ben då om jag inte minns helt fel så är det 40-pinnars krets för en original Z80 medans CTC-kretsen är bara en 28-pinnars...

---

Eller så emulerar man önskad processors instruktioner i en ARM eller motsvarande av dagens teknologi - dock om man ser tex. HP miniräknarprocessorer designade på 1980-talet så var de extremt snåla på ström när de var i standby-läge och kunde hålla många år, ja upp till ett årtionden på en uppsättning knappceller utan att tappa någon minne medans dagens processorer där (gamla!) koden emuleras håller bara 1-2 år på en uppsättning lithiumknappceller av CR2032-typ oavsett om den används eller inte då det är så mycket läckström när de är i sleep-läge.

Av xxargs

DMA-stöd har alltid funnits på IDE-diskar formellt - men under många år så användes inte DMA för att PIO-mode gick fortare på 286-processorerna i en tid när man inte körde med någon multitasking alls över huvud taget, medans ironiskt nog så hanterades disketter fortfarande via DMA. Problemet blev att eftersom ingen körde i DMA-mode på IDE-hårddiskar så fick man efter en tid buggar i DMA-mode på en del diskmodeller utan att någon reagerade på detta eftersom MS vägrade att föra in DMA igen i sin DOS och senare windows när man väl började köra med PIO.

Det som förändrade hela kartan var att man började köra CD-media (och senare DVD) - framförallt bränna skivor och då var inte PIO-mode hållbart längre trots att i det längsta försökte trixa och fixa prestandamässigt då processorn var låst till att skyffla data i en busy wait-loop och kunde inte göra något annat under tiden, som att hämta ny data från annan lagring och det blev väldigt många misslyckade bränningar av skivor.

Sättet att lösa det vara att börja med DMA - först enbart för att skriva mot optobrännare men också snart mot IDE-diskarna i typiskt slutet av win95-perioden. Vid den tiden var i princip alla processorer single-core och kunde bara köra en sak i taget och ingen core som kunde ta över lasten när flera saker behövde göras exakt samtidigt som att läsa data från IDE-disken och skriva till brännaren exakt samtidigt utan minsta hack i dataflödet (RAM var fortfarande dyrt så det var små buffrar i brännarna) och kanske ovanpå detta köra modem med kanske 200 - 1000 interrupt i sekunden (en interrupt per mottagen byte innan man började med buffrande UART)

Man skall komma ihåg att vi den tiden hade dåvarande linux sedan länge kört med DMA mot lagringen med ett antal undantag för ett antal olika diskmodeller som man empiriskt konstaterade krånglade och gav korruption av data både vid läsning och skrivning om man försökte med DMA och det fans listor i kernelkoden att detektera dessa och köra PIO-mode på dem oavsett var tex. BIOS tidigare har sagt i samband med uppstart.

Av xxargs

Är nog inte tänkt att ta så stora mängder filer på en gång via webben... begränsningarna till att de fryser kan mycket väl ligga i din webbrowser inte kan hantera hur stora filer i överföring som helst, i alla fall inte en klump på 600 GB stor zippad kontainer som en enda fil på en gång...

prova att överföra några filer i taget och se om det fungerar då - om det fungerar i det läget så är storleken på förfrågan som är problemet.

Har inte google egen program i datorn som synkar/överför filer mellan molntjänsten och din dator och kan visa upp det som en mapp/enhetsbokstav ??

Annars får du prova med 'rclone' i en powershell och den vägen överföra filer eller tom. mappa molnlagringen mot en mapp eller en enhetsbokstav och sedan kan du kopiera/överföra filer med file exlorern typ .

Av xxargs

Jag skulle inte bry mig - om SSD slits 6% på ett år så kommer livslängden vara 16 år och 8 månader, och du har säkert bytt din dator flertal gånger innan dess.

dock man man alltid spana efter vilka program som gör att det totalt skriver 33 GByte data till lagringen var dag om den är igång 365 dagar om året.

Av xxargs

och även om portarna är av 1000Mbit-typ så kan det bromsas av processkapaciteten inne i routern.

Dock om det stannar precis på 100 Mbit/s (10 - 11.2 Mbyte/s i överföring) så luktar det väldigt mycket att det är 100 Mbits/portar medans hade du kört på säg 22 Mbyte/s i överföring så är det CPU-kapaciteten i routern som begränsar.

Av xxargs

BIOS måste supporta AHCI emulering för RAID för att windows skall kunna boota - windows är i det avseendet väldigt dum i huvudet under boot-processen och är fortfarande på ATA-disk nivån även om det några inladdade drivrutiner senare mycket väl kan hantera SCSI-volymer och virtuella volymer som RAID-delen i BIOS skapar.

Det fins en nackdel till med RAID-mode i windows och du använder SSD/NVMe för RAID:en är att ingen TRIM/discard skickas till lagringen såvida du inte hittar en drivrutin som emulerar din RAID-volym som en SCSI-disk till namnet för windows.

Skickas ingen TRIM/discard till din flash-baserade lagring så kommer den bli väldigt trött när du skriver stora filer (20-50 GB storlek) - men detta märks inte i början men när du skrivit hela diskens volym och lite till i total skriven mängd till lagringen så kommer det att börja märkas på skrivprestandan när stora filer skrivs.

som redan skrivet - använd inte RAID om du inte måste av driftmiljöskäl och upptid - se till att det gör regelbundna backupper och diskimage istället för snabb återställning den dagen SSD/NVMe slutar att fungera.

Av xxargs
Skrivet av Aphex:

Datadensiteten är spännande, men den genomsnittliga pålitligheten hos ett SD-kort och möjligheten att tappa 4TB på ett bräde.. De får nog visa på att det skett en revolution gällande hållbarhet också, innan jag lägger pengar på ett sånt.

får väl sätta upp en bunt sådan på en svart plåttak i solen över sommaren som man testade DVD/BR-skivor en gång i tiden med blandade resultat och en del höll faktiskt riktigt bra när det var rätt dye på dessa och BR höll de flesta och mycket beroende på att man använder kopparmetall som 'dye' i dessa.

Av xxargs

3-4" är för stort för att få vettig koppling mot hornmunnen med anpassad förkammare. - jag skulle hellre titta på småhögtalare med pappkon motsvarande de som satt i äldre PC och sa 'piip' innan de blev piezoelement, eller från hörlurar ... är det välmatchat så kommer det producera väldigt mycket ljud inom hornens frekvensområde redan vid 10-100 mW driveffekt, och det kommer förmodligen vara betydligt bättre verkningsgrad än den gamla konstruktionen även med en väldigt billig liten högtalare ala klockradiohögtalare.

Av xxargs

Så länge maskinerna inte är lika duktiga på att ta sig fram som en hund eller katt och kunna parera för oväntade saker och ta intelligenta beslut själv när det sker - kunna ta sig hem när den är skadad (saker gått sönder) så hjälper det inte att slänga på pengar på maskiner.

bättre att lägga pengarna på en trädgårdsföretag som tittar till det hela 1 ggr i veckan eller per 14-dag och tex. klipper vid behov.

i USA så skulle man inte ens tänka tanken att själv tex. sköta sin pool - utan det var alltid företag som gjorde det på kanske tom. veckobasis.

---

Förr hade man hade man många personer på gårdarna (drängar, pigor, i välbärgade hem typ trädgårdsmästare) och hade sina sysslor dagligen och att hålla det snyggt och prydligt var en av sakerna man ofta var ganska noga med, och det viktiga var att de fans på gårdarna året om - varenda dag.

Av xxargs

Oj, hitta en sådan kompatibel...

Dessa är byggda på ungefär samma sätt som högtalaren i luren på en gammal telefon med snurrskiva... dvs en permanentmagnet med halvdrag i sin magnetism som suger magnetiskt med någon del av millimeter luftgap mot en tunn plåtskiva och sedan har man en spole runt magneten som kan förstärka och försvaga magnetfältet. Det går inte att köra med bara en järnankare då det skulle ge frekvensdubbling, intermodulationer och andra oljud utan den måste ha en magnetisk bias.

- går den inte att renovera eller är den bortom räddning ??

om det inte går - så skulle jag nog titta efter en klockradio eller liten datorhögtalare i 1"-format eller från skrotade hörlurar - helst ännu mindre så att den matchar förkammarens diameter och sedan blir det ett labbande i hur stor förkammaren innan strypningen skall vara för att låta bra - även en liten skrikig högtalare med pappkon ala klockradiohögtalare kommer förmodligen låta väldigt mycket bättre och framförallt högre om man får in matchningen korrekt med förkammare mot hornhalsen. element för hornladdning bör vara hårt förspända (dvs. hög egenresonansfrekvens) då med horndelen så kommer dess resonansfrekvens att sjunka mycket.

på Lowtherelementet är det runt 66 Hz (8"-högtalare) när det körs fritt i luften men sätter man in den i smackhornet så åkte den ned till 18 Hz - så mycket kan det påverka när kabinettet med akustisk impedansmatchning börja helt dominera över elementets elektriska och mekaniska egenskaper. - slaglängden inom basområdet kan bli mindre än 1/10-del på elementet i jämförelse om de skulle stoppas in i en tryckkammare eller basreflex-högtalare för samma ljusnivå.

Man behöver ingen lång slaglängd på kompressionselement för hornhögtalare - de kommer knappt märkbart röra sig även om de bölar på i + 110 dB-nivå vid 36 Hz (tagen på hur min hornhögtalare fungerar - rummet skakar mer än mebranen på högtalaren, och man behöver se och känna det själv innan man riktigt tror på det... - efter det vet man att elementkoner som slår mycket är en signatur på dåligt akustiskt effektmatchad och med detta ineffektiv högtalare...

Andra element att titta på är sådana som sitter i mobiltelefoner - speciellt den högtalaren som används högtalarläge (och ringsignaler mm)...

omkretsen på tratten räknat som våglängd ger en indikation på dess lägsta frekvensområde och under det så tappar det styrka väldigt fort, nästa helt tvärt och snabbar än någon annan högtalarprincip som tryckkammare eller basreflex och är det för mjukt upphängda koner så kan dessa slitas sönder för att akustiska motståndet försvann vid högre effektnivåer - det är en av orsakerna varför man har hög resonansfrekvens för att elementet skall arbeta missanpassad när den går utanför sin tänkta frekvensområde för att hålla ned konfladdret som annars kan slita sönder upphängningen vid höga effekter.

Av xxargs

Om du kan läsa CD/DVD så borde du också kunna bränna den - CD/DVD-läsare som bara kan läsa men inte bränna torde vara en minoritet av all de många miljoner CD/DVD läsare som har levererat under åren.

det jag tror att du ramlar på är att många av dagens stora distrubitioner använder sig av UEFI för sin installation och skippat den äldre versionen och försöker du köra i en dator utan UEFI-stöd i BIOS så kan det bli problematiskt.

Av xxargs

Titta efter element som är avsedda för (single element) hornhögtalare (High compression drive) - membranet är relativt litet och lätt och ofta spole i aluminiumtråd då det är lättare än kopparlindning, men 'motorn' är stor med stor magnet i de flesta fallen och inte sällan med en BL mellan 8-10 för 8 Ohm element vilket kan ge element med runt 100 dB SPL /1W i känslighet - hornet kan förstärka en del i sin tur och inom sitt arbetsområde och ge mellan 106 - 110 dB SPL vid 1 Watt med element som ligger runt 100 dB/1W.

när man har hittat dessa så kommer man till den andra knepiga parten - slutsteget och signalkälla - sådan med för dålig dynamik (och typisk sådana med klass D-slusteg) kommer att brusa i hela rummet även när volymen är neddraget till minimum och med hornhögtalare så är 20 Watt mer än tillräckligt och de skall vara av bra kvalitet med hög dynamik - typ >110 dB mellan grundbrus (enligt A-kurva) utan insignal och märk/maxeffekt.

Det finns ett program som hette hornresp http://www.hornresp.net/ (det var dock många år sedan jag körde den sista, men vet att de stämde förvånansvärt väl på smackhorn med lowtherelement) där man kan grovt modulera sitt faktiska horn och med thiele small-parametrar på elementet och stoppa in dessa, och/eller att mäta dess aktiva diameter, fjädringsegenskaper och motorn styrka, mäta massa-vikter med delta-massa metoden etc. beroende på hur mycket information man får tag på sagda element - får en hyffsad uppfattning hornets/trattens frekvensområde - verkningsgrad mm.

Av xxargs

Blå lysdioder har onekligen en frekvensomfång som tär på färgämnen som inte är av modellen 'sot' (kimrök) - det är blå ljuset som får det att blekna på tex, klassiska fotografier och kort - ger inbränning i OLED etc. för att materialet kring detta helt enkelt inte tål det i längden och sakta bryts ned, och onekligen också gäller ytlacker på kretskort som grafikkort och det blir flammigt.

så ett recept mot dessa fläckar i datorns komponenter är att ge fasen i att slå på den blåa delen i RGB-LED-arna och tänka tillbaka till 1980-1990 och tom. början av 2000-talet när man hade att välja mellan rött, grön och gult (av lika blandning rött och grönt - gul var en blandfärg - inte monokrom färg) i lysdiods-väg och blått var en 'dröm-färg' inom LED.

Av xxargs
Skrivet av scienta:

Jo, det är ju så. Jag gav upp den idén då jag inte vill riskera huvudvärken. Just nu testar jag BTRFS och duperemove. Inte helt säker på att deduplicering är rätt väg att gå än, men känner att det är värt att undersöka ändå.

För blockorienterad deduplicering kika på 'bees'. Den gör deduplicering med variabel blockstorlek på 4k-sektornivå 'under' den logiska filsystemet även med rätt human RAM-förbrukning som 1 eller 4 GB oavsett diskstorlek och går som sidkanal i bakgrunden och skannar alla transaktioner med filer som ändras och läggs till. Mängden RAM bestämmer hur pass små block man går ned till i huvuddelen av deduplicering men har ändå ett träd från 4k block till väldigt stora block som fylls på och uppdateras dynamisk med vad för typ av data den läser.

Det är en best-effort deduplicerare vilket gör att är det för många referenser till samma block eller blockedja eller annat strul så skippar den det och bygger på en ny. den är väldigt försiktig och kan det inte lösas med för BTRFS säkert sätt så hoppar den över dessa segment. - Den gör väldigt stor platsbesparande för tex. diskimage med snarlik innehåll eller standaruppsättning av OS etc. inom dessa diskimage/VM-images - dessutom gör den sparse-segment på filer med stora mängder '0' i sina sektorer/block-kedjor och dessa block tar ingen fysisk diskyta efter det utan emuleras tillbaka igen vid läsning. Fungerar också på komprimerande mappar/filsystem.

Har haft sådana snurrande på server i flera år och har inte sett att de ställer till med något som kan kallas för att skada eller korrumpera BTRFS-fislsystemet. Givetvis väljer man själv med programstart om det skall deduplicera eller inte och kan stängas av när som helst och när det startas igen så arbetare den från var den var sist när den stoppades. Det är ingen envägs-funktion på samma sätt som när man aktiverar deduplicering i zfs där man inte kan backa om man märker att det kostade för mycket prestanda, utan att skrota hela datasetet igen och börja på nytt.

Den använder blacke2 hashar vilket är lättare att driva än sha256 som zfs använder dig av.

Det fins en sak att tänka på - med deduplicering kan det bli oväntat mycket sökningar för tex. en stor fil som man kanske tänkte sig vara sekventiellt sammanhållande skriven men kan läsas tillbaka med betydligt lägre takt än förväntat för att den har deduplicerats och många av dess block ligger på olika ställen i filsystemet och delar fysisk plats med bitar från andra filer, så när man skapar/använder det på en volym så skall man ha 'archvie' in mind och inte på högpresterande lagring.

---

Det fins en sak att tänka på (och står på dess hemmsida också) - kör inte bees på volymer med bcache write-back mode aktiv på volymen (det överlever dock write-trough mode).

Det bero på att många SSD har buggar i sin firmware - särskilt äldre, klarar inte av skrivmönstret från bees och FTL-lagrets databas i SSD:n snurra ihop sig av de allt mer komplicerade referenserna som skapas med tiden av alla småsektorskrivningarna som bees gör och var skrivning går långsammare och långsammare (och det klagas i linuxkärnan och syns via dmesg att den hela tiden måste öka tidskonstanter på svartstid för diskarna) och till sist stannar helt - vilket brukar ske inom typiskt 12 timmar efter man startat bees första gången på en redan halvfull disk. - SSD som stannat är jätte-långsamma och knappt går att skriva någon data till och somliga fall hänger sig vid skrivförsök och försvinner och ofta måste man utföra en secure erase innan den kommer tillbaka igen med full prestanda - somliga nöjer sig med zerofill och delvis får tillbaka skrivförmågan i avseende fart och andra måste köras hela vägen med secure erase (som Samsung 830).

När man kör write-back på bache har jag lärt mig att ofta uppdaterad data som metadata aldrig läggs ut på den bakomliggande snurrdisken från bcache utan blir kvar i flashen/SSD¹ tills aktuella LBA anses för gammalt och synkas först då ut på bakomliggande lagringen för att göra mer plats för ny data i SSD och när SSD kraschar av ovan nämnda skäl så förlorar man metadata för BTRFS-volymen och innehållet på lagringsdisken går inte att rädda då när SSD:n fryser så är datat i denna helt massakrerad och bcache känner inte igen något av det.

Faktum är att bees med bcache kraschar SSD/NVMe med buggig FTL-hantering så effektivt att det kan använda för att testa SSD/NVMe-lagring tänkt för olika disk-cache funktioner i tex. en NAS. och den vägen sålla ut SSD/NVMe som potentiellt kan haverera i framtiden och man förlorar hela NAS-volymen om den körs i write-back mode den dan det händer...

¹ Det fins idag default ingen synkningsmekanism aktiverad i bcache som med jämna mellanrum som synkar innehållet mellan vilande nyaste datat i bcache:s SSD motsvarande emulerade LBA-adresser och bakomliggande lagringens motsvarande LBA-adresser. Hade det synkat med jämna mellanrum med rimligt kort intervall så hade förmodligen BTRFS överlevt en SSD-haveri i bcache-mode även vid write back mode i och med att det är transaktionshanterande och kan göra rollback i transaktionerna tills checksummor och innehåll stämmer överens igen och data till den punkten är intakt när filsystemet monteras igen.

Av xxargs

länken innan min inlägg pekar på denna som ett argument att open source inte är säkert - men det handlar också om i jämförelse med vad.

och det är samma problem med gamla produkter där det från företagssidan där man är väldigt ointresserad av att hålla mjukvara säker över tiden trots att grejorna är under drift + 10 år - oavsett om mjukvaran är open source eller proprietärt och om buggfixar finns eller inte.

Av xxargs

kör alla mem-tester du kan komma på och länge - flera dygn alltså,,,

har haft ett liknande situation och det var RAM-minnes-problem - det är då man verkligen inser varför man skall ha ECC-minnen på burkar som hantera, lagrar och flyttar på data då en bitflip på fel ställe i RAM kan ställa till med omfattande skador på lagrade filer och tex. göra komprimerade filer oanvändbara vid uppackning (CRC-error) för att det blev någon bitfel här och där på filerna och lagringen.

Av xxargs

Nu hann just denna inte ut i det vilda i någon större uppfattning (i stort sett bara beta och prerelease av distributioner) - och detta är nog en av de snyggaste hackförsöken hittills med både social engineering att ta makten över underhåll och utveckling med en tidspan på typ 3 år.

nu var det ganska mycket tur att detta hann upptäckas innan de stora releaserna - annars hade det blivit mycket att städa.

Fins ingen som säger att close source skulle vara säkrare då där gäller det att få saker att fungera ihop med eventuella produkter för att få igång försäljning och inte bygga för skottsäkerhet när det gäller programangrepp.

Hur många säkerhetsrelaterade buggfixar har MS samlat på sig över åren - räcker 10000 st ?? (räknad från win95)

---

dock

https://xkcd.com/2347/ [1]

Visar väldigt mycket av den krassa verkligheten med öppen källkod som några knappt mäktar med att underhålla - oftast obetalt - och det lever våra stora mjukvarudrakar på helt ogenerat och utan att betala för sig det minsta för just de tråkiga funktionerna eller lib-paketen och alla är beroende av.

- Nu skall sägas att de stora drakarna lägger ned massor av pengar på open source - men inte på den här typen av 'plumbing' längst i källaren där alla väntar sig att vatten skall rinna när man öppna kranen och vill inte tänka på det minsta som ser till att det fungerar.

det är också där en angripare satsar på hackförsöken och leta upp projekt med ofta en enda ansvarig utvecklare, gärna med ohälsa och önska att bli av med oket och med social enginering försöker överta hans projekt och ändå få in dessa bakvägar utan att någon upptäcker det.

.
{1] gissar att grunden till denna teckning är heart bleed-buggen (buffer overflow-bugg) där det visade sig att den som underhöll denna knappt hade råd att bo och äta och än mindre att köra de kommersiellt dyra certifieringarna för var ändring - med kodkvaliten typ 100 gånger mer buggfritt än vad som förväntas av en genomsnittlig kodknackare... buggen var jätteallvarlig då det slog både på SSH och TSL/SSL som används i alla browsers https://, av cisco, av googel/FB etc. och som någon av de stora sa efter man insåg läget, att det var ett jäkla under att det inte var fler buggar på något som var så viktigt för hela dataindustrin - med tanke på att det var mer eller mindre en enmans-show utan vettig betalning för jobbet

Av xxargs

Tror inte Seagate skulle göra sådant medvetet - det är för mycket jobb och kostar mycket att hantera reklamationsärende, fraktkostnader etc.

det är helt normalt att snurrdisk har ca halva datahastigheten när den läser/skriver i slutet, närmast spindelnavet på disken.

Av xxargs

Fast TAR har ingen checksumma så det är ingen säker detektion av fel, möjligen att en fil blev kortare än vad dess header säger.

TAR har heller ingen katalog då metadata inklusive sökvägar och rättigheter för filen ligger som en post precis innan själva datadelen för var fil samt 'ustar' fins som magic word för startpunkter att räkna ifrån för var fil i arkivet - det är den orsaken som gör tar 'räddningsbar' av filerna runt om, för och efter skadan om filen skulle ha gått av på mitten (som bandsallat och en bit av bandet måste kasseras eller förblir oläsbar - TAR = Tape ARchiver och är född ur en miljö med bandmaskiner där bandsallat förekommer och början av band blev oläsbara av slarvig hantering när rullar skulle monteras och avmonteras och tidigt behövde adressera problemet så att man inte förlorade hela arkiv var gång en bandsallat skedde) - det är påfallande få arkivformat som har den 'rescue' kapabiliteten och tex zip-fil räcker det med en enda bitfel eller förlorat en liten bit i början (där katalogen finns) och du kan kasta hela arkivet.

Ett sätt att få tarfilen checkbar är att du använder gzip med ingen kompression och får en crc-summa, eller använder sha1-sum, sha256sum eller blacke2sum om det är installerat på systemet för att få ett hashvärde på filen.