Inlägg

Inlägg som Paddanx har skrivit i forumet
Av Paddanx
Skrivet av Jacob:

Nej, Turing är arkitektoniskt väldigt annorlunda i övrigt också. Pascal var däremot "Maxwell på steroider" vilket i stort möjliggjordes av övergången från 28 till 16 nanometer.

Ahh så var det ja.

Av Paddanx
Skrivet av e-mad:

" där exempelvis Nvidia Geforce RTX 2000-serien kallas "Pascal" och AMD Radeon RX 5000-familjen är "Navi". "

Kallas inte Nvidia Geforce RTX 2000-serien för "Turing" ?

Skrivet av Jacob:

Ooops, fixat.

Var inte det mer eller mindre "Pascal" med några Tensor kärnor och högre frekvens/effekt?
Och då Tensor kärnorna mer eller mindre är för RTX, så... är det väl inte så fel?

Skrivet av jehuty:

Om Nvidia kommer gå över till 7nm kommer AMD ha svårt igen att tävla mot dom.

Notera dock, det är inte TSMCs 7nm, utan Samsungs om jag förstått det rätt. Hur dessa skalar i frekvens och effektivitet är mao en vild fråga. De är ute på en EUV nod, vilket är rätt kraftigt oprövad, något som också troligen förklarar MCM designen.

Och då det är helt ny design kan du inte tro det blir ett 2000 kort med 7nm fördel, utan det kan bli allt mellan tomat och ketchup. Vi får se mao... Deras 2080Ti blir ju deras egen fiende i första kampen.

Av Paddanx
Skrivet av marcusOCZ:

IF klarar väldigt mycket mer bandbredd än det nu Ryzen visar, och precis som du säger så är det ju samma chip i hela serien. Men du ser också att gränsen för frekvens redan är där, eller i alla fall nära på. Dubbla antalet minneskanaler hade gjort Ryzen till en solklar vinnare, också i spelprestanda.

Har svårt att tro spelprestanda. I benchmarks, och i RAM tunga operationer, ja, men inte spel. Varför? Jo, för spelen behöver inte så massiv bandbredd, utan låga latensen. Detta är ju varför den massiva L3n gör den nytta den gör, och varför tex 5775 ens var med i tävlingen så länge den var.

Detta är också varför det inte lönar sig så mycket att gå över 3600Mhz med Ryzen, då du må få mer bandbredd mot RAM, men du förlorar latens mot RAM, vilket ger sämre prestanda. Detta är också varför 10ns latens RAM är så mycket bättre än äldre 14-15ns. Du kan köra 2666Mhz, bara du har låg nog latens, och få motsvarande spelprestanda.

Och problemet är, I/O chippet i CPUn är redan en av de dyraste bitarna, vilket också är varför X570 kostar som den gör (då den har ett likadant i moderkortet). Så jag har väldigt svårt att tro prestanda/krona hade blivit där den är, om man hade behövs bygga till Quad channel.

Med det sagt, 3950X troligen är flaskat av RAM. 32 trådar på dual channel är helt klart.... inte optimalt. Men det som säljer mest är ändå 3600-3700 nivån, och det är här de måste sikta AM4 plattformen för att den ska lyckas. 550 korten lär bli intressant prisvärt tillskott här.

För de som verkligen vill låta Ryzen flyga, finns TR. Där har du quad channel och moderkort som verkligen kan använda dessa CPUer väldigt bra. Det är nästan så en 16/32 borde finnas på denna plattform också, men det är dyrare 8/8 chipplets vs 6/8 i 3960X, så de måste då gå ner till 2 st för att göra det prisvärt, vilket blir en 3950X.

Så med allt detta i tanke, tror jag AMD valt rätt balans här. Men vi får se vad nästa generation ger.

Av Paddanx
Skrivet av marcusOCZ:

Hjälper ingenting för min del med tvåsiffrig % bättre prestanda/cykel när det är annat i processorn som mer eller mindre flaskar. Gör dom ingenting åt limmet så måste dom erbjuda 4 minneskanaler även i Ryzen.

Hur exakt ska fler minneskanaler hjälpa en intern CPU flaskhals? Det är väl bättre om de just kör upp snabbare infinityfabric istället, vilket det ju effektivt redan blir med övergången från 4CCX till 8CCX.

Och limmat är framtiden, även om folk inte vill, om du inte vill sitta på 2-4 kärnor. För större chip på så svåra noder går bara inte. Zen fungerar för CPU chipplets är så pass små att skadorna går att hantera. Men att göra som Intel, 16+ kärniga på 10 eller 7/5 nm går bara inte. Varför tror du Intel sitter i denna båten?

Så Intel kommer ta fram limmet igen. Förra gången de gjorde det, fick vi C2Q vilket var en av de bästa CPUerna de gjorde på den tiden.

Alternativet är att du får börja pröjsa lika mycket per kärna som AMD ger dig 8+... och få pers är villig att göra det, så det går inte ihop ekonomiskt. På serversidan kanske... men inte på konsument. Och du ser ju hur AMDs limmade saker redan påverkar Intels priser och ekonomi.

Tänk på detta... AMD gör en enda CPU krets. Zen. Denna sitter i allt från 3500U laptop, till Ryzen, Threadripper och Epyc. Intel måste tillverka flera olika nivåer för varje i hur de gjorde saker förr. Detta var ju varför i3 var så dyra vs i5. AMD kan ge dig hela rangen, baserat på hur bra chippen är.

Av Paddanx
Skrivet av Hyperhorn:

@Paddanx: Nu är situationen lite annorlunda.

Datorn är renblåst och har försökt installera alla senaste drivers.

1. Den har slutat blåskärma! Yay!
2. Ett annat problem har nu uppstått.
Detta händer i princip hela tiden vid användning av datorn: (Nu menar jag så att man knappt kan använda webläsaren för att det sker så ofta)
https://imgur.com/c2WqcAq

Vad beror detta på?

Kul att den slutat BSODa iaf

Gällande den andra frågan så kan jag tänka mig 2 fall. Antingen har du väldigt instabilt internet/DNS server i routern (går ju att testa genom att tex koppla datorn till telefonen hotspot).

Alt 2 är mer långsökt, men det kan vara så att ditt nätverk i datorn tappas. Detta är väl enklast att utesluta genom att skifta typ. Dvs kör du normalt Wifi, testa med kabel. Om du normalt kör kabel, testa med Wifi.

Det låter iaf som ett routing problem, där webbläsaren tappar kontakten, eller får korrupt info från hemsidan.

Testa även om tex Edge har liknande problem, så man utesluter Chrome.

Av Paddanx
Skrivet av Irre:

Datorn är åtta år och lever på övertid, så väldigt mycket arbete är den inte värd. Jag kollade samtliga partitioner, och det var gott om plats överallt, men märkte en konstighet, vid uppdateringsförsöket så hade Windows varit inne och krafsat i recoverypartitionen. Den parttionen är enkom till för att återställa datorn till hur den såg ut vid leverans. Den parttionen tog jag bort nu. Tyvärr har jag bara mobilt bredband med 200 g per månad så nu får jag vara försiktig med uppdateringar. Jag har en väldigt udda disklayout, eftersom gammal dos-partitionering används, och HP hade fyllt alla fyra primära parttioner från början. Men jag behövde fler och tvingades göra om en till extended och addera flera sekundära samtidigt som jag inte vågade flytta startadresser till Windows.

Skickades från m.sweclockers.com

Skulle då föreslå att du istället för att taxa på ditt internet, tar en större USB sticka (32GB), kostar 100-150kr oftast. Ta med den till något ställe du kan ladda ner med Wifi eller annat obegränsat internet.

Ta hem Windows 10 verktyget, men istället för att uppdatera "nu" kör du skapa ISO fil.

Denna kan du sen ta program som YUMI eller rufus och skapa installationsmedia (går även att göra helt manuellt, men välj Fat32, inte NTFS då det är mer kompatibelt).

När den är klar, tar du också hem WSUSoffline. Packa up till intern disk och kör UpdateGenerator.exe. Blocka i Windows 10 och ev andra versioner/saker du behöver (tex office). Låt den ladda ner allt, sen kopiera ut detta till USBn i en mapp bara. Från USBn kan du sen köra \client\updateinstaller.exe och uppdatera datorn utan internet. Är ett verktyg som funnits i typ minst 10 år och fungerar väldigt bra.

Då har du ett media som kan installera eller uppdatera till Windows 10, och även lägga in uppdateringar för de OS och office du valt, med minimal last på ditt internet. Ang så gammal dator. Ofta är den segaste biten hårddisken. Slänger du i en billig SSD i den, och har 4GB+ RAM så ska du se att den blir markant snabbare.

Minns även det du beskriver med HP partitionerna. Jag valde att ta en backup på den bara, sen ta bort alla recovery partitioner redan då. För om jag behövde återställa så var det bara lägga in backupen istället...

Detta är också varför jag tyckte (i första posten) du borde rensa o börja om, så man blir av med alla udda OEM system som ofta gjordes på den tiden.

Notera dock en sak jag sa ovan, att uppdatera Win 7 till Win 10 idag är går inte som förr. Om du lyckades registrera datorn för en licens förr så kan du köra på den, men är den inte längre registrerad så är gratis uppgraderingstiden över. Du måste då köpa en licens till 8 år gammal dator, vilket inte direkt är lönt om det ska vara en fullt laglig sådan. Det blir mer troligen grå marknaden på ebay tex.

Av Paddanx
Skrivet av ronnylov:

@Paddanx: Jag brukar stänga av wifi and blutooth i min mobil så jag antar jag kan göra samma med NFC

Så gör jag med alla funktioner jag inte behöver heller. Har BT på pga bilens trådlösa system, men Wifi är sällan på, då jag har data nog att slippa det.

Skrivet av Sysop:

Jag tror att majoriteten skulle överleva att plånbokens ström tog slut, med det sagt är det väl lite beroende på längden av att inte vara vid sina fysiska kort, ska du springa i löpspåret eller åka till ett annat land? Jag tror nog att de flesta kan avgöra om man överlever med enbart nfc, i annat fall så lär man sig av misstagen.

Själv så använder jag nästan uteslutande Apple Pay via Apple Watch och skulle gärna se ett elektroniskt körkort/id, mina enheter har alltid överlevt en dagsanvändning.

Skickades från m.sweclockers.com

Jag har både haft problem när mobilen varit urladdad för bio biljett och för rabatt app. Och jag har normalt 2-3 dagar på en laddning. Redan där var det mindre kul, så jag skulle inte vilja hamna här när jag står i affären eller liknande också. Inget emot att använda det som primär sätt, men jag vill ha iaf 1 kort man kan plocka upp och sedan använda som reserv, om något hänt mobilen.

Räcker ju med litet plåt etui med ID + 1 kort egentligen. Detta är ju mindre jobb att bära med vs nödladdare-powerbank/vägg-laddare. Du kan se det lite som el-scoter vs cykel. Det är skönt så länge elen räcker, men tar den slut så tvingas du gå. Så att istället ha en el-cykel så kan du ju cykla vidare manuellt, även när elen ta slut.

Och som du säger ovan förutsätter du att du kan ladda 1 gång om dan. Det räcker mao med att något går fel, en enda dag, så är du till råttorna. Du är mao extremt beroende av att du kan följa din vardag och inte har något oväntat (tex du tappade den så du inte kan använda den räcker).

Hade vi haft mobiler med 1 veckas laddning skulle jag kunna tänka mig detta, men 1 dag är på tok för lite. 2-3 är tom för lite, då jag har missat ladda den en kväll och missat viktiga SMS på morgonen efter. Hade ca 4-5 dagar ur min Samsung S2 för länge sedan + pebble hade 5-7 dagar. På den nivån kunde det fungerat.

Av Paddanx
Skrivet av Xcm:

Slippa bära med sig plånbok. Ta bara telefonen och betala med den

Nackdelen är ju att denna "plånbok" slutar fungera om du inte bär med dig batteri-bank eller laddare. Har sett och hört tillfällen där folk fått panik när deras "plånbok" får slut på ström.

Så även om jag inte ser det som en nackdel, öht, att ha möjligheten, är det inte bra lösning att lämna ID och någon annan betallösning hemma, oavsett hur "tung" den är. Det gör dock att du kan minska plånboken till något litet som ID + 1 kort, ev.

Fördelen är ju att telefonen är smidigare betalsätt som kan användas i många system, som primär lösning. Men jag hade inte litat på den för 5 öre nog att ha den som enda lösning.

Skrivet av ronnylov:

Angående NFC:
Är det inte risk att någon med portabel läsare kan "blippa" min telefon utan att jag märker det?
Nästan så att jag hellre köper en telefon utan NFC av säkerhetsskäl.
Finns så många sätt att spionera och stjäla data redan.

Om du jämför med ett kort så kan ju modulen stängas av / slås på, så den per automatik har ju inte ditt kort info så enkelt nåbart. Men visst finns det risk med alla trådlösa lösningar. Dock behöver du ju inte göra samma kod varje gång, som ett kort, utan du kan göra en unik för den betalningen, vilket gör det lite säkrare.

Din wifi och BT är såbar nog att NFC inte behövs ändå

Av Paddanx
Skrivet av carll:

Två fel blir ju inte ett rätt.

Beror på om du kör binärt eller inte

Av Paddanx
Skrivet av filbunke:

Det är så det fungerar. Man skickar ut 5Ghz till 100 personer vilket blir 5 * 100 Ghz = 500Ghz.

Samma sak händer i ditt egna wifinät när fler ansluter sig, med en enhet så sänds det ut med 5Ghz, med två 10 Ghz, tre 15 Ghz, osv.

Otroligt spännande teknik!

(Nej, det är inte du som missat något.)

lol... ibland skrattar man så man gråter över folks mattekunskaper.
Ta 5 äpplen till 100 personer och du får 500 päron

Skrivet av Spawnbadboy:

Japp och vacciner orsakar autism
Och jorden är platt

Skickades från m.sweclockers.com

https://media.discordapp.net/attachments/360769200597237772/6456...

Senaste beviset

Skämt o sido.
Jag förstår lite varför de bromsar det. Politisk påverkning är något som är realitet idag och påverkar oss enormt mycket. Har du rätt mängd data kan du påverka "fria val" så att de iaf försöker skydda oss är väl en bra tanke. Jag önskar de tänkt samma sätt när USA filmindustri körde över alla lagar mm för några år sedan.

Sen är det som vissa påpekat, kanske lite sent att börja få panik över 5G, när 4G redan är fullt i vårt land. Ska de... om granska denna då också eller?

Av Paddanx
Skrivet av Irre:

Det kan jag testa om jag vet hur jag skall namne partitionen. Eller är det part 1 eller 2, då kan jag nog stuva om dem.

Skickades från m.sweclockers.com

Denna är väldigt speciell, för inte nog den är en special partition som måste vara en udda typ (man måste manuellt ställa typen via tex Diskpart kommando), men dessutom så inne i den finns boot infon för Windows, så om du gör den större, flyttar du partitionen som ligger efter den = Windows kommer inte boota.

Det är mao ett sabla jobb att flytta denna special partition, och även om du lyckas, får du i bästa fall ett Windows 7 som fortfarande inte är lämpligt att uppgradera utan att ge massor med konstiga fel med startmenyer, action center osv. Och det är stor risk att uppgraderingen kommer modifiera/skada dina andra partitioner.

Om du nu inte kan tömma resten på diskarna är mitt förslag att helt enkelt ta bort Windows 7 helt (alla partitioner). Ta ut dina andra diskar (så de inte påverkas), skaffa en ny extra disk, lägg in Windows 10 på den, sen flytta över det fungerande systemet i dina andra diskar med lämpligt partitionsverktyg.

Du får då ett Windows som bör fungera och du kan manuellt sköta ev dual-boot hantering.

Av Paddanx
Skrivet av Tommy66:

Har googlat på windows automatiska uppdateringar och finner flera olika länkar gällande önskemål om att STÄNGA AV automatiska uppdateringar.

I mitt fall är det tvärtom, för alla mina barns Win-enheter så vill jag ha detta aktiverat. Vattentätt.

I princip varje gång som vi på någon av deras PC går in och söker uppdateringar manuellt så finns det något att hämta/installera.
Trots helt nyinstallerat Win10 på en av dem.

Så hur göra?

Drömscenariot vore att det sker automatiskt men med en fråga innan datorn startas om.

Ställ in tiden datorn används på så sätt att sista timmen den används, får den ladda ner uppdatering sista timmen. (Active hours i Windows Update). Exakt en timme är inte kritiskt, men den behöver tid där datorn är igång, men inte används, för att ta hem dem iaf.

Vi har tex jobbdatorer satta 7-15, för folk som jobbar 8-17. Då vet man att den inte stör dem början på dagen, men efter 15, om de lämnar datorn orörd, kan den börja ta ner uppdateringar och lägga in dem. Sen när de stänger av den så installeras ev större uppdateringar och man får omstart för de som behöver det.

Detta lämnar mig sällan med något som behöver uppdateras, då den gör det varje eftermiddag.

Kan även vara bra att slå på (i avancerade inställningar, under update) att den ska visa notifikationer när du behöver en omstart för att göra klart en uppdatering. Så vet man att den behöver starta om, och man inte bara låter den ligga på hela kvällen.

Av Paddanx
Skrivet av Irre:

Jag kämpade hela söndagen med att försöka uppgradera från win 7 till 10.
Det konstiga är att datorn uppdaterades ofrivillig till win10 för ett par år sedan. Jag blev arg eftersom wi-fi mm inte funkade. Det gick inte ens att backa till win7! Men jag hade bra fysisk backup, så jag fick tillbaka win7.
Hela världen drabbades av denna ofrivilliga uppdatering!
Och det kom verktyg för att förhindra uppdateringen. Vad jag gjorde då minns jag inte. Men nu när jag vill uppdatera går det inte. Inte ens Google har svar på detta...

"Det gick inte att installera Windows 10
0x800f0955 - 0x20003
Installationen misslyckades i fasen SAFE_OS med ett fel under åtgärden Install_updates"

Dåligt tycker jag. Skall jag invänta bättre version om de fixar detta fel. Jag vet att datorn, HP, aldrig kommer stöda win10. De tjatar om att jag måste köpa ny. Det gör jag inte. Den hat intel i7 med åtta trådar, och sex GB minne. Det borde fungera!

Skulle tro du lider av Win 7 100MB systempartition är för liten, därför misslyckas den med att lägga in "SAFE_OS" som är boot partition, och sedan blir pre-boot miljön. Denna partition blev 300MB med Win 8 och med dagens Windows 10 är den 500MB.

Det kan gå med satans massa pilleri att ändra storlek och flytta, men ärligt, dagens Windows 10 är inte testad eller gjord att uppdatera från äldre OS längre. Du bör tömma disken, ändra till UEFI boot i BIOS och installera om. Blir mycket bättre resultat.... och mindre risk för problem.

Ang stöd för Windows 10 på gamla maskiner, de flesta maskiner tillbaka till 3000/2000 serien iaf har rätt bra stöd. Det kan vara nån udda del HP har som inte kommer med pga de saknar drivrutiner, men de flesta ska gå.

Av Paddanx
Skrivet av cosmic_108:

Det där fattade jag inget av Paddanx.

Varje disk har massvis med sektorer, som är adresserbara. Sektorstorleken förr var alltid 512 Byte, på allt från disketter till hårddiskar. När hårddiskar började bli stora, och SSDer började komma, så gick man succesivt över till 4096 Byte sektorer.

Detta gör att du får 1/8 så många sektorer att hålla reda på, vilket förenklar och förminskar filtabeller, samt du läser alltid 4kB data, oavsett, så prestandan blir högre. De tar även mindre plats på magnetisk disk då du slipper en mellanrum och sync info mellan varje 512B, så du får plats 4k data på 3,5k plats av det gamla systemet.

Detta kallas Advanced Format eller 4k sector. Du kan läsa mer här:
https://en.wikipedia.org/wiki/Advanced_Format

Problemet är, vissa äldre styrkontroller stöder inte dessa nya större sektorer. De kan inte läsa denna info och kan därför inte hantera dessa diskar. Det fanns iaf för några år sedan diskar som kom med 512B emulering, så de kunde låtsas vara en sådan disk.
Seagate hade tex denna info i en del datablad:
"Bytes per sector(4K physical emulated at 512-byte sectors)"

Alt så har du Enterprise diskar som dessa Toshiba:
https://toshiba.semicon-storage.com/us/product/storage-produc...
Vissa modeller där har 512B emulering, även upp till 10TB. Står där inget om detta idag, är det normalt alltid 4k sektorer, då det är normen idag.

Skrivet av cosmic_108:

Men nu har jag fått en Seagate Ironwolf 4 TB-disk. Kabinett testat upp till 4 TB är på väg från Danmark. I Sverige finns det knappt att få tag på övh.

Hoppas dock din nya disk lösning fungerar som planerat. Svarade mest ovan så du ev vet vad du kan jaga nästa gång, eller om någon annan hamnar i samma sits.

Av Paddanx
Skrivet av xxargs:

Jag har precis som du varit med ett tag när det gäller lagring - men jag har nog aldrig hört talas om att mekanisk lagring av desktoptyp har orsakat epidemisk flera tusen plötsliga datorhaverier inom något år på samma sätt och inom samma organisation som med nuvarande SSD - Men visst snurrdiskar har inte varit problemfria heller och det har funnits dåliga serier vilket den mest berömda nog är IBM deskstar (75 GXP om jag minns rätt) och nästa djupdyk var nog Seagates 3TB disk, vart fall när det användes i mer serverliknande användning (men felutfallet var också överrepresenterat bland singel-disk användare ala desktopdiskar) - och man skall inte glömma bort Samsungs 840 EVO (även om den inte orsakade speciellt mycket dataförlust bland folk - bara missnöje med långt ifrån förväntad snabbhet gentemot priset man betalat).

- men man kan också säga att denna typer av 'kriser' också stärkt företagen - HGST:s snurrdiskar (som är gamla IBM i grunden) anses nu vara bland det mest driftsäkra man kan köpa i snurrdisk-väg, Seagate har också snäppt upp sig rejält med sina stordiskar efter 3TB-fadäsen och är på samma nivå som HGST:s stordiskar, Samsungs 840 EVO-kris kan nog också säga har fostrat företaget till att leverera bland de bästa och fortfarande prisvärda SSD man kan köpa för konsument och företagsbruk.

Eftersom jag jobba inom infrastruktur så uppskattar jag mera saker som åldras med tiden med sakta och märkbara prestandaminskning och man får tid att planera för utbyte i tid än saker som bara sluta att fungera helt utan förvarning och långt innan beräknad tid...

Kan säga att jag sett flertalet RAIDer totalt rasa pga dessa diskar, för många år sedan, och även själv mist 800GB (4x200GB) när deras 200GB diskar rasade inom 1 vecka.

Att detta som skett nu är stort, och troligen är största på länge kan jag hålla med om, men som du ser i mitt svar ovan... kollar man på receptet av dessa diskars hårdvara, så kunde jag förutspå detta redan vid köpet.

Så det är lite som att... om företagen skulle sätta WD green eller någon 3TB äldre Seagate disk i deras server RAID, skulle du skrika direkt, för du inser... det där kommer inte att hålla. Och detta är lite vad som skett här. Intel borde insett att dessa är inte en disk att kalla pålitlig. Skulle inte ens kalla den okej budget disk, då jag litar mer på en udda ADATA disk med samma kontroller och annat NAND.

Så felet är både att Intel åter har gjort precis vf de måste för att sälja på sitt namn, istället för bra hårdvara under, ett problem jag även anser om 600p och 6000p "pro" disken. Det är skräp, sålt för det måste säljas...

... och HP har gjort dundermissen att de köpt det, utan att kolla vf det är man köper, och katastrofen är ett faktum. Detta är ironiskt nog 840 "problemet", men det verkar som Intel inte lärt sig av andras misstag, men Samsung gjorde, och Crucial gjorde efter MX200.

Håller med dig dock att ja, det stärker företagen, men det är ändå ett fel som man borde lärt sig av tidigare missar, oavsett HDD eller SSD.

Skrivet av xxargs:

I den bästa av världarna så skulle man kanske vilja ha SSD för all sin lagring - men priset per GB begränsar om man inte har mycket stor budget (som någon annan betalar för) och senare år dess pålitlighet i att ha data kvar vid längre spänningslös 'off line' förvaring har urholkats rejält - en snurrdisk designas än i dag att hålla sin data kvar i minst 10 år på skivan vid dess maximala drifttemperatur (~50 grader C) utan att behöva skriva om några sektorer (en del av sektorerna - eller snarare synkbitarna mellan sektorerna som krävs för spårservo och synkning - kan inte skrivas om när strukturen väl är skrivet en gång) men i verkligheten länge till så är det olika nivåer av hybridsystem som gäller - användardata som omsätts ofta och som mycket väl kan vara på SSD/NVMe - men det skall också göras backupper i mycket större volymer samt långtidslagring/arkivering på media som inte börja ge fel efter ett halvår strömlöst i tid också...

och 7 år är väl inget tid för en disk som till stor del spenderat tiden avstängd - har snurrddiskar från 1984 med fullt intakt data i sig

Detta är tyvärr ett fall av... gammal data vs ny. Snurrdiskar kör LDPC 4k, precis som TLC SSDer, i dagens enheter också, då toleransen mellan sektorer är så tajt att de inte kan lagra korrekt längre. Så nej... 10 år på moderna diskar litar jag inte ett dugg på. 2-3 år kanske, men inte mer. Skulle då hellre litat på DVD-RAM eller LTO band för 10 års lagring.

Äldre diskar håller detta dock. Diskar från pre 2000 kan många gånger hålla än idag, då toleranserna var riktigt bra. Men på samma sätt har jag 30-60GB SSDer som tom garanterar 10 års retention tid, i spec. Så det är inte ett NAND vs magnetisk struktur skillnad, utan en hur nära tolerensnivåerna är du?

En 850 Pro MLC disk som först slitits ut 90% av sina skrivningar, och sedan legat 1 år offline var nästan oberörd av det. Så att ligga flera år till är inga problem.. och dessa har lägre nivå av ECC än moderna HDDs, då de inte ha behovet.

Så snälla... sluta jämför HDD vs SSD som pålitlig vs opålitlig här, tills du har modern fakta. För jag har redan sett korrupt data på 3TB HDD som bara legat 2,5år. Du behöver läsa på hur otroligt mycket mer tajt data ligger i dagens HDDs vs bara 5 år sedan. Det får TLC att verka beprövat...

Det är mao ett "gammal teknik vs modern teknik utan toleranser" som är boven här.

Och tror du inte magnetiskt media kan tappa data... kan du titta på allt från VHS till kassett, där infon ligger analogt du hör/ser den förstörda datan direkt. De bara ligger och åldras, och tätheten på den data är inte ens i närheten av en HDD. Det enda som räddar dem är när ECCn kämpar och att det är digitalt vs analogt.

Skrivet av xxargs:

De flesta felrättningsmetoder är av typen 'rätt, 'rätt', 'rätt', 'rätt', 'jättefel' när man minskar S/N (signalkvaliten) och BER ökar - oavsett snurrdisk/SSD eller optisk lagring.

Senare börja man använda olika faltnings-tekniker, ofta viterbi och nu senast och förmodligen sista steget LDPC och dessa är av modellen att dessa kan cyklas ett antal varv (upp till 10-15 varav) för att förbättra signalkvaliten på bitströmsnivån så att den efterföljande ofta blockbaserade ECC kan rädda precis nätt och jämt - och det var det som märktes med tex. Samsungs 840 EVO att de blev långsammare med tiden för att fler cyckler på faltningsnivå (förmodligen viterbi och i grunden löst med trellis-träd) kördes innan datat blev godkänd av efterföljande RS/BCH-korrektionen.

Tack jag vet hur BCH och LDPC skiljer sig.
Så om nu HDDs är så pålitliga... varför behöver de 4k LDPC?
Jo för de hamna i exakt samma skit med rätt-rätt-jättefel.

Är samma anledning som att både SSDer och HDDs idag tillverkas med typ 90% fungerande celler. Resten är defekt. Så man formaterar om LBA sektorerna så de "skippar" över de trasiga bitarna. På HDD kan du se detta på tex HDD tune där du förr hade en snygg fin trappa när den hoppade spår... är idag en linje som ser ut som en berusad person ritat den. Det är ECCn och sektor hoppen som ger den ojämna prestandan.

Skrivet av xxargs:

Modernare senare generationer av SSD har dels den inbyggda felrättningen som görs på minneschip-nivå och kanske en lager utanför för kontrollern med extra paritet och så är man nöjd så länge feltakten inte går ned under 1 fel per 100000 bitar. och så har man den bättre generationen med ytterligare lager med mjukvaru-felrättning både med viterbi/LDPC och lager till med BCH-kod och kan klara bitfel ned till 1 fel per 1000 bitar.

Och just här är kruxet med Intel 2500 Pro... det är en Sandforce, med BCH-kod. Varför man valt dessa med NAND som måste ha LDPC pga SK Hynix NAND läcker som ett såll... där har du förklaringen till detta problem.

Skrivet av xxargs:

Och hur i h***ete skall en icke nörd-påläst köpare kunna avgöra sådant i förväg, speciellt när svagheter av denna typ gärna hålls dolt av tillverkarna själva eller späs ut över olika kvalitetsnivåer av NAND-kretsar att man inte längre kan se att upptäckta svagheter har att göra med en viss batch utan det blir en diffus knorrande av olika användare som har svårt att bevisa orsakssammanhanget...

det blir ju att gå på 'märken' med bra rykte och hoppas på det bästa...

Här har du den riktigt bra frågan.

En lösning är att kräva garantier även mellan tillverkare och OEM. Så Intel mao inte tillverkar detta mög, utan garantier, som sedan slängs in i första bästa laptop. Som sagt, felet här är att både Intel och HP gjort bort sig... fett. Om någon av dem gjort det med vilje eller vetande, är nästa fråga...

... då kunden har ju köpt dessa i god tro.
Dock skulle jag säga att IT-leverantören som köpt dessa kunde spenderat 1 timme på att kolla vad det var man köpte och testat, läst info osv, innan man köpt flera tusen maskiner.

Skulle tro du dock specificerat exakt varför detta forum finns och är så önskvärt som det är. För kunskap inom alla dessa områden är viktigt att ha, innan man fattar större beslut.

Av Paddanx
Skrivet av cosmic_108:

Uppdatering:
Jag köpte en intern Seagate Barracuda 4TB-disk, monterade den i FreeAgent-kabinettet och anslöt den till datorns eSATA-uttag. Disken syntes inte alls vad jag än gjorde. Monterade disken internt i datorn. Funkade fint.
Jag hade också en ny 1 TB-disk och monterade den i kabinettet istället. Nu funkade det som fö-rväntat. Mao: kabinettets styrelektronik fixade bara upp till 1,5 TB eller så - i alla fall inte 4 TB.

Nå, jag fick användning av den lilla disken som extern disk som ersättning till den interna disken i min LG DVD-inspelare som hade pajat helt. Bränd strömkontakt, brunbränt diskchassi! Kul! Men spelarens moderkortet var OK, och nu funkar den fint med den externa diksken via USB.

4 TB-disken jag hade beställt - från www.computersalg.se - lägg den firman på minnet.
När jag hade packat upp den såg jag att det stod "Recertified product" på den!
Dvs en disk som returnerats till tillverkaren pga något fel, och därefter reparerats/rekonditionerats, och garantitiden reducerats. Utan någon som helst info om det på webbsajten.
Den disken går förstås tillbaka direkt.
Och så behöver jag en annan 4 TB-disk. Och ett 3,5"-kabinett med eSATA, som inte växer på trän precis (jo, det finns ett dussin från tusen spänn och uppåt). Men jag har hittat ett par:

https://www.computersalg.se/i/108611/fantec-db-alu3e-6g-3-5-s...

Just det - Computersalg!
och
https://www.amazon.co.uk/Fantec-1479-DB-ALU-3-5-Inch-eSATA/dp...
(Amazon UK)

Jag återkommer med vidare rapport från diskhelvetet.

Det mest troliga är att du kört en 4TB disk med ADV format, aka 4k sektorer. Om eSATA kontrollern förväntar sig 512B sektorer så går det inte. Vet inte säkert om HDDs går att få med 512B sektorer längre, men bör gå på Ent diskar iaf.

Av Paddanx

4 kärnor räcker... oh wait

Tror man ser tydligt att man börjat nå toppen av effektiviteten på vad man kan få ur konsument nivån. Skulle tro den både lite av RAM flask och som visat i testerna kylning och ström budget gränser flaskning.

Är ändå rätt fantastiskt att ha 32 trådar, på konsument nivå... även om jag tror inte Windows vet var i H den ska göra med alla
(Hint, Hint MS... ny schemaläggare)

Är det värt att köpa för gemene man? Troligen inte.
Men den finns som alternativ iaf för de som har tyngre jobb. Där verkar den göra sin nytta.

Av Paddanx
Skrivet av macmann1:

Tack för tipset. Minitool verkar hitta hela filstrukturen iallafall, förhoppningsvis kan den lyckas rädda lite av datan iallafall.

Kan vara att partitionstabellen blivit skadad då också, eller så är det en bieffekt att GPT biten blivit skadad, och därför syns bara Fat32 "boot partitionen" på 500MB.

Det låter positivt att du hittar filer iaf. Du kan testa Recuva också. Helt gratis recovery program, men den tar mer bara filerna. Var noga med att ta en titt på det du återställt också, så det är intakt.

Av Paddanx

@SCORPIUS Tufft med så tajt budget.
Håller med råden ovan att hellre spara lite och ta en 480GB, för u kommer ångra dig när du sitter där med full disk. Men förstår om du inte kan göra det valet.

Patriot använder en helt okej kontroller med DRAM. Den vinner inga prestanda tester, eller något jag hade litat på som viktig OS disk, men fungerar som budget disk. Kingston A400 är typ samma kontroller/disk.

De kan skilja sig lite i vilket NAND de använder dock. Kontrollern har bra tålighet mot cell-urladdning och läs korrigering, även med halvdant NAND. Nackdelen med SSDer i denna prisklass är du får bara 3 års garanti, så hur den är om 5 år, är en annan sak.

BX500 är också ett okej alternativ, men de är DRAMlösa, så hård last, och speciellt fylld disk, sliter hårdare på dessa, då kontrollern inte kan använda DRAM för att omvandla små skrivningar till större bulk skrivningar. Då är Patriot disken eller A400 bättre val imho. Detta lär du märka om tex Steam ska uppdatera spelet, att prestandan är... ja vad den är

I läsning, dvs när spelet ska starta, är det nog rätt hugget som stucket.

Se till att uppdatera ev Firmware dock, då de har haft buggar i tidig version.

Av Paddanx
Skrivet av maweric:

Ja, man kanske skulle slagit till på en begagnad FX!
Men, så finns ju Ryzen..

Finns ju tom en del säkerhetshål som Ryzen har, som jag inte tror FX har pga de inte har SMT design, utan helt annan grund.

Men ja, Ryzen är ett alternativ som verkar mer och mer vettigt. För Intels CPUer är inte frågan om de har hål längre, utan hur många versioner av sårbarheterna de kommer hitta, och hur bra/dåligt dessa lappas och påverkar prestandan.