Skrivet av mats42:
Nej det är just det du inte har. Du har inte visat med Vilken HW controller det inträffar och i vilken Config. Cern rapporten är snart fem år gammal och naturligtvis har utveckligen gått framåt sen dess.
Ärligt talat så förstår jag inte varför det är viktigt att veta vilken HW controller? Vi pratar om CERN, där världens skarpaste och mest högutbildade hjärnor arbetar. Typ. Jag tror inte de väljer skitsaker, de har en rejäl budget. Jag vet inte hur många miljarder dollar deras LHC kostar, och de avlönar tusentals partikelfysiker och massa datavetenskapsmän också. Eliten. Det är ungefär som att säga "jag vägrar tro på att fotbollskor pajar, du bara pratar om FC Barcelona, och de kanske är amatörer. Vilka skor använde de?". Spelar man i Barcelona så är man i absoluta världseliten och ingen amatör. Har Barcelona problem med skor så kan du vara säker på att de gjort allt möjligt innan. Tror du seriöst att du skulle lyckas där inte CERN lyckats? Och på fem år så hinner inte så mycket hända om vi pratar datakorruption. Ingen är ju intresserad eller har startat några projekt kring det. Bara några få aktörer som t.ex. Oracle/Sun som uppmärksammar det. De andra bryr sig uppenbarligen inte.
Citat:
Iom att 3Ware är lösa prylar så kan man ju då anta (saknar återigen tillräckligt data) att de har byggt burkarna själva av lösa komponenter istället för att köpa färdiga system. Är det så blir det hela än mer haltande tyvärr
Om du menar att CERN är ett gäng amatörer så tror jag du gör bäst i att tänka om. De tillhör absoluta eliten när det gäller kunskap och hjärnkapacitet. Förresten, vet du ens vad CERN är? Du kanske tror att det är en samling pensionärer i en liten stuga?
Citat:
Barf sidan har ett par valida poänger om raid standarden som sådann men det är just den typen av brister kontrollrarna tar hand om. Bland annat med raid-6 och med checksummor samt Online spares. Intresant nog pekar den även ut EMC som ytterligare en leverantör som har checksummor nere på disknivån. Deras stora frustration är mot att folk sätter upp raid-5 för databasservrar. Det håller jag fullständigt med dem om. Precis som de skriver är 0+1 en bättre lösning där och iom att en raidkontroller hanterar det hela så får man ytterligare prestandaboost över vad bara raidmodellen kan ge
Wikisidan om raid påpekar själv att det mesta hanteras av HW kontrollers. Man ser ju batteriförlust som en stor risk men med moderna batterier och övervakning så är inte det ett reellt problem det heller. En modern kontroller klarar något/några dygn utan att tappa data och på den tiden hinner man lätt få dit lite ström. Den stora risken man pekar ut är Dålig personal/bristande rutiner och det har jag ju påpekat sen tidigare
Så vad försöker du säga? Att hw-raid är visst säkert?
Citat:
Du fick länken till hur HDS gör från gargamel och från mig fick du tipset om SCCM som använder checksummor på sina paket. Som du själv har påpekat så räcker det ju egentligen med rar eller liknande men problem med rarfiler skulle jag bara se genom restorebeställningar, från SCCM så skulle det leda till automatlarm, dessutom vet jag att att jag har ett antal hundra TB data i SCCM systemets servrar.
Återigen, kan du klistra in länkarna?
Citat:
Jag kan inte hitta någon som handlar om HW kontrollers med batteribackup från varken HP, Sun eller IBM (reservation för att jag har bommat någon länk). Ska man dra en slutsats så krävs ju korrekt indata och inte genralliseringar. De säger mest raid utan att säga något mer om config vilket då kan vara mjukvara med writecache eller hw utan raidchip (tex inte moderkortsvarianter eller dylikt). Det säger inte heller något om vad man har använt för diskar
Så vad är din slutsats? Eftersom du inte vet vad CERN, NetApp etc hade för hårdvara, så har de fel? De fick aldrig datakorruption? De bara inbillade sig?
Citat:
Nä det är just det man inte kan. Inte utan information om vad det är för system man gör det på så kan man inte säga något om sannolikhet eller frekvens. Man kan generalisera å det grövsta men det är inte seriöst. Blir ju lite som att dra likhetstecken mellan SJ och de japanska järnvägarna?
Ok så vad drar du för slutsats av att CERN gjorde en stor studie på deras många hw-raid rack och hittade massa fel. Vad är din slutsats? Låt höra. Att det är något unikt för CERN? Att ingen annan drabbas av det? Att CERN är amatörer?
Citat:
Det får du gärna lägga fram bevis på. För det har nog precis hela driftsbranchen missat. Tydligen ICA också då de kör sitt banksystem på windows http://www.idg.se/2.1085/1.8922. Det är helt enkelt inte sant i en serverhall.
Du har missat att Windows blåskärmar hela tiden och duger inte för de mest krävande saker? Jobbar du verkligen i driftsbranschen?
Här ser vi att en aktiebörs som körs på Windows har massa problem. Londonbörsen LSE lade ut en halv miljard på detta Windowssystem, i samarbete med Microsoft. MS blev jätteglada och gjorde massa reklam om att Windows duger för aktiebörser. Redan efter något år och massa driftsproblem så dumpade LSE Windowssystemet och lade ut ytterligare 250 milj på att köpa in ett företag som gör aktiesystem som körs på Linux + Solaris. Chefen som tog beslutet att köra på Windows fick sparken. Om man sparkar ut ett system efter något år, som man lagt ut en halv miljard på, och dessutom lägger ut ytterligare en kvarts miljard på att köpa in Linux system, vad säger det dig? Totalt misslyckande? Success?
http://blogs.computerworld.com/london_stock_exchange_to_aband...
Citat:
Sen är du ännu mer ute och cyklar. Förmågan att stänga av dåliga minneschip är en ren HW funktion och har inget med OS att göra.
Och menade du att det enbart var Suns HW som kan det så är det lika fel del. IBM kallar det chipkill och HP Lock-step
Hårdvarans funktioner har inte den här gången heller med mjukvarans funktioner utan både Linux och Solaris X86 sitter i samma båt som Windows.
Jag är tydligen lite mer påläst än du, även om jag inte idiotförklarar dig såsom du gör med andra. Solaris har den funken i OS. IBM har det i hårdvara, så de kan köra Linux eller AIX på servern, men Solaris har det i mjukvara, vilket är flexiblare. T.ex. kan inte IBM enkelt uppgradera sin felkorrigering eller göra stora förändringar, men i Solaris är det bara fråga om en patch. Samma med ZFS vs hw-raid.
SUNs kernelhackers kom på att man kan ta felmsg från loggar och stoppa in i ett program, istället för att en människa analyserar felmsg. På så sätt kan programmet agera utifrån loggar och faktiskt ge vettiga förklaringar och rekommendationer om vad som gick fel istället för "det vart ECC fel i minnesticka 4". I praktiska tester ökar upptiden med 30%.
http://blogs.oracle.com/constantin/entry/cec_2005_day2_andy_s...
"The presenter actually injected correctable and uncorrectable ECC errors into a CPU's ecache and we watched Solaris graciously dealing with those errors by generating comprehensive console messages, automagically offlining the "faulty" CPU and giving recommendations to the sysadmin on what to do next. Even if the error was so fundamental that it caused the kernel to panic, the fault management architecture would do it's best to record all telemetry data and then offline the CPU as soon as possible after reboot."
Från länken nedanför:
"Our self-healing system should not be saying, “I killed process-ID 123 because of a fatal ECC error at physical address 0x12345678.” Administrators need to know what happened in terms they can understand: what service was affected and how does that affect other services; what was the impact (performance, functionality); what did the system do for us (restarting something, failing over, using a redundancy); and what, if any, human intervention is needed (Do we need to replace the DIMM yet? How soon? Which one?).
....
On a modern system such as Solaris, however, you can also detect and attempt to recover from an exception where a process accessed memory with an underlying double-bit ECC (error correcting code) error, which can be detected but not corrected by the typical ECC code protecting your DRAM. Similar scenarios can occur with errors in the processor core itself and its L1 and L2 caches, with varying degrees of recovery possible depending on the capabilities of the underlying hardware."
Citat:
Sen är du ännu mer snett ute. Om data korrumperas i kernel eller drives så är det inte en fråga om risk för krach. Ett system som inte kan garantera data där ska omedelbart stoppa sig självt för att undvika att man ställer till något värre. Så fungerar också samtliga nämnda OS.
Förutom det nämnda Solaris då. Det är bättre att ett OS reparerar sig självt, eller isolerar den felaktiga komponten än att krascha, eller ger felmsg så man hinner ta ned allt snyggt.
Du har ju Windowstänk. Det finns andra som säger samma sak, typ: "om det blir fel så är det bättre att datorn kraschar". Jag anser att self healing är bättre. Men self healing är inte lätt att implementera eller att göra, det står mer om problemen här:
http://queue.acm.org/detail.cfm?id=1039537
"One approach is simply to make an individual system the unit of recovery; if anything fails, either restart the whole thing or fail-over to another system providing redundancy. Unfortunately, with the increasing physical resources available to each system, this approach is inherently wasteful: Why restart a whole system if you can disable a particular processor core, restart an individual application, or refrain from using a bit of your spacious memory or a particular I/O path until a repair is truly needed? Fine-grained recovery provides more effective use of computing resources and dollars for system administrators and reduces downtime for end users."
Citat:
Det var återigen ditt påstående om att ZFS alltid skriver på nya platser. Jag påpekade då att det inte går för att man rätt snabbt fyller diskarna och därmed har du inget annat val än att börja skriva över datat i varje fall. En HW controller skriver ju över datat direkt och ser sen till att det stämmer med det kontrollern har i minnet. När den är nöjd frigörs minnet.
ZFS skriver över gammalt data, men skjuter på det så länge som möjligt. Det finns massor av fördelar med detta COW. Bl.a. kan du backa i tiden om allting skiter sig. En annan fördel är att om användaren jobbar på 10GB rå filmdata och gör en liten ändring så kommer hw-raidet spara ned hela filen igen. I ZFS sparas endast ändringarna. Det är alltså en form av deduplication. Visst finns vanlig deduplication i ZFS, men den funken suger och är i betaversion, man bör inte använda den.
En HW controller kommer inte se till att det stämmer med det kontrollern har i minnet - de har inga checksummor, det görs ingen sån kontroll.
Citat:
BLock I/O handlar förenklat om att läsa/skriva råa sektorer direkt från disk. Man kan blanda in ISCSI och SAN också men då vi skulle hålla ned skalan så skippar vi det. Det är ett mycket vanligt scenario för Virtualiseringssystem. Writeprestanda är även här mycket viktiga.
Det funkar med en HW controller då den som tidigare påpekat inte bryr sig om filsystem alls.
Japp, och det är då det kan bli fel. Det är skilda lager så varje lager bryr sig bara om sin del, men det kan bli fel när man byter lager. ZFS har kännedom om rubbet, från data i RAM ända ned till disken - det finns inget annat som styr eller blandar sig i. Om man trots allt blandar sig i ZFS arbete, t.ex. har hw-raid så kommer ZFS detektera korrupta data men kan ej reparera det - det är därför man inte ska använda hw-raid när man kör ZFS. För då har ZFS inte total kontroll över allting, andra börjar blanda sig i och de kanske inte gör sitt jobb rätt.
Citat:
det var ur
"Ok, så det var typ 10-20% bättre prestanda med hw-raid. Det låter inte så farligt i mina öron. Men folk har ju andra krav än mig och de kanske tycker det är för dålig prestanda." Det är ju lite skillnad därifrån upp till 10 ggr som du fick i länken tidigare.
Sen är det du som påstår att ZFS skalar och vi som påpekar de problem den har med att skala just bland annat pga att den saknar en riktig writecache
Det var ett himla tjat om att ZFS inte har prestanda, eller inte skalar. Jag säger ju att ZFS skalar långt mycket bättre än ett hw-raid kort. Här är en artikel där man ställer Nexenta (OpenSolaris med ZFS på en "vanlig" PC) mot NetApp och EMC. Både NetApp och EMC gör dyra high end enterprise storage servrar. Det visar sig att ZFS hänger med bra de dyra high end lösningarna:
http://www.theregister.co.uk/2011/09/20/nexenta_vmworld_2011/
Tror du verkligen att ensamt hw-raid kort skalar bättre en Nexenta server? Det är ju bara stoppa i mer och mer hårdvara i en ZFS server, så hw-raidet inte hänger med. Jag fattar inte hur folk kan påstå att ZFS inte skalar? Och samtidigt påstå att ett hw-raid kort inte har skalningsproblem.
För att vara rättvis vill jag posta denna artikel, där svarar EMCs VD på artikeln ovan och han har massa kritik som han anser att artikeln är missvisande och orättvis. Poängen är att ZFS spelar i samma liga, det gör inte ett hw-raid kort. Ett hw-raid kort är ju bara en liten del, en liten komponent, hur kan ett sånt skala? Det är ungefär som att säga "min DRAM sticka skalar uppåt"?
Även EMC och NetApp kör vanlig hårdvara som de sätter sitt märke på, enligt VDn på EMC. Skillnaden är bara att de har en ofantlig prislapp, medan ZFS kör allt gratis - men de kör nästan samma hårdvara. Enda skillnaden är mjukvaran.
http://www.theregister.co.uk/2011/09/22/vmworld_hol_sakac/
"But, the fact that we use all "off the shelf" component parts mean that all three of us (EMC, NetApp, Nexenta – heck everyone) are driven by the same market forces (both on the cost side and customer budget side)
Citat:
Korrigera. Nej - Detektera ja. Och när man har detekterat det så ber man om resend på det korekta datat tills man får det. Inte särskillt komplicerat alls. Som sagt, finns i ethernetstandarden
Återigen så förstår du inte nej.
Vad det har med saken att göra är att man inte kan få ett korrupt paket över ett ethernet segment utan att detektera det. Om man sen stoppar in korrupt data i paketet så kommer det att komma fram lika korrupt men datat kan inte förändras på OSI layer 2 eller lägre utan att checksumman spricker.
Ok det verkar som att du menar att den datakorruption som ZFS detekterade inte kunde hända? Eller vad försöker du säga?
Citat:
Du har fortfarande bara ett moderkort och I/O bakplan och det skalar inget mer oavsett hur många CPU du stoppar dit. Ej heller hur mycket eller hur många "dumma" kontrollers du stoppar dit. Faktum är att det tom blir värre. Mer prylar på plankan leder till att mer I/O förbrukas bara för att hålla koll på det som sitter i kortplatserna. Mängden minne kvittar också då du fortfarande inte kan ha det som effektiv writecache då det sitter på fel plats om I/O bussen.
Och återigen försöker du jämföra klockfrekvenser och liknande vilket fortfarande är lika fel. Den lille har Hw stöd så den gör så fruktansvärt mycket mer per klockcykel. Sen har du fortfarande samma problem med I/O på moderkortet hur mycket minne, CPU och disk du stoppar dit. Om du då använder 100 I/O anrop för att skriva data till disk och jag använder ett så har jag då 99 kvar att vara snabbare än dig på.
I verkligheten så kommer det att bero på I/O mönstret. En HW kontroller som hanterar tex 30 disk kan mycket väl vara snabbare och betydligt billigare i både inköp och drift. Med de siffror vi har sen tidigare om writecachens effekt så kan vi då se att runt 10-12 diskar med cache är snabbare än 100 utan. Med 30 diskar plus cache så finns det därmed en god grund för slutsatsen att den skriver betydligt snabbare snabbare.
Sen är prestanda ett svårt begrepp. För mig räknas även strömförbrukning, kyla och utrymmesförbrukning in i prestanda
Om nu ZFS lider av writecache som du hela tiden tjatar om, hur kan då en ZFS server tävla med NetApp och EMC servrar? Menar du att ett ensamt hw-raid kort kan tävla med såna servrar och skalar bra, medan ZFS inte skalar och därför inte kan tävla med såna servrar?
Citat:
Om du nu har den utbildning du påstår att du har så borde du veta att det en tillverkare/Leverantör lovar sin kund i försäljningsavtal är bindande. Med andra ord kontraktsbrott att inte hålla det man lovar och det kopplas alltid till viten. Skulle en leverantör försöka göra något sådant så skulle det vara slutet för det företaget snabbare än kvikt. Du kan ju bara fundera på vilka juridiska processer det skulle bli i USA.
Men då du trots det tvärsäkert kan säga att IBM:s marknadsföring är falsk så ser jag nu fram emot dina bevis. Jag kan även vidarebefodra dem till IBM om du vill.
IBM är kända för sin falska marknadsföring och fula metoder. Visste du inte det? För längesen var IBM det stora stygga företaget, men sen tog MS över rollen som Evil. Men IBM har aldrig upphört med sina fula metoder. De är väldigt aggressiva, ljuger och fular sig och är värre än MS. MS har börjat skärpa sig, men IBM döms fortfarande för fula metoder. Enligt wikipedia så var IBM det första företaget som började med FUD i systematisk skala. Känner du inte till det om IBM? IBM är ju riktigt Evil, och har alltid varit det
http://en.wikipedia.org/wiki/Fear,_uncertainty_and_doubt
Angående falsk marknadsföring från IBM, det finns många exempel. T.ex. angående de supersnabba IBM Mainframes som kostar tokmycket. IBM släppte världens snabbaste cpu förra året, en z196 Mainframe cpu. Den kör på 5.26GHz och har nästan en halv GB i cpu cache. Här pratar vi inte 12 MB L2 cache som en snabb x86 cpu har nej, vi pratar 300MB! Seriöst, 300MB cache.
http://www-03.ibm.com/press/us/en/pressrelease/21580.wss
En sån cpu borde vara supersnabb eller hur? Vad säger du, om jag påstår att den är betydligt långsammare än en highend x86 cpu? Att den i själva verket suger när vi pratar prestanda. Om det nu vore sant, vore det inte falskt av IBM isåfall att påstå att deras största Mainframe virtualiserar 1500 x86 servrar? Hur kan en Mainframe virtualisera 1500st x86 servrar när en Mainframe cpu är långsammare än en någorlunda snabb x86? Faktum är att man kan EMULERA en IBM Mainframe på en laptop! Du använder "TurboHercules" eller laddar ned "Hercules". Faktum är att IBM är livrädda för TurboHercules, och har hotat (stämt?) det företaget eftersom man nu kan köra Mainframe på en x86. TurboHercules använde ett av de 511 patent som IBM gav till open source, så alla open source folk blev glada. Men IBM bara snackade, det var bara spel för kulisserna.
http://arstechnica.com/open-source/news/2010/04/ibm-breaks-os...
"IBM is threatening to pursue legal action against TurboHercules, a company that sells services relating to the open source Hercules project, an emulator that allows conventional computers with mainstream operating systems to run software that is designed for IBM System Z mainframe hardware."
Om nu IBM mainframes är supersnabba, varför är IBM så livrädda för Turbohercules? En emulerad Mainframe borde ju inte ha en chans mot en riktig supersnabb Mainframe, med 24 st "Världens snabbaste cpu"? Faktum är att under mjukvaruemulation så ger en 8-socket x86 server med den gamla Nehalem-EX cpun hela 3200 MIPS.
http://en.wikipedia.org/wiki/Hercules_%28emulator%29#Performa...
Den största snabbaste maximalt bestyckade z196 Mainframen ger 50.000 MIPS totalt. Den är dyrast. Den gamla sketna Unix servern P595 som användes för att tävla i TPC-C kostade 35 miljoner USD, listpris. Dvs över en kvarts miljard kr. Men Unix servrarna är inte alls lika dyra som IBM Mainframes. Man kan ju spekulera i hur mycket en max bestyckad z196 kostar.
Om du kör mjukvaruemulering så blir allt 5-10x långsammare. Så en 8-socket x86 server som ger 3.200 MIPS, borde alltså ge 5-10 ggr mer, dvs 16.000-32.000 MIPS. Så om du tar två såna x86 servrar med 16 st gamla Nehalem-EX cpuer så når du 32.000 - 64.000 MIPS. Lika mycket som en max bestyckad z196 IBM Mainframe med 24st "världens snabbaste cpuer". Så... hur snabb är nu världens snabbaste cpu? Du behöver 16st gamla Nehalem-EX cpuer för att matcha 24st z196 cpuer. Det ser ut som att z196 inte är så snabb som IBM försöker påstå?
Och, hur kan IBM påstå att en Mainframe kan virtualisera många hundra x86 servrar? Jo, det visar sig att alla x86 servrarna IDLAR och Mainframen kör på 100% load! Vad händer om x86 servrarna börjar göra lite arbete? Ja, då hinner inte de långsamma 5.26GHz cpuerna med.
Vore det korrekt om jag sade: min Sandy Bridge 2600K kan ersätta 5st IBM Mainframes. (Jag bootar upp dem alla, och låter dem idla). Vore detta falsk marknadsföring, eller korrekt?
Vill du ha fler exempel på IBMs falska marknadsföring? Jag har många fler, med länkar. Kort sagt, lite inte på IBM. De ljuger som en häst travar.
Citat:
Sen vem har förnekat att en disk får fel? Naturligtvis får de fel. De får de oavsett vad man lägger ovanpå och det är därför man ser till att detektera dem och antingen koppla bort den sektorn/spåret/plattan eller så failar man hela disken. Det är raidkontrollerns jobb att hantera den biten. Det är också därför man har hot-plug, on-line spares och liknande hanteringar för att minska risken när diskar rasar. Gargamel påpekade ju också att man kan sätta en checksumma på sektorn (med länk). Det räcker för att detektera ev fel på sektorn. Iom att man har raid så bygger man bara upp sektorn igen (fast på annan fysisk plats på disken för att gardera sig mot att det är taskigt media på disken). Får man för många dåliga sektorer så flaggas disken som dålig. Finns tom beskrivet på den Wikisida du själv länkade till.
Återigen, ett hw-raid gör parityberäkningar men har inga checksummor. De kontrollerar inte data korruption. Om du påstår annat, så får du gärna länka till någon artikel där de pratar om checksummor i hw-raid. Men vet du vad? Det finns inga såna artiklar, av det enkla skälet att hw-raid inte har checksummor.
Citat:
Talar man direkta haverier på en disk så är ZFS precis lika känsligt för HD haverier som raidlösningar. Kör du med en spare i Raid (dvs5) eller raidz-1 så är det tack och godnatt för båda med två disks haveri. Kör man raid 6 eller raidz-2 så klarar man två disk men det är kört när trean rasar.
har man då en online spare (som man har om man vet vad man gör) så kommer man återigen att utnyttja kontrollerns starkare skrivprestanda för att snabbare få upp en ny disk
Återigen, ZFS är inte lika känsligt för diskhaverier som raidlösningar. Om nu data verkligen är kritiskt viktigt, så kör du raidz3 - dvs även trean kan rasa. Och ovanpå det så har du även hot spares i ZFS. Så ZFS ger bättre säkerhet, ja. Här jämförs raid-6, raid-50, och även raidz3. Vem tror du är säkrast?
http://www.servethehome.com/?s=raidz3&x=0&y=0
Citat:
Du kommer inte att lyckas om du inte försöker nej. Det är nu fjärde gången du får samma svar. Jag kommer inte att begå avtalsbrott för dig.
Och just ja. IBM använder inte Seagate, de kör med Hitachi iom att Hitachi köpte stora delar av sin hårddisktilverkning av just IBM
Och tror du inte hitachi diskar får felaktiga sektorer ibland?
Så, med andra ord kommer du inte posta länkar som visar att hårdvaruraid skyddar mot datakorruption, är det så jag ska tolka ditt svar?
Citat:
Samma svar igen. Det är kontrollern som detekterar felet och ser till att hantera det.
En felimplementerad kontroller sänker vilken lösning som helst. Finns ju ett antal artiklar som nämner billiga skräpkontrollrar som flaggar klart tillbaka till moderkortet utan att det är sant och då blir ju data korrupt direkt.
ett citat från wikisidan om zfs "...For example: FLUSH CACHE should only return, when the cache is flushed. But there are dirt cheap converter chips that sends the FLUSH CACHE to disk, but returns a successful FLUSH CACHE in the same moment back to the OS (of course without having NVRAM on disk or in a controller as this would allow to ignore CACHE FLUSH). Or interface converters reordering commands in really funny ways. By such reordering it may happen, that the uberblock is written to disk, before the rest of the structure has been written to disk..."
Saken är det att det blir fel i hårdvara. Det blir buggar i firmware, kontrollers ballar ur, strömspikar, bitröta, etc - men hwraid har fortfarande inga checksummor så det märks inte. Men ZFS kommer detektera allt detta eftersom det är checksummor på i stort sett allting. Om hw-raidet är buggit eller disken knasig, så märks det inte. Men ZFS kommer märka det direkt.
Citat:
Var har jag sagt det? Ett exakt citat tack. Faktum är att vi är fyra personer som säger samma sak medans du har en enda snart fem år gammal källa du spelar upp som en trasig skiva
Jag har även postat andra källor. T.ex. en forskningsartikel som säger att när raid-6 hittar fel och ska korrigera, så "5% att raid-6 gissar rätt, och 95% chans att den förstör ännu mera data". Så raid-6 verkar inte heller säkert. Det var nån som sade nåt i stil med att det är bara amatörer som tror det finns checksummor på hw-raid. Har du hört talas om ghost writes? Disken skriver och tror allt gick bra, men av nån anledning så hamnade inte skrivningen på disken utan allt försvann i tomma luften. Detta fel detekterar inte hw-raid. Men det gör ZFS, sa en zfs utvecklare på Sun. Jag kommer inte ihåg förklaringen.
Citat:
Grunden var att jag frågade gång efter gång om du hadde några som helst drifterfarenheter vilket du definitvt inte verkar ha. Det är väldigt synd då du skulle förstå att man återläser inte filer från backup utan begäran (och kan inte användaren öppna sin rar-packade budget pga bit-röta så kommer begäran). Alla automatlarm loggas också och även där skulle då trasiga filer från SCCM synas direkt. System som krachar är kritiska larm (om det inte är en nod i ett kluster) och därmed larmas människa direkt. Dessutom tar man ut statistik och följer upp löpande. Allt detta finns att läsa massor om i tex ITIL eller MOF ramverken.
Därmed är det också en praktisk omöjlighet att vi skulle ha problem i den skala du hävdar utan att vi skulle se en trave incidenter och requests i systemet. Då dessa fortfarande inte finns så blir slutsatsen fortfarande den samma.
Yrkesmässigt går det alldelles utmärkt, tackar som frågar. Det är just ovanstående typer av siffror man använder för att sälja in sig hos kunder. naturligtvis även i det fallet med avtalde nivåer på tillgänglighet/prestanda och kostnader
Edit: redigerade ett par olyckliga formuleringar och la till ett par förtydliganden
Jag har förklarat att jag inte jobbar med drift, ja. Däremot visar jag massa forskning från trovärdiga källor. Du visar inga trovärdig länkar alls, istället ska jag tro dig på ditt ord. Har du postat EN enda länk som visar att hw-raid har checksummor mot bitröta? Nej. Däremot har jag visat länkar som visar att hw-raid kan orsaka datakorruption. Om du nu visar en länk som visar att "hw-raid är fullständigt säkert mot datakorruption" - så vad betyder det? Att alla forskare är amatörer, eller att din enda länk är från IBM?
Återigen, skälet att du inte postar en enda länk är att det inte finns såna. Om du endast kan finna en sån länk på IBMs site och bryta avtal om du postar det här - så betyder det att IBM ljuger. Men det är ju inget nytt, jag har många exempel på IBMs lögner. Vill du se? Be mig posta länkar och berätta om IBMs lögner, gör det, gör det!