Vinn nätagg från Seasonic

Är hårdvaru raid på väg att dö ut?

Permalänk
Avstängd
Skrivet av mats42:

Att du inte förstår, det förstår jag.

Jag hävdar att det är du som inte förstår.

Citat:

Först hävdar du att raid är i princip livsfarligt men konstigt nog har vi inte sett det problemet. Du hävdar då att det inte märks utan checksummor. I verkligheten märks ett korrupt raidset om du försöker byta en trasig disk mot en ny då systemet inte kan göra rebuild men det inträffar som sagt inte. (normalt har man dessutom en online spare som bygger upp direkt).

Jag hävdar att Raid inte är livsfarligt, men att det kan korrupta data. Jag har visat massa länkar som visar att det händer sällan, men det händer. Jag hävdar även att hw-raid inte skyddar mot data korruption och du har ännu inte motbevisat det.

Citat:

Angående checksummorna så fick du även exempel på både HW och SW system som använder dem. Återigen utan att de larmar .

Det är så mycket inlägg när jag försöker diskutera med flera personer samtidigt så du kanske förstår att jag måste välja bort en del frågor, och att jag missar saker bland all text. Kan du länka igen till de länkar du pratar om, HW och SW system som använder checksummor?

Citat:

Sen har du fortfarande inte publicerat en enda länk som specar vilken kontroller det var man hadde fel med. Utan det så går det inte att dra en enda slutsats.

Nu förstår jag inte din fråga. Du pratar om när man hade fel med en kontroller. Vilket fall refererar du till? Jag har visat många fall där man har fel med kontroller. Menar du att jag inte inte visat någon kontroller, i något fall alls? Jag har visat ganska många länkar, i något fall borde det stå.

Att man inte kan dra någon slutsats alls, är fel. Man kan dra slutsatsen som forskarna drar: att hw-raid är osäkert och kan korrupta dina data. Visst är risken liten, men eftersom du läser så många ggr så blir risken reell till slut ändå.

Citat:

Du påstod ju att windows var så mycket känsligare på dåligt minne men du har ju inte visat någo grund för det trots att jag har bett dig två gånger om att förklara hur UNIX ska läsa data från ett korrupt minne.

Windows kraschar i tid och otid och anses instabilt och duger inte i tyngre kritiska servrar. Det hoppas jag du inte missat. Det är även känt att Unix burkar kan stänga av dåliga RAM kretsar och undvika att läsa från dem - det kan inte Windows. Detta är ytterligare en anledning att Windows är instabilt. Om data korruptas i Windows så är risken stor att det kraschar, men i Unix så är det inte lika stort problem - helt enkelt av skälet att det är bättre upptid på Unix. (Och Linux)

Citat:

Du har heller inte förklarat hur du ska skriva på ständigt nya platser utan att disken blir full.

Hur menar du här? Jag förstår inte frågan. Om disken skriver ständigt på nya platser så blir den full till slut, ja. Det är väl självklart? Menar du att med hw-raid så blir disken inte full när du skriver på nya platser hela tiden? Jag förstår inte din fråga.

Citat:

Svaret på hur du ska lösa block-I/O saknas också.

Jag förstår inte frågan.

Citat:

Eftersom du hävdade att man bara tjänade 10% på writecache så fick du ett exempel som visar att 10 gånger är mer rätt.

Var har jag hävdat att man tjänar 10% på writecache? Kan du citera mig? Du påstår även att jag sagt att ZFS inte skalar, men det har jag inte heller sagt.

Citat:

När du hävdade att det bara var ZFS som kunde upptäcka en trasig switch så fick du delar av Ethernet specifikationen som svar. Där framgår klart att det hanteras redan på protokollnivå i Ethernet och därmed inte behöver hanteras längre upp.

Ok, så din slutsats är att då kommer alltid Ethernet detektera och korrigera alla korrupta data? Så de korrupta data som ZFS fångade upp, inte var korrupta egentligen? Att det bara var ren inbillning?

Återigen, bara för att du har lite felkontroller här och där, hjälper inte. Det måste göras på rätt sätt. Det finns checksummor i Ethernet, ja. Så vad har det med saken att göra? Jag förstår inte. Menar du att det kan aldrig skickas korrupta data över Ethernet?

Citat:

Sen tycker du något om Raidkontrollers igen utan att ha någon som helst erfrehet av någon och eftersom prioduktblad inte duger åt dig så har du ju just sagt att du inte tänker lyssna på någon som visar att du har fel där heller.

Vad refererar du till här? Jag vet inte vad jag ska svara.

Citat:

Och återigen så verkar du inte förstå att direktanslutna diskar ger högre I/O last än diskar via Smarta kontrollers. Därmed kommer ett moderkort att få skalningsproblem långt innan en kontroller får det. I dit senaste exempel så ska moderkortet göra 64 anrop istället för ett för kontrollera diskstatus tex. Vad tror du merkosntanden blir för att göra något 64 gånger inefektivare? HW kontrollern gör jobet med dedikerad hårdvara och därmed behöver den CPU:n inte slita för att göra jobet

Jag har aldrig sagt att cpuer som kör ZFS slipper all last. Tvärtom lastas de en del, det har jag sagt. Därom är vi överens. Men det jag menar är att en server är kraftigare och har mer kraft än ett sketet hw-raid kort med en klen cpu på 800MHz - och därför blir prestandan högre i en ZFS server. Det verkar du inte hålla med om? Menar du att ett 800MHz, 512MB RAM hw-raid presterar bättre än en fet ZFS server med 128GB RAM, flera Quad Xeons, 100 talet diskar över flera kontroller kort?

Citat:

När det gäller dokumentation får du samma svar igen. Vill du lära dig får du leta eller plugga. En bra utbildning som dessutom tar upp I/O och moderkortsdesign är HP/Compaqs ASE utbildning http://www.hp.com/certification/expert_one-intermediate.html. , IBM:s motsvarighet hette PSE när jag tog den. Vi är nu två som båda säger samma sak, dokumenten finns men är ej publika och jag tänker fortfarande inte begå avtalsbrott för dig, I synnerhet när du antyder att du ändå inte tänker tro på något som du inte anser är en forskningsrapport

Om du verkligen går på IBMs falska marknadsföring så får du göra det, men jag gör det inte. Hårddisktillverkare brukar specifiera hur många fel som en disk inte kan korrigera, och andra fel procent. En disk FÅR dåliga sektorer. Om IBM inte publicerar såna siffror, så betyder det inte att IBMs hårddiskar är 100% säkra, det betyder bara att IBM kör med falsk marknadsföring. IBM tillverkar inga egna diskar, utan köper in allting utifrån, kanske från Seagate som faktiskt publicerar fel procent. Om IBM väljer att radera de siffrorna så är det falsk marknadsföring. Detsamma gäller HP. Det är isåfall naivt av dig att tro det, vilken utbildning du än har.

Du behöver inte länka till falsk reklam, det borde finnas gott om artiklar på nätet som pratar om checksummor på hw-raid. Kan du posta någon sån? Eller vill du att jag gör det åt dig? Men det kommer jag inte lyckas med, eftersom hw-raid inte har checksummor.

Citat:

Sen är det ju bara konstatera att det var du som började skrika om att fibrechannel system minnsan inte kunde upptäcka fel de heller. Och återigen så jo det kan de men tyvärr är nog varken Ciscos eller brocades specar publika de heller.

Men hur förklarar du att även fibre channel diskar inte kan korrigera alla fel, än mindre detektera alla felen? Så hur kan ett FC system vara säkert, när diskarna är osäkra? Tror du verkligen att FC diskar inte kan få dåliga sektorer? Att de aldrig kraschar?

Citat:

Först säger du att ZFS är en enterprise lösning och sen säger du att det är fel att prata high-end. Enterprise lösningar är High-end system. Du tycker att Raidkontrollers är dyra men att lägga ut några hundra tusen på större servrar, det ser du inga problem med. Inte heller med den extra plats de tar eller den strömförbrukning extra de glufsar i sig?

Jag säger att ZFS är en Enterprise server lösning. Men att det är fel att prata high-end i en tråd om ZFS vs hårdvaruraid. Vi diskuterar inte om ZFS kan ersätta high end lösningar, vi diskuterar om ZFS kan ersätta hw-raid. ZFS mot high-end är en annan tråd, men det tar vi inte här i denna tråd, det blir fel.

Citat:

Det är just här den stora skillanden märks mellan oss. Vi är minst tre personer i denna tråd som jobbar med stora system dagarna i ända. Två med drift och en leverantör av mycket högpresterande lagringssystem som hanterar väldigt mycket och väldigt känsligt data. Du har ingen som helst erfarenhet att väga mot de rapporter du läser och därmed verkar de ha blivit din heliga Graal. Vi har erfarenheter och annan information att väga det emot. Om en rapport säger att vi skulle ha X antal tusen korrupta filer och vi inte har det så kan man ju börja fundera på om leverantörsspecen som säger att de har skydd mot det stämmer eller om vi bara har en rent otrolig tur. Iom storleken på system och att vi är fler med samma erfarenhet så kan man nog stryka turen och då finns det två alternativ kvar. Systemen är skyddade eller risken är extremt överdriven.

Ok, eftersom ni jobbar med stora system så betyder det att all forskning från CERN, och NetApp, etc är ogiltig? Skämtar du? Menar du att ni tre vet mera? Silent corruption är just SILENT. Det märks inte, förutom att en dag så kanske du får problem och skyller på en bugg i mjukvaran när det egentligen var silent corruption.

Den stora skillnaden mellan oss är att jag postar länkar och refererar till trovärdiga källor, såsom t.ex. NetApp och forskare. Du postar ingenting, istället ska jag tro på ditt ord. Därtill säger du "du vet inget om saken, eftersom du inte driftar stora system, så glöm all forskning, jag har rätt".

Återigen. Mats42, så vinner man inga debatter. Har du inte förstått det än? Hur har du klarat dig hittills i livet om du bara kör på "jag har rätt, men jag tänker inte bevisa att jag har rätt"?

Permalänk
Medlem
Skrivet av saddam:

Jag hävdar att det är du som inte förstår.

Jag hävdar att Raid inte är livsfarligt, men att det kan korrupta data. Jag har visat massa länkar som visar att det händer sällan, men det händer. Jag hävdar även att hw-raid inte skyddar mot data korruption och du har ännu inte motbevisat det.

Nej det är just det du inte har. Du har inte visat med Vilken HW controller det inträffar och i vilken Config. Cern rapporten är snart fem år gammal och naturligtvis har utveckligen gått framåt sen dess. ZFS har tex fått förmåga att kunna vara bootdisk. Även på HW sidan har utvecklingen gått framåt. Den enda kontroller jag lyckas hitta nämnd är en 3ware och det är ju en lös tredjepartspryl. Den kan inte jämföras med HP/IBM/SUN osv då de inte är integrerade mot lagringssystemet. Iom att 3Ware är lösa prylar så kan man ju då anta (saknar återigen tillräckligt data) att de har byggt burkarna själva av lösa komponenter istället för att köpa färdiga system. Är det så blir det hela än mer haltande tyvärr

Barf sidan har ett par valida poänger om raid standarden som sådann men det är just den typen av brister kontrollrarna tar hand om. Bland annat med raid-6 och med checksummor samt Online spares. Intresant nog pekar den även ut EMC som ytterligare en leverantör som har checksummor nere på disknivån. Deras stora frustration är mot att folk sätter upp raid-5 för databasservrar. Det håller jag fullständigt med dem om. Precis som de skriver är 0+1 en bättre lösning där och iom att en raidkontroller hanterar det hela så får man ytterligare prestandaboost över vad bara raidmodellen kan ge

Wikisidan om raid påpekar själv att det mesta hanteras av HW kontrollers. Man ser ju batteriförlust som en stor risk men med moderna batterier och övervakning så är inte det ett reellt problem det heller. En modern kontroller klarar något/några dygn utan att tappa data och på den tiden hinner man lätt få dit lite ström. Den stora risken man pekar ut är Dålig personal/bristande rutiner och det har jag ju påpekat sen tidigare

Skrivet av saddam:

Det är så mycket inlägg när jag försöker diskutera med flera personer samtidigt så du kanske förstår att jag måste välja bort en del frågor, och att jag missar saker bland all text. Kan du länka igen till de länkar du pratar om, HW och SW system som använder checksummor?

Du fick länken till hur HDS gör från gargamel och från mig fick du tipset om SCCM som använder checksummor på sina paket. Som du själv har påpekat så räcker det ju egentligen med rar eller liknande men problem med rarfiler skulle jag bara se genom restorebeställningar, från SCCM så skulle det leda till automatlarm, dessutom vet jag att att jag har ett antal hundra TB data i SCCM systemets servrar.

Skrivet av saddam:

Nu förstår jag inte din fråga. Du pratar om när man hade fel med en kontroller. Vilket fall refererar du till? Jag har visat många fall där man har fel med kontroller. Menar du att jag inte inte visat någon kontroller, i något fall alls? Jag har visat ganska många länkar, i något fall borde det stå.

Jag kan inte hitta någon som handlar om HW kontrollers med batteribackup från varken HP, Sun eller IBM (reservation för att jag har bommat någon länk). Ska man dra en slutsats så krävs ju korrekt indata och inte genralliseringar. De säger mest raid utan att säga något mer om config vilket då kan vara mjukvara med writecache eller hw utan raidchip (tex inte moderkortsvarianter eller dylikt). Det säger inte heller något om vad man har använt för diskar

Skrivet av saddam:

Att man inte kan dra någon slutsats alls, är fel. Man kan dra slutsatsen som forskarna drar: att hw-raid är osäkert och kan korrupta dina data. Visst är risken liten, men eftersom du läser så många ggr så blir risken reell till slut ändå.

Nä det är just det man inte kan. Inte utan information om vad det är för system man gör det på så kan man inte säga något om sannolikhet eller frekvens. Man kan generalisera å det grövsta men det är inte seriöst. Blir ju lite som att dra likhetstecken mellan SJ och de japanska järnvägarna.

Skrivet av saddam:

Windows kraschar i tid och otid och anses instabilt och duger inte i tyngre kritiska servrar. Det hoppas jag du inte missat. Det är även känt att Unix burkar kan stänga av dåliga RAM kretsar och undvika att läsa från dem - det kan inte Windows. Detta är ytterligare en anledning att Windows är instabilt. Om data korruptas i Windows så är risken stor att det kraschar, men i Unix så är det inte lika stort problem - helt enkelt av skälet att det är bättre upptid på Unix. (Och Linux)

Det får du gärna lägga fram bevis på. För det har nog precis hela driftsbranchen missat. Tydligen ICA också då de kör sitt banksystem på windows http://www.idg.se/2.1085/1.8922. Det är helt enkelt inte sant i en serverhall.
Sen är du ännu mer ute och cyklar. Förmågan att stänga av dåliga minneschip är en ren HW funktion och har inget med OS att göra.
Och menade du att det enbart var Suns HW som kan det så är det lika fel del. IBM kallar det chipkill och HP Lock-step
Hårdvarans funktioner har inte den här gången heller med mjukvarans funktioner utan både Linux och Solaris X86 sitter i samma båt som Windows.
Sen är du ännu mer snett ute. Om data korrumperas i kernel eller drives så är det inte en fråga om risk för krach. Ett system som inte kan garantera data där ska omedelbart stoppa sig självt för att undvika att man ställer till något värre. Så fungerar också samtliga nämnda OS.

Skrivet av saddam:

Hur menar du här? Jag förstår inte frågan. Om disken skriver ständigt på nya platser så blir den full till slut, ja. Det är väl självklart? Menar du att med hw-raid så blir disken inte full när du skriver på nya platser hela tiden? Jag förstår inte din fråga.

Det var återigen ditt påstående om att ZFS alltid skriver på nya platser. Jag påpekade då att det inte går för att man rätt snabbt fyller diskarna och därmed har du inget annat val än att börja skriva över datat i varje fall. En HW controller skriver ju över datat direkt och ser sen till att det stämmer med det kontrollern har i minnet. När den är nöjd frigörs minnet.

Skrivet av saddam:

Jag förstår inte frågan.

BLock I/O handlar förenklat om att läsa/skriva råa sektorer direkt från disk. Man kan blanda in ISCSI och SAN också men då vi skulle hålla ned skalan så skippar vi det. Det är ett mycket vanligt scenario för Virtualiseringssystem. Writeprestanda är även här mycket viktiga.
Det funkar med en HW controller då den som tidigare påpekat inte bryr sig om filsystem alls.

Skrivet av saddam:

Var har jag hävdat att man tjänar 10% på writecache? Kan du citera mig? Du påstår även att jag sagt att ZFS inte skalar, men det har jag inte heller sagt.

det var ur
"Ok, så det var typ 10-20% bättre prestanda med hw-raid. Det låter inte så farligt i mina öron. Men folk har ju andra krav än mig och de kanske tycker det är för dålig prestanda." Det är ju lite skillnad därifrån upp till 10 ggr som du fick i länken tidigare.

Sen är det du som påstår att ZFS skalar och vi som påpekar de problem den har med att skala just bland annat pga att den saknar en riktig writecache

Skrivet av saddam:

Ok, så din slutsats är att då kommer alltid Ethernet detektera och korrigera alla korrupta data? Så de korrupta data som ZFS fångade upp, inte var korrupta egentligen? Att det bara var ren inbillning?

Korrigera. Nej - Detektera ja. Och när man har detekterat det så ber man om resend på det korekta datat tills man får det. Inte särskillt komplicerat alls. Som sagt, finns i ethernetstandarden

Skrivet av saddam:

Återigen, bara för att du har lite felkontroller här och där, hjälper inte. Det måste göras på rätt sätt. Det finns checksummor i Ethernet, ja. Så vad har det med saken att göra? Jag förstår inte. Menar du att det kan aldrig skickas korrupta data över Ethernet?

Återigen så förstår du inte nej.
Vad det har med saken att göra är att man inte kan få ett korrupt paket över ett ethernet segment utan att detektera det. Om man sen stoppar in korrupt data i paketet så kommer det att komma fram lika korrupt men datat kan inte förändras på OSI layer 2 eller lägre utan att checksumman spricker.

Skrivet av saddam:

Vad refererar du till här? Jag vet inte vad jag ska svara.

Angående att ZFS inte skalar, jag tycker det är fel att påstå att ett hw-raid kort med 0,8 GHz PowerPC och 0,5GB RAM skalar bättre en server med flera quad Xeon cpuer med 128GB RAM, flera kontrollerkort och hundratalet diskar.

Du har fortfarande bara ett moderkort och I/O bakplan och det skalar inget mer oavsett hur många CPU du stoppar dit. Ej heller hur mycket eller hur många "dumma" kontrollers du stoppar dit. Faktum är att det tom blir värre. Mer prylar på plankan leder till att mer I/O förbrukas bara för att hålla koll på det som sitter i kortplatserna. Mängden minne kvittar också då du fortfarande inte kan ha det som effektiv writecache då det sitter på fel plats om I/O bussen.

Skrivet av saddam:

Jag har aldrig sagt att cpuer som kör ZFS slipper all last. Tvärtom lastas de en del, det har jag sagt. Därom är vi överens. Men det jag menar är att en server är kraftigare och har mer kraft än ett sketet hw-raid kort med en klen cpu på 800MHz - och därför blir prestandan högre i en ZFS server. Det verkar du inte hålla med om? Menar du att ett 800MHz, 512MB RAM hw-raid presterar bättre än en fet ZFS server med 128GB RAM, flera Quad Xeons, 100 talet diskar över flera kontroller kort?

Och återigen försöker du jämföra klockfrekvenser och liknande vilket fortfarande är lika fel. Den lille har Hw stöd så den gör så fruktansvärt mycket mer per klockcykel. Sen har du fortfarande samma problem med I/O på moderkortet hur mycket minne, CPU och disk du stoppar dit. Om du då använder 100 I/O anrop för att skriva data till disk och jag använder ett så har jag då 99 kvar att vara snabbare än dig på.

I verkligheten så kommer det att bero på I/O mönstret. En HW kontroller som hanterar tex 30 disk kan mycket väl vara snabbare och betydligt billigare i både inköp och drift. Med de siffror vi har sen tidigare om writecachens effekt så kan vi då se att runt 10-12 diskar med cache är snabbare än 100 utan. Med 30 diskar plus cache så finns det därmed en god grund för slutsatsen att den skriver betydligt snabbare snabbare.

Sen är prestanda ett svårt begrepp. För mig räknas även strömförbrukning, kyla och utrymmesförbrukning in i prestanda

Skrivet av saddam:

Om du verkligen går på IBMs falska marknadsföring så får du göra det, men jag gör det inte. Hårddisktillverkare brukar specifiera hur många fel som en disk inte kan korrigera, och andra fel procent. En disk FÅR dåliga sektorer. Om IBM inte publicerar såna siffror, så betyder det inte att IBMs hårddiskar är 100% säkra, det betyder bara att IBM kör med falsk marknadsföring. IBM tillverkar inga egna diskar, utan köper in allting utifrån, kanske från Seagate som faktiskt publicerar fel procent. Om IBM väljer att radera de siffrorna så är det falsk marknadsföring. Detsamma gäller HP. Det är isåfall naivt av dig att tro det, vilken utbildning du än har.

Du behöver inte länka till falsk reklam, det borde finnas gott om artiklar på nätet som pratar om checksummor på hw-raid. Kan du posta någon sån? Eller vill du att jag gör det åt dig? Men det kommer jag inte lyckas med, eftersom hw-raid inte har checksummor.

Om du nu har den utbildning du påstår att du har så borde du veta att det en tillverkare/Leverantör lovar sin kund i försäljningsavtal är bindande. Med andra ord kontraktsbrott att inte hålla det man lovar och det kopplas alltid till viten. Skulle en leverantör försöka göra något sådant så skulle det vara slutet för det företaget snabbare än kvikt. Du kan ju bara fundera på vilka juridiska processer det skulle bli i USA.

Men då du trots det tvärsäkert kan säga att IBM:s marknadsföring är falsk så ser jag nu fram emot dina bevis. Jag kan även vidarebefodra dem till IBM om du vill.

Sen vem har förnekat att en disk får fel? Naturligtvis får de fel. De får de oavsett vad man lägger ovanpå och det är därför man ser till att detektera dem och antingen koppla bort den sektorn/spåret/plattan eller så failar man hela disken. Det är raidkontrollerns jobb att hantera den biten. Det är också därför man har hot-plug, on-line spares och liknande hanteringar för att minska risken när diskar rasar. Gargamel påpekade ju också att man kan sätta en checksumma på sektorn (med länk). Det räcker för att detektera ev fel på sektorn. Iom att man har raid så bygger man bara upp sektorn igen (fast på annan fysisk plats på disken för att gardera sig mot att det är taskigt media på disken). Får man för många dåliga sektorer så flaggas disken som dålig. Finns tom beskrivet på den Wikisida du själv länkade till.

Talar man direkta haverier på en disk så är ZFS precis lika känsligt för HD haverier som raidlösningar. Kör du med en spare i Raid (dvs5) eller raidz-1 så är det tack och godnatt för båda med två disks haveri. Kör man raid 6 eller raidz-2 så klarar man två disk men det är kört när trean rasar.
har man då en online spare (som man har om man vet vad man gör) så kommer man återigen att utnyttja kontrollerns starkare skrivprestanda för att snabbare få upp en ny disk

Du kommer inte att lyckas om du inte försöker nej. Det är nu fjärde gången du får samma svar. Jag kommer inte att begå avtalsbrott för dig.
Och just ja. IBM använder inte Seagate, de kör med Hitachi iom att Hitachi köpte stora delar av sin hårddisktilverkning av just IBM

Skrivet av saddam:

Men hur förklarar du att även fibre channel diskar inte kan korrigera alla fel, än mindre detektera alla felen? Så hur kan ett FC system vara säkert, när diskarna är osäkra? Tror du verkligen att FC diskar inte kan få dåliga sektorer? Att de aldrig kraschar?

Samma svar igen. Det är kontrollern som detekterar felet och ser till att hantera det.
En felimplementerad kontroller sänker vilken lösning som helst. Finns ju ett antal artiklar som nämner billiga skräpkontrollrar som flaggar klart tillbaka till moderkortet utan att det är sant och då blir ju data korrupt direkt.
ett citat från wikisidan om zfs "...For example: FLUSH CACHE should only return, when the cache is flushed. But there are dirt cheap converter chips that sends the FLUSH CACHE to disk, but returns a successful FLUSH CACHE in the same moment back to the OS (of course without having NVRAM on disk or in a controller as this would allow to ignore CACHE FLUSH). Or interface converters reordering commands in really funny ways. By such reordering it may happen, that the uberblock is written to disk, before the rest of the structure has been written to disk..."

Skrivet av saddam:

Ok, eftersom ni jobbar med stora system så betyder det att all forskning från CERN, och NetApp, etc är ogiltig? Skämtar du? Menar du att ni tre vet mera? Silent corruption är just SILENT. Det märks inte, förutom att en dag så kanske du får problem och skyller på en bugg i mjukvaran när det egentligen var silent corruption.

Skrivet av saddam:

Nä, det är forskning men det är forskning bland all annan forskning. Trovärdig i dina ögon ja, i mina är den ett data bland andra. I övrigt är de länkar jag har läst av för dålig kvalitet för att det ska gå att dra några slutsatser av dem just därför att det inte framgår på vad eller hur det är gjort. Att Netapp anser att deras prylar är bättre än alla andras är inte så konstigt. Tror du något företag skulle släppa en rapport som säger att de är sämre?

Skrivet av saddam:

"du vet inget om saken, eftersom du inte driftar stora system, så glöm all forskning, jag har rätt".

Var har jag sagt det? Ett exakt citat tack. Faktum är att vi är fyra personer som säger samma sak medans du har en enda snart fem år gammal källa du spelar upp som en trasig skiva

Grunden var att jag frågade gång efter gång om du hadde några som helst drifterfarenheter vilket du definitvt inte verkar ha. Det är väldigt synd då du skulle förstå att man återläser inte filer från backup utan begäran (och kan inte användaren öppna sin rar-packade budget pga bit-röta så kommer begäran). Alla automatlarm loggas också och även där skulle då trasiga filer från SCCM synas direkt. System som krachar är kritiska larm (om det inte är en nod i ett kluster) och därmed larmas människa direkt. Dessutom tar man ut statistik och följer upp löpande. Allt detta finns att läsa massor om i tex ITIL eller MOF ramverken.

Därmed är det också en praktisk omöjlighet att vi skulle ha problem i den skala du hävdar utan att vi skulle se en trave incidenter och requests i systemet. Då dessa fortfarande inte finns så blir slutsatsen fortfarande den samma.

Yrkesmässigt går det alldelles utmärkt, tackar som frågar. Det är just ovanstående typer av siffror man använder för att sälja in sig hos kunder. naturligtvis även i det fallet med avtalde nivåer på tillgänglighet/prestanda och kostnader

Edit: redigerade ett par olyckliga formuleringar och la till ett par förtydliganden

Visa signatur

Arbetsdator: HFX Mini. Ryzen 3600, GTX1650. Skärmar: Dell 2415

Permalänk

Jag fick tag i en ganska bra genomgång över zfs: http://blogs.oracle.com/video/entry/zfs_the_last_word_in här går man igenom väldigt många delar av zfs.

Permalänk
Skrivet av saddam:

Här har vi Fibre Channel diskar med såna 520 bytes block du pratar om.
http://www.seagate.com/staticfiles/support/disc/manuals/enter...
Fibre Channel Cheetah 10K.7 FC diskar har 520 byte stora sektorer och rapporterar felfrekvens i kapitel 5.0, där pratas om felfrekvenser för "Recovered Data", "Unrecovered Data" och även "Miscorrected data" - dvs data som reparerades men blev helt fel.

http://www.seagate.com/staticfiles/support/disc/manuals/enter...
Kapitel 5.1.2 säger att denna 520 byte formaterade SAS enterprise disk, råkar ut för fel som inte går att reparera.

Seagate Barracuda ES.2 SAS diskar med 520 Byte stora sectorer inkl checksummor, rapporterar samma felfrekvens, dvs 1 sector blir fel per 10^15.

Så vi ser här några exempel på SAS Enterprise diskar och Fibre Channel Diskar som alla har problem med fel som de inte kan reparera, eller reparerar helt fel. Det som INTE står i Spec sheeten dock, är alla fel som inte disken klarar av att upptäcka. Det blir alltså fel, som disken aldrig märker. Dessa kallas Silent Corruption. Och alla dessa diskar kör 520 Byte. Det rapporteras även om interface errors. Inte nog med att disken blir fel, även interfacet kan orsaka fel.

Så vad är din slutsats när Fibre Channel / SAS diskar använder 520 Byte stora sektorer, varav 8 bytes är checksummor? Att det räcker med 8 byte checksummor för att allt ska vara säkert?

Men snälla du saddam, nu har du missförstått allt jag sagt (och om jag skall vara ärlig så har jag inte läst alla dina milslånga inlägg med länkar till både här där)

Men för att svara på dina frågor i din inledning.
1. Jag har ALDRIG påstått att 520 byte formatering eliminerar bit filps.
2. Jag har aldrig påstått att HW-raid är svaret på alla behov.

Jag tar det en gång till, med hjälp av 520 bytes formatering OCH med RAID-paritet så kan vi garanterat upptäcka en silent corruption på en disk i ett raid-set.
Precis med hjälp av samma metodik som ZFS använder. För du tror väl inte att silent corruption på diskar elimineras med hjälp av ZFS, nej precis vad jag trodde. ZFS har en metodik och teknik att upptäcka silent corruptions och på data, precis som vi har på vår HW-raid.

Urspungsfrågan är om Hårdvaruraid är på väg att dö ut. Du har uppenbart bestämt dig för vad du tror, min bestämda uppfattning är att så inte är fallet. Detta pågrund av att det finns idag så mycket vinst med att köra HW-raid i vissa tillämningar och vid vissa behov att hw-raid kommer leva kvar i överskådlig framtid och inga soft-raid eller filsystem jag sett löser branschens samtliga behov (men som jag skrev tidigare så siar även jag, tillsammans med HP och andra tillverkare att behovet av hw-raid kommer att minska)

Helt ärligt så skiter jag fullständigt vad du tror eftersom din åsikt inte kommer att förändra varken behoven som finns eller hur verkligheten ser ut.
Jag "signar" ut från denna tråd, men några tips till dig i framtiden (du väljer själv om du lyssnar eller inte):
1. Debattera gärna med en lite mer ödmjuk inställning, det finns nämligen en chans att man kan lära sig något nytt då.
2. Ta gärna debatten i mindre inlägg, det är väldigt jobbigt att läsa en halv uppsatts för att försöka hitta det väsentliga.
3. När du länkar till andra sajter (vilket är bra att du gör), men klipp gärna in citat-text på den information du vill förmedla så går det snabbare att skumma igenom dina inlägg..

Thats all for me...
tack och adjö!

Visa signatur

________________________________________________________________
twitter @ BarreGargamel
blogg @ Gargamel.NU

Permalänk
Medlem

Att det inte är någon som nämnt att hårdvaruraid gör paritetsberäkningar i HÅRDVARA....

Visa signatur
Permalänk
Medlem
Skrivet av bamsefar:

Att det inte är någon som nämnt att hårdvaruraid gör paritetsberäkningar i HÅRDVARA....

Och mjukvara gör det på papper?

Permalänk
Avstängd
Skrivet av mats42:

Nej det är just det du inte har. Du har inte visat med Vilken HW controller det inträffar och i vilken Config. Cern rapporten är snart fem år gammal och naturligtvis har utveckligen gått framåt sen dess.

Ärligt talat så förstår jag inte varför det är viktigt att veta vilken HW controller? Vi pratar om CERN, där världens skarpaste och mest högutbildade hjärnor arbetar. Typ. Jag tror inte de väljer skitsaker, de har en rejäl budget. Jag vet inte hur många miljarder dollar deras LHC kostar, och de avlönar tusentals partikelfysiker och massa datavetenskapsmän också. Eliten. Det är ungefär som att säga "jag vägrar tro på att fotbollskor pajar, du bara pratar om FC Barcelona, och de kanske är amatörer. Vilka skor använde de?". Spelar man i Barcelona så är man i absoluta världseliten och ingen amatör. Har Barcelona problem med skor så kan du vara säker på att de gjort allt möjligt innan. Tror du seriöst att du skulle lyckas där inte CERN lyckats? Och på fem år så hinner inte så mycket hända om vi pratar datakorruption. Ingen är ju intresserad eller har startat några projekt kring det. Bara några få aktörer som t.ex. Oracle/Sun som uppmärksammar det. De andra bryr sig uppenbarligen inte.

Citat:

Iom att 3Ware är lösa prylar så kan man ju då anta (saknar återigen tillräckligt data) att de har byggt burkarna själva av lösa komponenter istället för att köpa färdiga system. Är det så blir det hela än mer haltande tyvärr

Om du menar att CERN är ett gäng amatörer så tror jag du gör bäst i att tänka om. De tillhör absoluta eliten när det gäller kunskap och hjärnkapacitet. Förresten, vet du ens vad CERN är? Du kanske tror att det är en samling pensionärer i en liten stuga?

Citat:

Barf sidan har ett par valida poänger om raid standarden som sådann men det är just den typen av brister kontrollrarna tar hand om. Bland annat med raid-6 och med checksummor samt Online spares. Intresant nog pekar den även ut EMC som ytterligare en leverantör som har checksummor nere på disknivån. Deras stora frustration är mot att folk sätter upp raid-5 för databasservrar. Det håller jag fullständigt med dem om. Precis som de skriver är 0+1 en bättre lösning där och iom att en raidkontroller hanterar det hela så får man ytterligare prestandaboost över vad bara raidmodellen kan ge

Wikisidan om raid påpekar själv att det mesta hanteras av HW kontrollers. Man ser ju batteriförlust som en stor risk men med moderna batterier och övervakning så är inte det ett reellt problem det heller. En modern kontroller klarar något/några dygn utan att tappa data och på den tiden hinner man lätt få dit lite ström. Den stora risken man pekar ut är Dålig personal/bristande rutiner och det har jag ju påpekat sen tidigare

Så vad försöker du säga? Att hw-raid är visst säkert?

Citat:

Du fick länken till hur HDS gör från gargamel och från mig fick du tipset om SCCM som använder checksummor på sina paket. Som du själv har påpekat så räcker det ju egentligen med rar eller liknande men problem med rarfiler skulle jag bara se genom restorebeställningar, från SCCM så skulle det leda till automatlarm, dessutom vet jag att att jag har ett antal hundra TB data i SCCM systemets servrar.

Återigen, kan du klistra in länkarna?

Citat:

Jag kan inte hitta någon som handlar om HW kontrollers med batteribackup från varken HP, Sun eller IBM (reservation för att jag har bommat någon länk). Ska man dra en slutsats så krävs ju korrekt indata och inte genralliseringar. De säger mest raid utan att säga något mer om config vilket då kan vara mjukvara med writecache eller hw utan raidchip (tex inte moderkortsvarianter eller dylikt). Det säger inte heller något om vad man har använt för diskar

Så vad är din slutsats? Eftersom du inte vet vad CERN, NetApp etc hade för hårdvara, så har de fel? De fick aldrig datakorruption? De bara inbillade sig?

Citat:

Nä det är just det man inte kan. Inte utan information om vad det är för system man gör det på så kan man inte säga något om sannolikhet eller frekvens. Man kan generalisera å det grövsta men det är inte seriöst. Blir ju lite som att dra likhetstecken mellan SJ och de japanska järnvägarna?

Ok så vad drar du för slutsats av att CERN gjorde en stor studie på deras många hw-raid rack och hittade massa fel. Vad är din slutsats? Låt höra. Att det är något unikt för CERN? Att ingen annan drabbas av det? Att CERN är amatörer?

Citat:

Det får du gärna lägga fram bevis på. För det har nog precis hela driftsbranchen missat. Tydligen ICA också då de kör sitt banksystem på windows http://www.idg.se/2.1085/1.8922. Det är helt enkelt inte sant i en serverhall.

Du har missat att Windows blåskärmar hela tiden och duger inte för de mest krävande saker? Jobbar du verkligen i driftsbranschen?

Här ser vi att en aktiebörs som körs på Windows har massa problem. Londonbörsen LSE lade ut en halv miljard på detta Windowssystem, i samarbete med Microsoft. MS blev jätteglada och gjorde massa reklam om att Windows duger för aktiebörser. Redan efter något år och massa driftsproblem så dumpade LSE Windowssystemet och lade ut ytterligare 250 milj på att köpa in ett företag som gör aktiesystem som körs på Linux + Solaris. Chefen som tog beslutet att köra på Windows fick sparken. Om man sparkar ut ett system efter något år, som man lagt ut en halv miljard på, och dessutom lägger ut ytterligare en kvarts miljard på att köpa in Linux system, vad säger det dig? Totalt misslyckande? Success?
http://blogs.computerworld.com/london_stock_exchange_to_aband...

Citat:

Sen är du ännu mer ute och cyklar. Förmågan att stänga av dåliga minneschip är en ren HW funktion och har inget med OS att göra.
Och menade du att det enbart var Suns HW som kan det så är det lika fel del. IBM kallar det chipkill och HP Lock-step
Hårdvarans funktioner har inte den här gången heller med mjukvarans funktioner utan både Linux och Solaris X86 sitter i samma båt som Windows.

Jag är tydligen lite mer påläst än du, även om jag inte idiotförklarar dig såsom du gör med andra. Solaris har den funken i OS. IBM har det i hårdvara, så de kan köra Linux eller AIX på servern, men Solaris har det i mjukvara, vilket är flexiblare. T.ex. kan inte IBM enkelt uppgradera sin felkorrigering eller göra stora förändringar, men i Solaris är det bara fråga om en patch. Samma med ZFS vs hw-raid.

SUNs kernelhackers kom på att man kan ta felmsg från loggar och stoppa in i ett program, istället för att en människa analyserar felmsg. På så sätt kan programmet agera utifrån loggar och faktiskt ge vettiga förklaringar och rekommendationer om vad som gick fel istället för "det vart ECC fel i minnesticka 4". I praktiska tester ökar upptiden med 30%.

http://blogs.oracle.com/constantin/entry/cec_2005_day2_andy_s...
"The presenter actually injected correctable and uncorrectable ECC errors into a CPU's ecache and we watched Solaris graciously dealing with those errors by generating comprehensive console messages, automagically offlining the "faulty" CPU and giving recommendations to the sysadmin on what to do next. Even if the error was so fundamental that it caused the kernel to panic, the fault management architecture would do it's best to record all telemetry data and then offline the CPU as soon as possible after reboot."

Från länken nedanför:
"Our self-healing system should not be saying, “I killed process-ID 123 because of a fatal ECC error at physical address 0x12345678.” Administrators need to know what happened in terms they can understand: what service was affected and how does that affect other services; what was the impact (performance, functionality); what did the system do for us (restarting something, failing over, using a redundancy); and what, if any, human intervention is needed (Do we need to replace the DIMM yet? How soon? Which one?).
....
On a modern system such as Solaris, however, you can also detect and attempt to recover from an exception where a process accessed memory with an underlying double-bit ECC (error correcting code) error, which can be detected but not corrected by the typical ECC code protecting your DRAM. Similar scenarios can occur with errors in the processor core itself and its L1 and L2 caches, with varying degrees of recovery possible depending on the capabilities of the underlying hardware."

Citat:

Sen är du ännu mer snett ute. Om data korrumperas i kernel eller drives så är det inte en fråga om risk för krach. Ett system som inte kan garantera data där ska omedelbart stoppa sig självt för att undvika att man ställer till något värre. Så fungerar också samtliga nämnda OS.

Förutom det nämnda Solaris då. Det är bättre att ett OS reparerar sig självt, eller isolerar den felaktiga komponten än att krascha, eller ger felmsg så man hinner ta ned allt snyggt.

Du har ju Windowstänk. Det finns andra som säger samma sak, typ: "om det blir fel så är det bättre att datorn kraschar". Jag anser att self healing är bättre. Men self healing är inte lätt att implementera eller att göra, det står mer om problemen här:
http://queue.acm.org/detail.cfm?id=1039537
"One approach is simply to make an individual system the unit of recovery; if anything fails, either restart the whole thing or fail-over to another system providing redundancy. Unfortunately, with the increasing physical resources available to each system, this approach is inherently wasteful: Why restart a whole system if you can disable a particular processor core, restart an individual application, or refrain from using a bit of your spacious memory or a particular I/O path until a repair is truly needed? Fine-grained recovery provides more effective use of computing resources and dollars for system administrators and reduces downtime for end users."

Citat:

Det var återigen ditt påstående om att ZFS alltid skriver på nya platser. Jag påpekade då att det inte går för att man rätt snabbt fyller diskarna och därmed har du inget annat val än att börja skriva över datat i varje fall. En HW controller skriver ju över datat direkt och ser sen till att det stämmer med det kontrollern har i minnet. När den är nöjd frigörs minnet.

ZFS skriver över gammalt data, men skjuter på det så länge som möjligt. Det finns massor av fördelar med detta COW. Bl.a. kan du backa i tiden om allting skiter sig. En annan fördel är att om användaren jobbar på 10GB rå filmdata och gör en liten ändring så kommer hw-raidet spara ned hela filen igen. I ZFS sparas endast ändringarna. Det är alltså en form av deduplication. Visst finns vanlig deduplication i ZFS, men den funken suger och är i betaversion, man bör inte använda den.

En HW controller kommer inte se till att det stämmer med det kontrollern har i minnet - de har inga checksummor, det görs ingen sån kontroll.

Citat:

BLock I/O handlar förenklat om att läsa/skriva råa sektorer direkt från disk. Man kan blanda in ISCSI och SAN också men då vi skulle hålla ned skalan så skippar vi det. Det är ett mycket vanligt scenario för Virtualiseringssystem. Writeprestanda är även här mycket viktiga.
Det funkar med en HW controller då den som tidigare påpekat inte bryr sig om filsystem alls.

Japp, och det är då det kan bli fel. Det är skilda lager så varje lager bryr sig bara om sin del, men det kan bli fel när man byter lager. ZFS har kännedom om rubbet, från data i RAM ända ned till disken - det finns inget annat som styr eller blandar sig i. Om man trots allt blandar sig i ZFS arbete, t.ex. har hw-raid så kommer ZFS detektera korrupta data men kan ej reparera det - det är därför man inte ska använda hw-raid när man kör ZFS. För då har ZFS inte total kontroll över allting, andra börjar blanda sig i och de kanske inte gör sitt jobb rätt.

Citat:

det var ur
"Ok, så det var typ 10-20% bättre prestanda med hw-raid. Det låter inte så farligt i mina öron. Men folk har ju andra krav än mig och de kanske tycker det är för dålig prestanda." Det är ju lite skillnad därifrån upp till 10 ggr som du fick i länken tidigare.

Sen är det du som påstår att ZFS skalar och vi som påpekar de problem den har med att skala just bland annat pga att den saknar en riktig writecache

Det var ett himla tjat om att ZFS inte har prestanda, eller inte skalar. Jag säger ju att ZFS skalar långt mycket bättre än ett hw-raid kort. Här är en artikel där man ställer Nexenta (OpenSolaris med ZFS på en "vanlig" PC) mot NetApp och EMC. Både NetApp och EMC gör dyra high end enterprise storage servrar. Det visar sig att ZFS hänger med bra de dyra high end lösningarna:
http://www.theregister.co.uk/2011/09/20/nexenta_vmworld_2011/
Tror du verkligen att ensamt hw-raid kort skalar bättre en Nexenta server? Det är ju bara stoppa i mer och mer hårdvara i en ZFS server, så hw-raidet inte hänger med. Jag fattar inte hur folk kan påstå att ZFS inte skalar? Och samtidigt påstå att ett hw-raid kort inte har skalningsproblem.

För att vara rättvis vill jag posta denna artikel, där svarar EMCs VD på artikeln ovan och han har massa kritik som han anser att artikeln är missvisande och orättvis. Poängen är att ZFS spelar i samma liga, det gör inte ett hw-raid kort. Ett hw-raid kort är ju bara en liten del, en liten komponent, hur kan ett sånt skala? Det är ungefär som att säga "min DRAM sticka skalar uppåt"?

Även EMC och NetApp kör vanlig hårdvara som de sätter sitt märke på, enligt VDn på EMC. Skillnaden är bara att de har en ofantlig prislapp, medan ZFS kör allt gratis - men de kör nästan samma hårdvara. Enda skillnaden är mjukvaran.
http://www.theregister.co.uk/2011/09/22/vmworld_hol_sakac/
"But, the fact that we use all "off the shelf" component parts mean that all three of us (EMC, NetApp, Nexenta – heck everyone) are driven by the same market forces (both on the cost side and customer budget side)

Citat:

Korrigera. Nej - Detektera ja. Och när man har detekterat det så ber man om resend på det korekta datat tills man får det. Inte särskillt komplicerat alls. Som sagt, finns i ethernetstandarden

Återigen så förstår du inte nej.
Vad det har med saken att göra är att man inte kan få ett korrupt paket över ett ethernet segment utan att detektera det. Om man sen stoppar in korrupt data i paketet så kommer det att komma fram lika korrupt men datat kan inte förändras på OSI layer 2 eller lägre utan att checksumman spricker.

Ok det verkar som att du menar att den datakorruption som ZFS detekterade inte kunde hända? Eller vad försöker du säga?

Citat:

Du har fortfarande bara ett moderkort och I/O bakplan och det skalar inget mer oavsett hur många CPU du stoppar dit. Ej heller hur mycket eller hur många "dumma" kontrollers du stoppar dit. Faktum är att det tom blir värre. Mer prylar på plankan leder till att mer I/O förbrukas bara för att hålla koll på det som sitter i kortplatserna. Mängden minne kvittar också då du fortfarande inte kan ha det som effektiv writecache då det sitter på fel plats om I/O bussen.

Och återigen försöker du jämföra klockfrekvenser och liknande vilket fortfarande är lika fel. Den lille har Hw stöd så den gör så fruktansvärt mycket mer per klockcykel. Sen har du fortfarande samma problem med I/O på moderkortet hur mycket minne, CPU och disk du stoppar dit. Om du då använder 100 I/O anrop för att skriva data till disk och jag använder ett så har jag då 99 kvar att vara snabbare än dig på.

I verkligheten så kommer det att bero på I/O mönstret. En HW kontroller som hanterar tex 30 disk kan mycket väl vara snabbare och betydligt billigare i både inköp och drift. Med de siffror vi har sen tidigare om writecachens effekt så kan vi då se att runt 10-12 diskar med cache är snabbare än 100 utan. Med 30 diskar plus cache så finns det därmed en god grund för slutsatsen att den skriver betydligt snabbare snabbare.

Sen är prestanda ett svårt begrepp. För mig räknas även strömförbrukning, kyla och utrymmesförbrukning in i prestanda

Om nu ZFS lider av writecache som du hela tiden tjatar om, hur kan då en ZFS server tävla med NetApp och EMC servrar? Menar du att ett ensamt hw-raid kort kan tävla med såna servrar och skalar bra, medan ZFS inte skalar och därför inte kan tävla med såna servrar?

Citat:

Om du nu har den utbildning du påstår att du har så borde du veta att det en tillverkare/Leverantör lovar sin kund i försäljningsavtal är bindande. Med andra ord kontraktsbrott att inte hålla det man lovar och det kopplas alltid till viten. Skulle en leverantör försöka göra något sådant så skulle det vara slutet för det företaget snabbare än kvikt. Du kan ju bara fundera på vilka juridiska processer det skulle bli i USA.

Men då du trots det tvärsäkert kan säga att IBM:s marknadsföring är falsk så ser jag nu fram emot dina bevis. Jag kan även vidarebefodra dem till IBM om du vill.

IBM är kända för sin falska marknadsföring och fula metoder. Visste du inte det? För längesen var IBM det stora stygga företaget, men sen tog MS över rollen som Evil. Men IBM har aldrig upphört med sina fula metoder. De är väldigt aggressiva, ljuger och fular sig och är värre än MS. MS har börjat skärpa sig, men IBM döms fortfarande för fula metoder. Enligt wikipedia så var IBM det första företaget som började med FUD i systematisk skala. Känner du inte till det om IBM? IBM är ju riktigt Evil, och har alltid varit det
http://en.wikipedia.org/wiki/Fear,_uncertainty_and_doubt

Angående falsk marknadsföring från IBM, det finns många exempel. T.ex. angående de supersnabba IBM Mainframes som kostar tokmycket. IBM släppte världens snabbaste cpu förra året, en z196 Mainframe cpu. Den kör på 5.26GHz och har nästan en halv GB i cpu cache. Här pratar vi inte 12 MB L2 cache som en snabb x86 cpu har nej, vi pratar 300MB! Seriöst, 300MB cache.
http://www-03.ibm.com/press/us/en/pressrelease/21580.wss
En sån cpu borde vara supersnabb eller hur? Vad säger du, om jag påstår att den är betydligt långsammare än en highend x86 cpu? Att den i själva verket suger när vi pratar prestanda. Om det nu vore sant, vore det inte falskt av IBM isåfall att påstå att deras största Mainframe virtualiserar 1500 x86 servrar? Hur kan en Mainframe virtualisera 1500st x86 servrar när en Mainframe cpu är långsammare än en någorlunda snabb x86? Faktum är att man kan EMULERA en IBM Mainframe på en laptop! Du använder "TurboHercules" eller laddar ned "Hercules". Faktum är att IBM är livrädda för TurboHercules, och har hotat (stämt?) det företaget eftersom man nu kan köra Mainframe på en x86. TurboHercules använde ett av de 511 patent som IBM gav till open source, så alla open source folk blev glada. Men IBM bara snackade, det var bara spel för kulisserna.
http://arstechnica.com/open-source/news/2010/04/ibm-breaks-os...
"IBM is threatening to pursue legal action against TurboHercules, a company that sells services relating to the open source Hercules project, an emulator that allows conventional computers with mainstream operating systems to run software that is designed for IBM System Z mainframe hardware."

Om nu IBM mainframes är supersnabba, varför är IBM så livrädda för Turbohercules? En emulerad Mainframe borde ju inte ha en chans mot en riktig supersnabb Mainframe, med 24 st "Världens snabbaste cpu"? Faktum är att under mjukvaruemulation så ger en 8-socket x86 server med den gamla Nehalem-EX cpun hela 3200 MIPS.
http://en.wikipedia.org/wiki/Hercules_%28emulator%29#Performa...
Den största snabbaste maximalt bestyckade z196 Mainframen ger 50.000 MIPS totalt. Den är dyrast. Den gamla sketna Unix servern P595 som användes för att tävla i TPC-C kostade 35 miljoner USD, listpris. Dvs över en kvarts miljard kr. Men Unix servrarna är inte alls lika dyra som IBM Mainframes. Man kan ju spekulera i hur mycket en max bestyckad z196 kostar.

Om du kör mjukvaruemulering så blir allt 5-10x långsammare. Så en 8-socket x86 server som ger 3.200 MIPS, borde alltså ge 5-10 ggr mer, dvs 16.000-32.000 MIPS. Så om du tar två såna x86 servrar med 16 st gamla Nehalem-EX cpuer så når du 32.000 - 64.000 MIPS. Lika mycket som en max bestyckad z196 IBM Mainframe med 24st "världens snabbaste cpuer". Så... hur snabb är nu världens snabbaste cpu? Du behöver 16st gamla Nehalem-EX cpuer för att matcha 24st z196 cpuer. Det ser ut som att z196 inte är så snabb som IBM försöker påstå?

Och, hur kan IBM påstå att en Mainframe kan virtualisera många hundra x86 servrar? Jo, det visar sig att alla x86 servrarna IDLAR och Mainframen kör på 100% load! Vad händer om x86 servrarna börjar göra lite arbete? Ja, då hinner inte de långsamma 5.26GHz cpuerna med.

Vore det korrekt om jag sade: min Sandy Bridge 2600K kan ersätta 5st IBM Mainframes. (Jag bootar upp dem alla, och låter dem idla). Vore detta falsk marknadsföring, eller korrekt?

Vill du ha fler exempel på IBMs falska marknadsföring? Jag har många fler, med länkar. Kort sagt, lite inte på IBM. De ljuger som en häst travar.

Citat:

Sen vem har förnekat att en disk får fel? Naturligtvis får de fel. De får de oavsett vad man lägger ovanpå och det är därför man ser till att detektera dem och antingen koppla bort den sektorn/spåret/plattan eller så failar man hela disken. Det är raidkontrollerns jobb att hantera den biten. Det är också därför man har hot-plug, on-line spares och liknande hanteringar för att minska risken när diskar rasar. Gargamel påpekade ju också att man kan sätta en checksumma på sektorn (med länk). Det räcker för att detektera ev fel på sektorn. Iom att man har raid så bygger man bara upp sektorn igen (fast på annan fysisk plats på disken för att gardera sig mot att det är taskigt media på disken). Får man för många dåliga sektorer så flaggas disken som dålig. Finns tom beskrivet på den Wikisida du själv länkade till.

Återigen, ett hw-raid gör parityberäkningar men har inga checksummor. De kontrollerar inte data korruption. Om du påstår annat, så får du gärna länka till någon artikel där de pratar om checksummor i hw-raid. Men vet du vad? Det finns inga såna artiklar, av det enkla skälet att hw-raid inte har checksummor.

Citat:

Talar man direkta haverier på en disk så är ZFS precis lika känsligt för HD haverier som raidlösningar. Kör du med en spare i Raid (dvs5) eller raidz-1 så är det tack och godnatt för båda med två disks haveri. Kör man raid 6 eller raidz-2 så klarar man två disk men det är kört när trean rasar.
har man då en online spare (som man har om man vet vad man gör) så kommer man återigen att utnyttja kontrollerns starkare skrivprestanda för att snabbare få upp en ny disk

Återigen, ZFS är inte lika känsligt för diskhaverier som raidlösningar. Om nu data verkligen är kritiskt viktigt, så kör du raidz3 - dvs även trean kan rasa. Och ovanpå det så har du även hot spares i ZFS. Så ZFS ger bättre säkerhet, ja. Här jämförs raid-6, raid-50, och även raidz3. Vem tror du är säkrast?
http://www.servethehome.com/?s=raidz3&x=0&y=0

Citat:

Du kommer inte att lyckas om du inte försöker nej. Det är nu fjärde gången du får samma svar. Jag kommer inte att begå avtalsbrott för dig.
Och just ja. IBM använder inte Seagate, de kör med Hitachi iom att Hitachi köpte stora delar av sin hårddisktilverkning av just IBM

Och tror du inte hitachi diskar får felaktiga sektorer ibland?

Så, med andra ord kommer du inte posta länkar som visar att hårdvaruraid skyddar mot datakorruption, är det så jag ska tolka ditt svar?

Citat:

Samma svar igen. Det är kontrollern som detekterar felet och ser till att hantera det.
En felimplementerad kontroller sänker vilken lösning som helst. Finns ju ett antal artiklar som nämner billiga skräpkontrollrar som flaggar klart tillbaka till moderkortet utan att det är sant och då blir ju data korrupt direkt.
ett citat från wikisidan om zfs "...For example: FLUSH CACHE should only return, when the cache is flushed. But there are dirt cheap converter chips that sends the FLUSH CACHE to disk, but returns a successful FLUSH CACHE in the same moment back to the OS (of course without having NVRAM on disk or in a controller as this would allow to ignore CACHE FLUSH). Or interface converters reordering commands in really funny ways. By such reordering it may happen, that the uberblock is written to disk, before the rest of the structure has been written to disk..."

Saken är det att det blir fel i hårdvara. Det blir buggar i firmware, kontrollers ballar ur, strömspikar, bitröta, etc - men hwraid har fortfarande inga checksummor så det märks inte. Men ZFS kommer detektera allt detta eftersom det är checksummor på i stort sett allting. Om hw-raidet är buggit eller disken knasig, så märks det inte. Men ZFS kommer märka det direkt.

Citat:

Var har jag sagt det? Ett exakt citat tack. Faktum är att vi är fyra personer som säger samma sak medans du har en enda snart fem år gammal källa du spelar upp som en trasig skiva

Jag har även postat andra källor. T.ex. en forskningsartikel som säger att när raid-6 hittar fel och ska korrigera, så "5% att raid-6 gissar rätt, och 95% chans att den förstör ännu mera data". Så raid-6 verkar inte heller säkert. Det var nån som sade nåt i stil med att det är bara amatörer som tror det finns checksummor på hw-raid. Har du hört talas om ghost writes? Disken skriver och tror allt gick bra, men av nån anledning så hamnade inte skrivningen på disken utan allt försvann i tomma luften. Detta fel detekterar inte hw-raid. Men det gör ZFS, sa en zfs utvecklare på Sun. Jag kommer inte ihåg förklaringen.

Citat:

Grunden var att jag frågade gång efter gång om du hadde några som helst drifterfarenheter vilket du definitvt inte verkar ha. Det är väldigt synd då du skulle förstå att man återläser inte filer från backup utan begäran (och kan inte användaren öppna sin rar-packade budget pga bit-röta så kommer begäran). Alla automatlarm loggas också och även där skulle då trasiga filer från SCCM synas direkt. System som krachar är kritiska larm (om det inte är en nod i ett kluster) och därmed larmas människa direkt. Dessutom tar man ut statistik och följer upp löpande. Allt detta finns att läsa massor om i tex ITIL eller MOF ramverken.

Därmed är det också en praktisk omöjlighet att vi skulle ha problem i den skala du hävdar utan att vi skulle se en trave incidenter och requests i systemet. Då dessa fortfarande inte finns så blir slutsatsen fortfarande den samma.

Yrkesmässigt går det alldelles utmärkt, tackar som frågar. Det är just ovanstående typer av siffror man använder för att sälja in sig hos kunder. naturligtvis även i det fallet med avtalde nivåer på tillgänglighet/prestanda och kostnader

Edit: redigerade ett par olyckliga formuleringar och la till ett par förtydliganden

Jag har förklarat att jag inte jobbar med drift, ja. Däremot visar jag massa forskning från trovärdiga källor. Du visar inga trovärdig länkar alls, istället ska jag tro dig på ditt ord. Har du postat EN enda länk som visar att hw-raid har checksummor mot bitröta? Nej. Däremot har jag visat länkar som visar att hw-raid kan orsaka datakorruption. Om du nu visar en länk som visar att "hw-raid är fullständigt säkert mot datakorruption" - så vad betyder det? Att alla forskare är amatörer, eller att din enda länk är från IBM?

Återigen, skälet att du inte postar en enda länk är att det inte finns såna. Om du endast kan finna en sån länk på IBMs site och bryta avtal om du postar det här - så betyder det att IBM ljuger. Men det är ju inget nytt, jag har många exempel på IBMs lögner. Vill du se? Be mig posta länkar och berätta om IBMs lögner, gör det, gör det!

Permalänk
Avstängd
Skrivet av BarreGargamel:

Men snälla du saddam, nu har du missförstått allt jag sagt (och om jag skall vara ärlig så har jag inte läst alla dina milslånga inlägg med länkar till både här där)

Men för att svara på dina frågor i din inledning.
1. Jag har ALDRIG påstått att 520 byte formatering eliminerar bit filps.
2. Jag har aldrig påstått att HW-raid är svaret på alla behov.

Jag tar det en gång till, med hjälp av 520 bytes formatering OCH med RAID-paritet så kan vi garanterat upptäcka en silent corruption på en disk i ett raid-set.

Nej det finns ingen garanti till det. Det kan finnas buggar i hw-raidet. Vad händer då? Då fångar du inte upp de felen. Det finns så mycket som kan gå fel, utanför hw-raidet. hw-raidet har ingen kontroll över hela kedjan. Skit in - skit ut. Sen är det så att det finns buggiga hw-raid kort, och designproblem i hw-raid. Så det finns inga som helst garantier. ZFS har kontroll över hela kedjan, från start till slut. (Förutom om det är korrupt minne, men det kan inte ZFS göra nåt åt)

Citat:

Precis med hjälp av samma metodik som ZFS använder. För du tror väl inte att silent corruption på diskar elimineras med hjälp av ZFS, nej precis vad jag trodde. ZFS har en metodik och teknik att upptäcka silent corruptions och på data, precis som vi har på vår HW-raid.

Silent corruption elimineras på diskar mha ZFS, jo. ZFs har en metodik som inte hw-raid använder. ZFS har checksums, det har inte hw-raid. Hw-raid använder parityberäkningar - men det är inte samma sak som checksummor. Det finns ett skäl att ZFS suger massa cpu kraft, och hw-raid inte gör det. hw-raid gör inga checksumme kontroller. Det finns massa forskning på detta, se mina länkar. Jag förstår inte hur du kan framhärda att hw-raid är fullständigt säkert, när det finns massa motexempel? Det FINNS forskning och experter som säger att hw-raid inte är säkert. Om du då tror att hw-raid plus FC diskar är säkert, så får du tro det, men du har fel. Om du inte har fel, så kan du posta länkar till forskare som håller med dig. Men si såna länkar finns inte, eftersom inga forskare eller specialister håller med dig.

Det var nån teknisk snubbe som sa nåt i stil med att "det är bara amatörer som tror det finns checksummor på hw-raid. Det är ju istället parity beräkningar!" - vilket inte är samma sak.

Permalänk
Avstängd

Som Aphex(?) skrev, enligt Ronnylov(?) eller Schrimp(?)
"A system on Earth, at sea level, with 4 GB of RAM has a 96% percent chance of having a bit error in three days without ECC RAM. With ECC RAM, that goes down to 1.67e-10 or about one chance in six billions."

Dvs, om en dator är på utan ECC ram, så blir det datakorruption. Men inget händer oftast. Kanske händer något om ett tag när datorn bara kraschar. MS krävde förrut att alla datorer måste ha ECC RAM, eftersom en stor del % av alla Windows krascher berodde på att folk körde utan ECC. Men MS drog tillbaka det kravet efter folks protester.

Så vi ser att data korruption inte nödvändigtvis orsakar omedelbara krascher. Det är ju inte så att alla datorer kraschar efter 3 dygn, för då har man ju data korruption enligt statstiken.

Permalänk
Medlem

Först hävdar saddam att det är jag som inte förstår sen kommer det "Nu förstår jag inte", "Jag förstår inte", "jag förstår inte frågan" osv. Sen visar han gång efter gång efter gång att han inte förstår skillnaden på Hårdvara /OS /applikation. Hans länk om Londonbörsen handlar om ett problem med applikationen och inte operativsystemet. Det talar tyvärr sitt tydliga språk om bristande kunskapsnivå.

Det finns fortfarande inte en enda länk som visar att en HW kontroller med batteribackup från någon större HW tillverkar har de problem saddam hävdar att de har. Det har påpekats gång efter gång. Nu säger han sig inte förstå varför det har någon betydlese heller.

Först klagas det på brist på länkar och sen kommer saddams påståenden om kracher, minneshantering och I/O. Återigen utan minsta bevisning.
Han förstår inte heller här skillnanden på HW och SW eller arkitektur.

Motsägelserna haglar. Först är det inte ZFS fel om man har dålig HW sen spelar det ingen roll om man köper en skräpkontroller i vad som troligen är hemmaskruvade system jämfört med en riktig server med rätt kyla, strömförsörjning osv. (3ware säljs bara som lös del så därmed ingen riktig server). Och nej Cerns forskare jobbar inte med it drift så hur smarta de är har inte med saken att göra. Inte heller vad saddam tror (återigen tror han något utan att veta) om deras IT-avdelning ( de lånade bland annat folk från VM-data på 90 talet).

Sen hävdar han att det är stora risker för buggar i HW. Naturligtvis utan ett enda litet bevis på att någon större raidtilverkar har haft problem med sina kort. Har man jobbat med utveckling så vet man att det är tvärtom, ju fler saker som ska göras samtidigt och ju mer kod man har laddat, ju större risk för bugg. En dedikerad HW har man ett litet lätttestat bios till som man dessutom kan uppgradera precis lika lätt som man kan lägga in en patch i mjukvara.

ZFS skalningsproblem har visats gång efter gång. Återigen saknas förtåelsen fullständigt för hur cache och I/O fungerar. Sen bevisar han själv skalningsproblemet genom jämföra äpplen och päron. Både hans och Cerns exempel visar att man måste köpa minst dubbel så dyr hårdvara pga just skalnings och prestandabristerna. Att stoppa i mer minne och mer CPU på ett moderkort minskar fortfarande inte belastingen på bussarna. Att avlasta bussarna med ett smart IO kort som en raidkontroller gör just det.

Det är även med siffror bevisat vad en writecache gör för skrivprestanda. Något man fortfarande inte kan få med ZFS och därmed är frågan om en liten kontroller kan vara snabare en en större server redan med ja bevisad.

Gargamel har visat länkar på att HDS har checksummor i sina system. Saddams egna länkar visar att EMC också har det. Dvs samma länkar som saddam ansåg vara fullt trovärdiga när det gällde problem i raid. Därmed kan vi slå fast att checksummorna finns

Fyra personer med drifterfarenheter har just erfarenheter som visar att problemet inte existerar eller är så litet att det är irrelevant. Då Saddams statistik visar att det inte är möjligt så finns det bara två alternativ, statistiken är fel (troligen inte) eller så är bra hårdvara skyddad vilket vi har påpekat gång efter gång. Vi har även visat på system som skulle se problemen om de hadde existerat. Ett ytterligare exempel här är MD5/sha1 checksummor på tex ISO images. Återigen så ser har man inte problemet.

Som avslutning så kommer ju orden om att allt som säger nått annat än det saddam anser är rätt bara är lögner. Iom att han där visar att han överhuvudtaget inte är villig att lyssna på någon annan än sig själv så kan man bara konstatera att Saddam har stora likheter med en tidigare Saddam i Irak. Det är bara han som har rätt och allt annat är lögner. En fem år gammal rapport och weblänkar som tom motbevisar hans egna ord utan att han själv förstår det är naturligtvis betydligt mer trovärdigt än verkliga erfarenheter. Lägg också märke till att han inte en enda gång har kunnat svara på varför system som har checksummor inte ser hans problem.

När han sen tar det sista steget med att ljuga och direkt förfalska mina ord så drar jag samma slutsats som gargamel och Weeblie. Det är inte värt att lägga tid på någon som uppenbarligen inte vill förstå eller lyssna. Därmed lämnar även jag Saddam åt sitt Jihad även om det mer liknar Don Quijote:s kamp mot väderkvarnarna. Vi vet alla vad det var som bestod.

Som avslutning vill jag dock återvända till grundfrågan om HW-kontrollers kommer att dö ut:

Nej Raidkontrollers kommer att fortsätta dominera på företagen och i datorhallarna.
Skälen är enkla.
1. ZFS klarar inte block-io vilket krävs för bra prestanda och funktion med virtualiseringslösningar som tex VMware
2. ZFS fixar inte kluster heller
3. Man kan/bör inte lägga ZFS på ett vanligt sanskåp då de inte ger direkt tillgång till diskarna. Därmed ryker skyddet och man får betala hela priset i form av overhead.
4. Windows stödet saknas.

Iom det krävs något annat och det är fortfarande HW raid då det inte är perfekt men mer än säkert nog och det löser behoven.
Edit: Fixade ett syftningsfel

Visa signatur

Arbetsdator: HFX Mini. Ryzen 3600, GTX1650. Skärmar: Dell 2415

Permalänk
Avstängd
Skrivet av mats42:

Först hävdar saddam att det är jag som inte förstår sen kommer det "Nu förstår jag inte", "Jag förstår inte", "jag förstår inte frågan" osv. Sen visar han gång efter gång efter gång att han inte förstår skillnaden på Hårdvara /OS /applikation. Hans länk om Londonbörsen handlar om ett problem med applikationen och inte operativsystemet. Det talar tyvärr sitt tydliga språk om bristande kunskapsnivå.

Kanske är det så att Londonbörsen hade bl.a. problem med låg latency i Windows? Windows har problem att ge låg latency. Därtill var det flera krascher som Londonbörsen råkade ut för, så alla banker blev tokarga. De kunde inte sälja eller köpa när de ville, eftersom hela Londonbörsen låg nere. Det hände flera ggr, och bankerna förlorade tokmycket pengar, och började köpa/sälja på andra börser. Eftersom Londonbörsen tar courtage från varje affär, en liten procent, så förlorar Londonbörsen pengar om man slutar handla där. Då var det faktiskt billigare att lägga ut ytterligare en kvarts miljard på att köpa in Linux + Solaris. Slänger man ut ett system som kostade en halv miljard efter något år, så betyder det att hela lösningen var misslyckad.

Om det nu var så att problemen låg i själva applikationen och inte i själva OSet, varför inte fixa de buggarna istället för att lägga ut massa pengar på ett helt nytt system? Har inte det nya systemet också buggar, kanske? Man hade ju testkört Windows systemet och utvecklat det under flera år, och folk kunde det. Det är mycket enklare att bara fixa problemen i själva applikationen än att börja om från början igen. Börjar man om från början, trots en stor investering i pengar och tid, så betyder det att hela lösningen var misslyckad. Det var alltså något fundamentalt fel. Och därtill får chefen sparken!

Sen har ju Windows ett mycket dåligt rykte när vi pratar stabilitet. Det finns ju faktisket ett skäl att ingen aktiebörs använder Windows. Windows försöket med Londonbörsen slutade i misslyckande. MS har nu raderat alla sina websidor om att "Windows är äntligen redo för Enterprise: Londonbörsen kör Windows!"

Citat:

Det finns fortfarande inte en enda länk som visar att en HW kontroller med batteribackup från någon större HW tillverkar har de problem saddam hävdar att de har. Det har påpekats gång efter gång. Nu säger han sig inte förstå varför det har någon betydlese heller.

Jag förstår ärligt talat inte vad det skulle bevisa om jag googlar upp länkar som säger t.ex. att "CERN kör Areca och märke XXX". Vad skulle du säga då? Skulle du säga:
-Jojo, men Areca och XXX är ju notoriskt opålitliga, CERN borde använt märke YYY istället!
Om du säger så, så bevisar det att forskarna fortfarande har rätt: "hw-raid är opålitliga". Du kanske vill ändra det till: "hw-raid av märket Areca och XXX är opålitliga". Men det visar fortfarande att när du kör hw-raid så kan du inte lita på dem.

Det är ungefär som:
-Bilar är farliga, man kan dö i dem
-Nej, man kan inte dö i dem.
-Jodå det kan man, det finns forskning från CERN som visar att folk har dött i bilkrockar
-Jasså, vilka märken var det då?
-Ja, det var Volvo och märke XXX
-Jasså, men Volvo och XXX är ju opålitliga! Dem kan man ju inte lita på, de borde köra Saab istället!
-Så du erkänner att bilar kan man inte lita på?
-Nej, man kan bara inte lita på Volvo och XXX, men man kan lita på Saab
-Men om man inte kan lita på Volvo och XXX, så kan man ju inte lita på alla bilar. Alltså kan man inte lita på bilar. Det är ju fel att säga "bilar är 100% säkra" - eftersom vi ser att Volvo och XXX dödat folk.
-Nej, du har fel. Man kan lita på Saab.
-Kan man lita på alla bilar?
-Nja... man kan lita på Saab.
-Alltså kan man inte lita på bilar.
-Nej nej du har fel. Man kan lita på alla bilar förutom Volvo och XXX
-Alltså kan man inte lita 100% på alla bilar, en del bilar är osäkra! Jag har rätt!
-Nej du har fel. Man kan lita på alla bilar, bara inte på märket Volvo och XXX.
-Så man kan inte lita på ALLA bilar? Bara på en del?
-Precis.
-Men då kan man ju inte lita 100% på bilar.
-Precis.
-Ja då har jag rätt, man kan inte lita på bilar.

Vad spelar det för roll om vi ser att CERN kör t.ex. Areca och LSI? Då betyder det att man kan inte lita på alla hw-raid kort. En del är osäkra. Mao, en del hw-raid är osäkra. Forskning visar att hw-raid kan korrupta data. Så enkelt är det. Det spelar väl ingen roll vilka märken som CERN undersökte? Om du nu påstår att märke YYY är säkert, så skulle nog CERN kunna göra samma tester med märke YYY och finna datakorruption även där. Tror du verkligen att hw-raid av märket YYY är säkert? De har ju inga checksummor! CERN har konstaterat att data korruption förekommer. Om du nu påstår att det inte alls finns datakorruption - så undrar jag hur du kan mena på allvar att CERN inbillade sig det?

Så oavsett vilket märke som CERN körde, så bevisar det att forskningen har rätt. Det spelar ingen roll om du säger "man kan lita på märke YYY" - det gör inte att du får rätt. Forskningen har rätt - man kan inte lita på hw-raid till 100%. Därför är det helt oviktigt vilket märke som CERN kör. Jag hoppas du nu förstår varför jag inte brytt mig om att googla upp vilka märken som är osäkra - vissa märken är osäkra, alltså är hw-raid osäkert.

Citat:

Först klagas det på brist på länkar och sen kommer saddams påståenden om kracher, minneshantering och I/O. Återigen utan minsta bevisning. Han förstår inte heller här skillnanden på HW och SW eller arkitektur.

Jag har i alla fall visat länkar, det har inte du. Jag har frågat... fem(?) ggr efter länkar som visar att hw-raid har checksummor, men du har inte postat en enda länk. Sen har jag viss förståelse för HW, SW och arkitektur. Men du verkar ha svårt att förstå forskningsartiklar, hur kan du annars avfärda all forskning rakt av?

Citat:

Motsägelserna haglar. Först är det inte ZFS fel om man har dålig HW sen spelar det ingen roll om man köper en skräpkontroller i vad som troligen är hemmaskruvade system jämfört med en riktig server med rätt kyla, strömförsörjning osv. (3ware säljs bara som lös del så därmed ingen riktig server). Och nej Cerns forskare jobbar inte med it drift så hur smarta de är har inte med saken att göra. Inte heller vad saddam tror (återigen tror han något utan att veta) om deras IT-avdelning ( de lånade bland annat folk från VM-data på 90 talet).

Jag ser inga motsägelser alls faktiskt. Jag tror du bara inbillar dig det.

CERN har många forskare, bl.a fysiker och även dataloger. Dataforskarna är intresserade av högprestandaberäkningar, storskalig arkitektur, lagra massiva datamängder och kunna snabbt gå igenom alla data, etc - det finns alltså massa datalogiskt intressanta frågor. Många av datalogerna håller även på att lagra datamängderna och intresserar sig för datakorruption - det var de som gjorde forskningen om hw-raid. Tror du vanliga IT driftskillar är intresserade av forskning? Nej, CERN har många forskare som är inblandade i lagringen av alla data. Faktum är att CERN har börjat lagra sina data på ZFS servrar nu av den enkla anledningen att hw-raid är inte säkert och kan korrupta data. Nu pratar vi om långtidslagringen av datat, tier 1 och 2. På sikt borde CERN gå över helt till ZFS för alla sina data, tycker jag. Men vi får se.

http://blogs.oracle.com/simons/entry/hpc_consortium_big_scien...
"Having conducted testing and analysis of ZFS, it is felt that the combination of ZFS and Solaris solves the critical data integrity issues that have been seen with other approaches [at CERN]. They feel the problem has been solved completely with the use of this technology. There is currently about one Petabyte of Thumper storage deployed across Tier1 and Tier2 sites. That number is expected to rise to approximately four Petabytes by the end of this summer."

Citat:

Sen hävdar han att det är stora risker för buggar i HW. Naturligtvis utan ett enda litet bevis på att någon större raidtilverkar har haft problem med sina kort. Har man jobbat med utveckling så vet man att det är tvärtom, ju fler saker som ska göras samtidigt och ju mer kod man har laddat, ju större risk för bugg. En dedikerad HW har man ett litet lätttestat bios till som man dessutom kan uppgradera precis lika lätt som man kan lägga in en patch i mjukvara.

Om du googlar lite så hittar du massa problem som folk haft med hw-raid, t.ex. Areca kort. Det är bara att googla lite. Jag behöver inte lägga in såna länkar, det kryllar av dem. Om du menar att det inte finns länkar där folk säger att du har problem med hw-raid så kan jag motbevisa det med 10sek googling. Om någon insisterar så kan jag lägga in massa länkar där folk haft problem med hw-raid, bara säg till.

Och hur stort är det BIOSet då? 12MB?

Citat:

ZFS skalningsproblem har visats gång efter gång. Återigen saknas förtåelsen fullständigt för hur cache och I/O fungerar. Sen bevisar han själv skalningsproblemet genom jämföra äpplen och päron. Både hans och Cerns exempel visar att man måste köpa minst dubbel så dyr hårdvara pga just skalnings och prestandabristerna. Att stoppa i mer minne och mer CPU på ett moderkort minskar fortfarande inte belastingen på bussarna. Att avlasta bussarna med ett smart IO kort som en raidkontroller gör just det.

Jag håller med om att ZFS suger mer cpu kraft än ett hw-raid kort. Det är inget snack om saken, det håller alla med om. Samtidigt tror jag inte att ZFS kan köras på ett hw-raid kort av den enkla anledningen att hw-raid cpuer är för klena. Visst gör de enkla XOR i hårdvara, men ZFS gör mycket mer än XOR. Ett hw-raid cpu klarar endast av typ, XOR och inget mer. Typ. Men ZFS gör massa beräkningar hela tiden, som hw-raid inte klarar av.

Jag hävdar fortfarande att ZFS kan ge dig den prestanda du efterfrågar. Det skalar utmärkt. Det bara att stoppa i mera cpuer, mera diskar, mer RAM och SSD som cache. Vill du ha 3GB/sek och 100.000 IOPS? Det går att få med ZFS. Kan du få vilken prestanda du vill med ett hw-raid kort? Nej, det tar stopp nånstans. Visst kan du stoppa i 256 diskar med SAS expanders, men vilken prestanda får du då? Ditt hwkort körs ju fortfarande i ett PCIe x 8 slot eller nåt sånt - som endast har typ 2GB/sek eller nåt sånt. Det går inte snabbare än PCIe-8X slot, det är omöjligt. Med ZFS kan du stoppa i flera JBOD kort i flera PCIe-8x slot, som varje har 2GB/sek - så du kan komma upp i vilken siffra du vill. Det är bara att stoppa i mer hårdvara. Det kan du inte göra med ett hw-raid kort.

Jag tycker det är mycket märkligt att påstå att hw-raid skalar. Om något skalar, så betyder det att det kan ge den prestanda du önskar, lösningen kan växa om du har större behov. Hw-raid tar stopp vid ett PCIe-8X (eller 16) slot. Det går inte snabbare än så. ZFS fortsätter förbi denna gräns eftersom du kan stoppa i flera kort som alla kör PCIe-8x, ZFS skalar alltså förbi ett enda hw-raid eftersom ZFS använder flera såna kort. Mycket märkligt påstående du kommer med. Du borde hålla med om att ett kort, har lägre prestanda än flera kort.

Citat:

Det är även med siffror bevisat vad en writecache gör för skrivprestanda. Något man fortfarande inte kan få med ZFS och därmed är frågan om en liten kontroller kan vara snabare en en större server redan med ja bevisad.

Ok, så du menar att Nexenta servern som tävlade mot NetApp och EMC inte kunde få hyfsad skrivprestanda?

Jag är inte påläst om ZFS och skrivcache, därför har jag inte så mycket att posta i just detta. Men jag själv är övertygad om att det går att gå runt det också, eftersom ZFS servrar används ju i Enterprise och även i tunga databasinstallationer. Det vore ju befängt av SUN att konstruera en Enterprise lösning som inte kan skriva snabbt, då går det ju inte att använda i Enterprise. Då är det bara att skrota ZFS. ZFS designades från grunden att kunna hantera snabba skrivningar - är jag övertygad om. Jag kan säkert googla fram info om detta, men har inte orkat. Som sagt, jag är inte påläst om skrivcache och ZFS.

Citat:

Gargamel har visat länkar på att HDS har checksummor i sina system. Saddams egna länkar visar att EMC också har det. Dvs samma länkar som saddam ansåg vara fullt trovärdiga när det gällde problem i raid. Därmed kan vi slå fast att checksummorna finns

Jag motsäger inte att vissa tokdyra speciallösningar såsom NetApp har checksummor, de kör ju egen proprietär mjukvara och har bytt ut rubbet mot sin egen mjukvara som antagligen har checksummor. Men hur många milj kostar NetApp? Hur mycket kostar ZFS? Jag kan bygga en Nexenta server hemma.

Jag motsäger att att vanliga hw-raid kort har checksummor. Det har du inte visat länkar om.

Citat:

Fyra personer med drifterfarenheter har just erfarenheter som visar att problemet inte existerar eller är så litet att det är irrelevant. Då Saddams statistik visar att det inte är möjligt så finns det bara två alternativ, statistiken är fel (troligen inte) eller så är bra hårdvara skyddad vilket vi har påpekat gång efter gång. Vi har även visat på system som skulle se problemen om de hadde existerat. Ett ytterligare exempel här är MD5/sha1 checksummor på tex ISO images. Återigen så ser har man inte problemet.

Jag håller med om att problemet är ovanligt. Det är sant. Från ZFS wikipedia artikeln:
http://en.wikipedia.org/wiki/ZFS#Data_Integrity
"These [data corruption] problems have not been a serious concern while storage devices remained relatively small and slow. Hence, a user very rarely faced silent corruption, so it was not deemed to be a problem that required a solution. With the advent of larger drives and very fast RAID setups, a user is capable of transferring 1016 bits in a sufficiently short time"

Så en vanlig hemanvändare märker inte det så ofta, han har så små datamängder. Men samtidigt, eftersom en hemanvändare använder billiga grejor, så kan SATA sladdar vara lösa, dålig power supply, buggar i disk firmware, etc - så han råkar på det ändå. T.ex. kör jag Vertex 3 på min Solaris server som är ökänt för att ha buggig firmware, men jag bryr mig inte om det. Därför att jag kör ZFS på min Vertex 3. Om ZFS börjar larma, så reagerar jag. Men ZFS har inte larmat än, ZFS har inte detekterat data korruption på min Vertex 3.

Ju större datamängder man kör, desto mer ökar risken för datakorruption. Kör man raid så har man antagligen mycket data, så då ökar risken än mer. Har man lika mycket data som CERN, så är det mycket stor riskt att man har datakorruption nånstans.

Jag håller med om att risken är liten, men ju mer data desto mer växer risken. Och snart är 4TB diskarna här. Och snart kommer vi ha 6TB diskar eller 10TB diskar. Snart har vi 20TB data hemma. Då bör man köra ett system med checksummor. Om man driftar företag med viktiga data så bör man vara extra uppmärksam. Om något kraschar, så är det ditt fel, när det i själva verket kanske beror på data korruption. Därför kör man ECC RAM på viktiga servrar. Man borde köra ECC på diskarna också: dvs ZFS.

Citat:

Som avslutning så kommer ju orden om att allt som säger nått annat än det saddam anser är rätt bara är lögner. Iom att han där visar att han överhuvudtaget inte är villig att lyssna på någon annan än sig själv så kan man bara konstatera att Saddam har stora likheter med en tidigare Saddam i Irak. Det är bara han som har rätt och allt annat är lögner. En fem år gammal rapport och weblänkar som tom motbevisar hans egna ord utan att han själv förstår det är naturligtvis betydligt mer trovärdigt än verkliga erfarenheter. Lägg också märke till att han inte en enda gång har kunnat svara på varför system som har checksummor inte ser hans problem.

Jag säger inte att det är lögner, jag säger bara att forskning visar att datakorruption förekommer. Jag är även villig att läsa länkar och forskningsartiklar, om du kan hitta såna. Om du hittar trovärdiga länkar (som inte går till IBM) så är jag villig att läsa igenom dem. Jag har sagt detta många ggr nu, det är inte så att jag vägrar lyssna. Det är bara det att jag vill ha trovärdiga länkar att titta igenom. Det är så forskning går till. Man bildar sig inte en uppfattning på nån snubbe som säger "lita på mig, jag kan detta". Det hoppas jag du inser, att man vill få saker och ting bekräftade från annat håll?

Citat:

När han sen tar det sista steget med att ljuga och direkt förfalska mina ord så drar jag samma slutsats som gargamel och Weeblie. Det är inte värt att lägga tid på någon som uppenbarligen inte vill förstå eller lyssna. Därmed lämnar även jag Saddam åt sitt Jihad även om det mer liknar Don Quijote:s kamp mot väderkvarnarna. Vi vet alla vad det var som bestod.

Jag förstår inte var jag ljugit om vad du sagt? Däremot har du sagt att jag menar att ZFS inte skalar. Det är något jag aldrig sagt, eftersom jag vet att ZFS skalar uppåt mycket bra.

Citat:

Som avslutning vill jag dock återvända till grundfrågan om HW-kontrollers kommer att dö ut:

Nej Raidkontrollers kommer att fortsätta dominera på företagen och i datorhallarna.
Skälen är enkla.
1. ZFS klarar inte block-io vilket krävs för bra prestanda och funktion med virtualiseringslösningar som tex VMware
2. ZFS fixar inte kluster heller
3. Man kan/bör inte lägga ZFS på ett vanligt sanskåp då de inte ger direkt tillgång till diskarna. Därmed ryker skyddet och man får betala hela priset i form av overhead.
4. Windows stödet saknas.

Iom det krävs något annat och det är fortfarande HW raid då det inte är perfekt men mer än säkert nog och det löser behoven.
Edit: Fixade ett syftningsfel

1. Man måste inte köra ZFS. I framtiden kommer BTRFS, som är en ZFS kopia. BTRFS och ZFS är ganska likt. I framtiden kommer det nog komma fler filsystem som liknar ZFS och delegerar alla beräkningar till datorns cpu. Tror jag.
2. Man måste inte köra ZFS.
3. Man exporterar SAN som iSCSI eller nåt sånt, sen kan klientdatorn importera rådatafilen och formatera den med ZFS. Då kommer klientdatorn att märka data korruption eftersom ZFS körs där. Men, man måste inte köra ZFS.
4. Man måste inte köra ZFS.

Jag tror att i framtiden så kommer det komma bättre och bättre filsystem som gör hårdvaran onödig. Det var samma sak med modem. Förrut hade man modem som man köpte extra. Nu kan man göra modemet i mjukvara och köra på datorns cpu. Då ser jag inte varöfr man ska köpa ett externt modem? Det är ju bara att ladda ned ett program, så får du ett modem i datorn!

Samma med hw-raid och mjukvaruraid. Det är bara att ladda ned ett program så får du raid i datorn. Varför köpa hw-raid då? Datorns cpu är ju riktigt kraftfull idag, så den klarar av att köra allt, även mjukvaruraid.

Permalänk
Hedersmedlem

*tråd delad*

Jag har flyttat några inlägg till http://www.sweclockers.com/forum/6-lagring/1043085-bor-jag-ko.... Det kändes bäst att ha dem i en egen tråd. Säg till (förslagsvis genom att anmäla detta inlägg) om jag flyttat något inlägg fel eller missat något inlägg.

Permalänk
Medlem
Skrivet av saddam:

Jag hävdar fortfarande att ZFS kan ge dig den prestanda du efterfrågar. Det skalar utmärkt. Det bara att stoppa i mera cpuer, mera diskar, mer RAM och SSD som cache. Vill du ha 3GB/sek och 100.000 IOPS? Det går att få med ZFS. Kan du få vilken prestanda du vill med ett hw-raid kort? Nej, det tar stopp nånstans. Visst kan du stoppa i 256 diskar med SAS expanders, men vilken prestanda får du då? Ditt hwkort körs ju fortfarande i ett PCIe x 8 slot eller nåt sånt - som endast har typ 2GB/sek eller nåt sånt. Det går inte snabbare än PCIe-8X slot, det är omöjligt. Med ZFS kan du stoppa i flera JBOD kort i flera PCIe-8x slot, som varje har 2GB/sek - så du kan komma upp i vilken siffra du vill. Det är bara att stoppa i mer hårdvara. Det kan du inte göra med ett hw-raid kort.

Jag tycker det är mycket märkligt att påstå att hw-raid skalar. Om något skalar, så betyder det att det kan ge den prestanda du önskar, lösningen kan växa om du har större behov. Hw-raid tar stopp vid ett PCIe-8X (eller 16) slot. Det går inte snabbare än så. ZFS fortsätter förbi denna gräns eftersom du kan stoppa i flera kort som alla kör PCIe-8x, ZFS skalar alltså förbi ett enda hw-raid eftersom ZFS använder flera såna kort. Mycket märkligt påstående du kommer med. Du borde hålla med om att ett kort, har lägre prestanda än flera kort.

Varför får du stoppa in en massa extrahårdvara för att skala när du hindrar de som försvarar HW-Raid att göra samma sak? För du säger hela tiden "ETT" raidkort men sen lägger du till mer CPU,RAM,SSD,kontrollerkort till din ZFS-setup.

Sen tycker jag denna tråden är intressant ur många håll. Dels hur folk lyckas och misslyckas med sina diskussioner, dels för att folk som verkar jobba med sådant jag finner intressant smått delar med sig om hur det ser ut i den riktiga världen och inte enbart enbart predikar religion från CERN.
Att vissa RAID-system använder checksummor på diskarna var något helt nytt för mig och det ska jag försöka läsa på lite mer om.

Mycket är äpplen och päron då ZFS är ett FILSYSTEM och HW-Raid inte är det.

Om CERN nu för fem år sedan konstaterade den stora datakorruption som sker i deras system, borde dom inte ha bytt helt och hållet till ZFS vid det här laget? Jag vet inte om du har gjort det men Saddam, DU borde faktiskt veta det och får naturligtvis rapportera tillbaka här om det för jag är nyfiken (seriöst) om det. Om dom har gjort det så lär dom ha stor erfarenhet att dela med sig och om dom INTE har gjort det så lär det ju bero av någon anledning som säkert kan vara av värde för tråden.

Permalänk
Avstängd
Skrivet av iXam:

Varför får du stoppa in en massa extrahårdvara för att skala när du hindrar de som försvarar HW-Raid att göra samma sak? För du säger hela tiden "ETT" raidkort men sen lägger du till mer CPU,RAM,SSD,kontrollerkort till din ZFS-setup.

Hur skulle det gå till, att du uppgraderar ett hw-raid kort? Är det ens möjligt? Det finns bara ett I/O slot, som det passar in i. Du kan inte stoppa in flera hw-raid kort inuti ett I/O slot. Hur uppgraderar man ett hw-raid kort? Byter ut cpun? Knappast. Visst kan man stoppa i mera minne, upp till... 512MB kanske? Men en Solaris server kan ha 128GB RAM utan större problem, eller ännu mera.

Så jag hindrar inte folk från att stoppa in massa extra hårdvara i ett hw-raid. Det är bara det att det inte går att göra det: stoppa in flera cpuer, massa diskar, etc i ett hw raid kort. Men det går att stoppa in allt detta i en server. Det är därför jag blir så förvånad när folk säger att ett kort skalar bättre än ZFS som är ett filsystem som körs på en riktigt stor biffig server? Liksom, hur resonerar man då? "Min DRAM sticka skalar bättre än den största Solaris servern!" - eh? Man kan ju stoppa in mera minne i en Solaris server, men en DRAM sticka är så stor, som den är och kan inte bytas ut. Hur kan man påstå att ett hw-raid kort skalar bättre än en hel server? Jag är lika förvånad som du.

Citat:

Sen tycker jag denna tråden är intressant ur många håll. Dels hur folk lyckas och misslyckas med sina diskussioner, dels för att folk som verkar jobba med sådant jag finner intressant smått delar med sig om hur det ser ut i den riktiga världen och inte enbart enbart predikar religion från CERN.

Du vet inte var jag jobbar. Men jag jobbar i finansbranschen med stora system som du har hört talas om och känner till, och jag pratar med driftskillarna, ja. Och jag har pratat om data korruption för högsta tekniska chefen och han är oroad och har börjat grotta i detta med datakorruption. Våra system är världsberömda och hanterar många miljarder varje dag.

Skulle du tycka mina inlägg var vettigare, om jag berättade om mitt CV, och alla mina examina, och var jag jobbar, och med vad, och hur mycket jag reser och tjänar? Nej, det bara imponerar men gör inte argumenten bättre. Måste man argumentera så, så bör man byta strategi.

Citat:

Att vissa RAID-system använder checksummor på diskarna var något helt nytt för mig och det ska jag försöka läsa på lite mer om.

Det är bara highend system som t.ex. NetApp som använder det. Och NetApp är inte billiga, kostar många miljoner kr antar jag. Men vanliga hw-raid har inga checksummor. Vad jag vet. Men om nån hittar länkar som säger tvärtom, så ska jag förstås ta till mig det.

Citat:

Mycket är äpplen och päron då ZFS är ett FILSYSTEM och HW-Raid inte är det.

Precis. Och ett filsystem kan göra mer, och spänna över flera kort - än vad en enstaka komponent kan. Så jag fattar inte varför folk bråkar och envisas med att jämföra hw-raid mot ZFS? Det är inget snack om saken, ZFS kan mer än en komponent. Det är fakta.

Citat:

Om CERN nu för fem år sedan konstaterade den stora datakorruption som sker i deras system, borde dom inte ha bytt helt och hållet till ZFS vid det här laget? Jag vet inte om du har gjort det men Saddam, DU borde faktiskt veta det och får naturligtvis rapportera tillbaka här om det för jag är nyfiken (seriöst) om det. Om dom har gjort det så lär dom ha stor erfarenhet att dela med sig och om dom INTE har gjort det så lär det ju bero av någon anledning som säkert kan vara av värde för tråden.

Jag vet inte om du läste mitt tidigare inlägg, men CERN håller faktiskt på att implemntera ZFS. De har några Petabyte som lagras på ZFS och det ska öka. På långtidslagring Tier 1 och Tier 2. Jag postade en länk som pratar om det, längst ned på sidan.

Jag tycker man ska återgå till diskussionen om hw-raid är på väg bort eller inte. Såsom jag ser det, i början, är hårdvaran inte kraftfull nog, så man skapar dedikerad hw för att hantera något. Småningom kan CPUn göra allting och då behövs inte dedikerad hw längre. T.ex. grafik, nu börjar det dyka upp i cpuerna så snart kanske det inte behövs dedikerade separata grafikkort. Om man kan göra något i vanliga cpun, varför köpa dedikerad hw? Jo, den dedikerade hw är effektivare på att göra just sin lilla grej, och strömsnålare - men den dedikerade hw kostar pengar.

Det är ungefär som att "ska man köpa en ny strömsnål skärm, eller behålla sin gamla strömslukande?" Det är inte självklart att köpa en ny skärm, eftersom att behålla sin gamla ger högre elräkningar, men den ökningen är mycket mindre än vad en ny skärm kostar. Och en ny skärm kostar mycket på miljön, ytterligare råvaror går åt, ytterligare mer miljögifter, ström när den ska tillverkas, etc - så i långa loppet kanske det är bättre att behålla sin gamla skärm.

Samma här, med dedikerad hw. Visst är den strömsnålare, men om du kan ladda ned en funktion som ett program, istället för att köpa ny hw, vad är bäst? Bygger man mindre hw, så behövs inte lika många fabriker. Om man kan göra allting via mjukvara i cpuer, så behövs bara cpu fabriker, och inga andra fabriker som gör grafikkort, hw-raid, etc.

Vi ser även att mjukvaruraiden blir mer och mer sofistiskerade och bättre och bättre. De innehåller med kod än ett hw-raid gör, och den koden är grymt mycket mera testad än koden i ett hw-raid är om man tycker datasäkerhet är viktigt. I ZFS fall ser vi att testsviten är massiv och det är även långt fler utvecklare i ZFS, än i bios på ett hw-raid kort som kanske bara har 5 utvecklare. ZFS koden är av högre kvalitet och mer testad - tror jag.

http://storagemojo.com/zfs-threat-or-menace-pt-i/
"Nightly “ztest” program does all of the following in parallel:
-Read, write, create and delete files and directories
-Create and destroy entire filesystem and storage pools
-Turn compression on and off (while FS is active)
-Change checksum algorithm (while FS is active)
-Add and remove devices (while pool is active)
-Change I/O caching and scheduling policies (while pool is active)
-Scribble random garbage on one side of live mirror to test self-healing data
-Force violent crashes to simulate power loss, then verify pool integrity

Probably more abuse in 20 seconds than you’d see in a lifetime ZFS has been subjected to over a million forced, violent crashes without losing data integrity or leaking a single block "

GAPa, tack!

Permalänk
Medlem
Skrivet av saddam:

Hur skulle det gå till, att du uppgraderar ett hw-raid kort? Är det ens möjligt? Det finns bara ett I/O slot, som det passar in i. Du kan inte stoppa in flera hw-raid kort inuti ett I/O slot. Hur uppgraderar man ett hw-raid kort? Byter ut cpun? Knappast. Visst kan man stoppa i mera minne, upp till... 512MB kanske? Men en Solaris server kan ha 128GB RAM utan större problem, eller ännu mera.

Jag syftade på fler kontrollerkort. Då för att komma ifrån vissa expansionskortsproblem.

Citat:

Du vet inte var jag jobbar. Men jag jobbar i finansbranschen med stora system som du har hört talas om och känner till, och jag pratar med driftskillarna, ja. Och jag har pratat om data korruption för högsta tekniska chefen och han är oroad och har börjat grotta i detta med datakorruption. Våra system är världsberömda och hanterar många miljarder varje dag.

Händer det att några miljarder försvinner hux flux då och då eller ropar du varg?

Citat:

Skulle du tycka mina inlägg var vettigare, om jag berättade om mitt CV, och alla mina examina, och var jag jobbar, och med vad, och hur mycket jag reser och tjänar? Nej, det bara imponerar men gör inte argumenten bättre. Måste man argumentera så, så bör man byta strategi.

Jag skulle tycka det var intressant att se vad du kan, har gjort, jobbar med (men inte vad du tjänar). Det tycker jag ger en viss vikt åt det du säger istället för att hänvisa till CERN varenda gång någon säger något för det är inte någon personlig merit.

Citat:

Jag vet inte om du läste mitt tidigare inlägg, men CERN håller faktiskt på att implemntera ZFS. De har några Petabyte som lagras på ZFS och det ska öka. På långtidslagring Tier 1 och Tier 2. Jag postade en länk som pratar om det, längst ned på sidan.

Najs. Ska läsa på om det.

Citat:

Jag tycker man ska återgå till diskussionen om hw-raid är på väg bort eller inte. Såsom jag ser det, i början, är hårdvaran inte kraftfull nog, så man skapar dedikerad hw för att hantera något. Småningom kan CPUn göra allting och då behövs inte dedikerad hw längre. T.ex. grafik, nu börjar det dyka upp i cpuerna så snart kanske det inte behövs dedikerade separata grafikkort. Om man kan göra något i vanliga cpun, varför köpa dedikerad hw? Jo, den dedikerade hw är effektivare på att göra just sin lilla grej, och strömsnålare - men den dedikerade hw kostar pengar.

De GPUer som huserar i CPUer är ju fortfarande dedikerad hårdvara. Bara att de flyttat från en annan buss och fått sämre minnesbandbredd. Allt för att få snabbare budgetlösningar.

Sen ska jag väl säga att jag själv inte är bevandrad i större system och lagring. Den datamängden jag arbetar med rör sig under TB men jag kanske kommer att konsulta där det behövs PB och delvis därför läser jag lite om saker och ting.

Permalänk
Avstängd
Skrivet av iXam:

Jag syftade på fler kontrollerkort. Då för att komma ifrån vissa expansionskortsproblem.

Ja, i vilket fall som helst tycker jag det är konstigt att säga att ZFS inte skalar, men att t.ex. en DRAM sticka skalar, eller ett hw-raid kort. Ett hw-raid kort har ju bara en viss bandbredd som den ska dela ut till alla diskar. Antag att du använder en SAS expander och daisychainar flera såna, så du kan koppla in 255 diskar totalt till det ensamma hw-raid kortet, antag vidare att hw-raid kortet sitter i ett slot som ger 8GB/sec bandbredd: ja, då blir det 31KB/sek per disk. Det är inte mycket, och det skalar inte. Det tar stopp ju fler diskar du stoppar in i det stackars ensamma hw-raid kortet.

Antag att du använder en fet ZFS server som har 8st slottar som varje ger 8GB/sek, ja då kan du sprida ut de 255 diskarna på alla och få högre bandbredd. Det är alltså en lösning som skalar uppåt, det tar inte stopp.

En lösning som tar stopp, skalar inte. En lösning som inte tar stopp, skalar. Mao, ZFS skalar.

Citat:

Händer det att några miljarder försvinner hux flux då och då eller ropar du varg?

Nej på våra system tracar vi precis varje transaktion och har koll på minsta öre. Så blir det nåt problem så märks det direkt. Jag vet inte hur ofta det blir problem dock, just dom människorna pratar jag inte med. Det kanske händer att vi ofta får gå in och korrigera småsaker? Det tror jag dock inte. Men det kan nog hända nån gång?

Citat:

Jag skulle tycka det var intressant att se vad du kan, har gjort, jobbar med (men inte vad du tjänar). Det tycker jag ger en viss vikt åt det du säger istället för att hänvisa till CERN varenda gång någon säger något för det är inte någon personlig merit.

Jag tycker att personliga meriter är elitistiskt. "Jasså, du har ingen fin examen, eller jobbar inte med detta? Då kan du hålla tyst och din röst är inte värd nåt!". Eller: "oj vilka fina examina du har, då räknas det du säger även om du inte kan något om ämnet. Det viktiga är ditt CV".

Båda är lika fel. Jag tycker det viktiga är själva argumentet. En obildad kan komma med ett bra argument som jag böjer mig för, samtidigt händer det att en professor (ja en riktig professor) säger nåt korkat som jag totalsågar. Båda sakerna har hänt. Det är mer demokratiskt att titta på vad folk kan, och vad de säger - än att titta på deras bakgrund (är han adlig?), examina och på vilka universitet de studerat. Adliga kan vara korkade.

Samtidigt är det inte helt irrelevant ens bakgrund. Är man nobelpristagare så har man antagligen ett visst mått av sunt förnuft. Men forskningsartiklar väger alltid tyngre än hur en persons CV ser ut. Jag litar mer på forskningsartiklar i ämnet, än en person med fint CV som uttalar sig om saker han inte vet ett jota om.

Citat:

De GPUer som huserar i CPUer är ju fortfarande dedikerad hårdvara. Bara att de flyttat från en annan buss och fått sämre minnesbandbredd. Allt för att få snabbare budgetlösningar.

Jo, iofs. Men anta att man kan göra allting i mjukvara, man bara laddar ned ett program så får du den funktion du vill ha. Det vore framtiden, tycker jag. Istället för inflexibl hårdvara. T.ex. förr i tiden så var spelkonsolerna hårdprogrammerade; de kunde bara spela ett enda spel som var inbränt i kretsarna. Senare kom det utbytbara kasseter, du kunde byta kassett och på så vis byta spel. Senare kom datorerna, där du bara laddade in olika spel så slapp du köpa extra hårdvara, som t.ex. kassetter. Så vi ser att när det gäller dataspel, så är vi där nu att man kör allt via mjukvara istället. Man köper inte ett stycke hårdvara som bara kan spela Crysis, och köper en annan hårdvara för att spela Deus Ex. Nej, vi bara installerar annan mjukvara. tänk om man kunde göra det även med raid? Modem? Grafikkort? Vore det inte flexiblare? Tänk om prestandan som uppnås via mjukvara är 90% av vad man uppnår med hårdvara? Ja, då ser jag inte varför det ska leva kvar dedikerad hårdvara, när man bara behöver programmera om cpun.

Charles Babbages "analytiska maskin" var ju den första datorn, det revolutionerande var att han föreställde sig att man kunde programmera om den så att den fick olika funktioner: ville man ha en kalkylator, så programmerade man in den funktionen. Ville man ha en bla bla så programmerade man in den funktionen. Man hade alltså bara en enda dator som kunde likt en kameleont anta olika roller. Det är ju flexibelt. Visst kanske det går lite långsammare, men om det går nästan lika snabbt som en specialmaskin som gör just det - ja då ser inte jag någon anledning till varför dedikerad hårdvara ska leva kvar. Vi skulle nästan kunna jämföra denna diskussion med: "Kommer en generell PC konkurrera ut dedikerade spekonsoler?"

Vad är svaret på det? Ja, vi ser att förr i tiden fanns det bara spelkonsoler, men nu har PC blivit större och större. I framtiden kanske spelkonsoler dör ut helt, eftersom PC kan göra allt den en dedikerad spelkonsol kan. Eller?

Citat:

Sen ska jag väl säga att jag själv inte är bevandrad i större system och lagring. Den datamängden jag arbetar med rör sig under TB men jag kanske kommer att konsulta där det behövs PB och delvis därför läser jag lite om saker och ting.

Ja, det är en vettig approach. Att lära sig många olika tekniker är aldrig dåligt.

Permalänk
Avstängd

Ett annat argument till att köra ZFS, är att korten är bra mycket billigare än ett hyfsat hw-raid kort.

Här är ett IBM PCIe-8x kort jag precis har beställt. Det funkar bra i Solaris 11 Express, och OpenIndiana.
http://www.prisjakt.nu/produkt.php?e=517701
Det är ett rebrandat LSI2008 kort, och LSI2008 funkar bra i Solaris. LSI2008 är ett jättevanligt server märke och har stöd för de flesta OS. Det har bra prestanda. Det har två mini-SAS SFF8087 portar, och varje port ger 2.4GB/sek. Varje SFF8087 splittas upp i fyra SATA kontakter mha en specialsladd, så man kan koppla in 8st SATA/SAS diskar totalt.

Knepet är att flasha om det till "IT mode". Det är ungefär som JBOD mode, men ännu mer lättviktigt och har ännu mindre kod än det lilla som krävs för JBOD.

Om man inte flashar det, utan använder det som det är, så måste man installera LSI 9240 drivrutinen från LSI website. Då kör man JBOD mode. Det kan strula lite med ESXi, men det kanske är fixat nu? (IBM kortet är egentligen ett rebrandat LSI 9240 kort - som använder LSI 2008 chipet)

Om man flashar det till IT mode, så behövs inga drivrutiner alls, drivrutinen ingår i Solaris 11 och OpenIndiana. Då funkar det fint med ESXi. Då är kortet helt naket och presenterar diskarna rätt in i OSet. Detta är att föredra, och det blir minst strul på detta sätt, även om JBOD mode är ganska naket. Men inte lika naket.

Jag undrar om det funkar till FreeBSD, kan nån googla lite? Det är ett IBM serverkort, så kvaliteten tror jag är bra. Visst kanske ljuger IBM friskt, men de kan bygga bastanta servrar som håller länge - det har ingen sagt emot. IBM bara överdriver kraftigt sin prestanda, men bygger hållbara saker. Kolla på prisutvecklingen, det har fallit kraftigt. IBM server prylar brukar inte vara så här billiga.

Jag funderar på att koppla en SAS expander till IBM kortet, om det nu funkar. Detta är inte alltid kompatibelt utan vissa märken kan strula beroende på OS. Detta Intel kort har sex st SFF8087 mini-SAS portar, men är egentligen av märket LSI, samma märke men rebrandat. Så eftersom det är samma märke kanske kombon kan funka?
http://www.prisjakt.nu/produkt.php?e=885082
En SAS expander är som en Router, man kan koppla in massa diskar till den.

Problemet med IBM kortet är att det bara stödjer 4 + 4 diskar, eftersom det har endast två st SFF8087 kablar. Då kan man istället dra en SFF8087 kabel till denna SAS expander. SAS expandern har då bara 5st miniSAS portar lediga. Till varje port kan man koppla in 4st diskar, så alltså kan man koppla in 20 diskar till SAS expandern. Varje SFF8087 port stödjer 2.4GB/sek, så bandbredden räcker även om man kör 20 diskar på en mini-SAS port. Eftesrom IBM kortet har två SFF8087 sladdar, så kan man koppla även den andra sladden till t.ex. 4 diskar (eller till en billig HP SAS expander som har 36 portar). Mao kan man koppla in 24 diskar till denna kombo: IBM + Intel kortet. Och då får man 2.4GB/sek per SFF8087 port.

Detta Intel expander kort kan få strömmen via en molex, så det behöver inte sitta på ett moderkort, det kan hänga i tomma luften om man vill.

Till denna kombo ska jag kanske köpa ett norco 4224 chassi. Det har 24 diskar. Och en 2TB disk kan man få billigt så det kostar inte för mycket att fylla upp det, jag har ju dessutom diskar sedan tidigare. 24 st 2TB diskar som kör på 2.4GB/sek. *flås flås* Ohhh.... Åhhh.... Är jag ensam om att få ståpäls? Rycker det inte i uppgraderingstarmen nu? Seriöst?
http://www.newegg.com/Product/Product.aspx?Item=N82E168112190...
Men, norcon tar även emot ett moderkort, så om man vill kan man stoppa in ett moderkort rätt in i norco chassit. Då blir det ett en egen server med 24 diskar.

PS. Jag kan ju förstås stoppa in 4st såna här IBM kort, och till varje IBM kort koppla in varsin SAS expander. Och över dessa 4st IBM kort kan jag skapa en enda ZFS raid. Det går, eftersom ZFS kan spänna över flera kort.

Permalänk
Medlem
Skrivet av saddam:

Det är ett rebrandat LSI2008 kort, och LSI2008 funkar bra i Solaris. LSI2008 är ett jättevanligt server märke och har stöd för de flesta OS. Det har bra prestanda. Det har två mini-SAS SFF8087 portar, och varje port ger 2.4GB/sek. Varje SFF8087 splittas upp i fyra SATA kontakter mha en specialsladd, så man kan koppla in 8st SATA/SAS diskar totalt.

Knepet är att flasha om det till "IT mode". Det är ungefär som JBOD mode, men ännu mer lättviktigt och har ännu mindre kod än det lilla som krävs för JBOD.

http://mullet.se/product.html?product_id=333342
Samma specar - enbart HBAm 2 * SF8087, PCIex8. Kostar dock bara ca hälften.

Permalänk
Avstängd
Skrivet av mix_room:

http://mullet.se/product.html?product_id=333342
Samma specar - enbart HBAm 2 * SF8087, PCIex8. Kostar dock bara ca hälften.

Jo, men det är inte baserat på LSI2008 chippet. LSI2008 chippet lirar väldigt väl med Solaris. Marvell chip vet jag inte hur bra det är med Solaris?

UPDATE: Ok, marvell chippet stöds inte i Solaris, verkar det som:
http://blog.zorinaq.com/?e=10

Permalänk
Avstängd

Ok, kortet funkar bra i FreeBSD, men det kräver att man flashar om det först.
http://forums.servethehome.com/showthread.php?97-IBM-M1015-Fi...

Så detta kort är väl det billigaste LSI2008 kortet som finns på marknaden - vad jag vet. Och LSI2008 vill man definitivt ha. Mycket höga prestanda. 600MB/sek för varje disk, och det är 8st diskplatser fördelat på 2 mini SAS kablar SFF8087. Så det blir 2.4GB/sek för varje mini SAS kabel, dvs totalt 4.8GB/sek för alla 8 diskar. Jag har svårt att se att folk har högre krav än 4.8GB/sek inom den närmsta framtiden? Mao, köper man detta kort så är man framtidssäker så länge man använder hårddiskar. Vill man istället raida SSD på 600MB/sek eller snabbare, så räcker kortet ändå ett tag, men när man känner att 4.8GB/sek är för lite, så måste man nog byta kort. Det lär ju dröja några år.

Med denna höga bandbredd så kan man koppla in SAS expanders om man vill driva fler än 8 diskar. Antag att man kopplar in 2st SAS expanders, då fördelas 2.4GB/sek på varje SAS expander, eftersom det finns två st mini-SAS kablar. Antag man kopplar in en 36 portars SAS expander, då blir det 67MB/sek för varje disk och det är ju helt ok bandbredd för en enda mini-SAS kabel.

Så istället för att köpa ett riktigt LSI 2008 kort som är dyrt, såsom tex. AOC-USAS-L8i eller AOC-USASLP-L8i så köper man lämpligtvis detta IBM kort istället.

Här ser vi baksidan på JBOD versionen av 24 diskars Norco chassit. Dvs, den har inte plats för ett moderkort, det är alltså ingen server, den huserar bara alla diskar. Den har uttag för 6 st miniSAS sladdar. Varje mini SAS sladd, splittar upp sig till 4 diskar med SFF8087 kabel, så det blir totalt 24 diskar, mha 6 mini sas sladdar.
http://www.newegg.com/Product/ImageGallery.aspx?CurImage=16-1...

Om vi jämför med baksidan på norco 4224, som är samma chassi, men ej JBOD. Dvs, man ska stoppa i ett moderkort, så ser vi att det saknar mini-SAS uttag:
http://www.newegg.com/Product/ImageGallery.aspx?CurImage=11-2...

Så var kör man in sina mini-SAS sladdar in i detta 4224 chassi? Svar, på moderkortet så har man en SAS expander. Alla 24 diskar kopplas in till SAS expandern. Och den har en miniSAS port som man kommer åt utifrån. Så då kör man en mini sas kabel mellan LSI2008 kortet, till SAS expandern. Men eftersom man kör en mini sas kabel mellan olika chassin, så heter det istället SFF8088. De kan max vara 10meter, men bör vara kortare.

Så... är det någon som är sugen på att köpa ett eller två IBM M1015 kort, förutom jag? Har man t.ex. 3st M1015 kort, så finns det totalt 6st mini SAS sladdar. Dessa kan man dra direkt till JBOD versionen av 24 diskars chassit. Då behöver man ingen SAS expander.

När man kör Solaris, så kan SAS expanders strula under high load, och man ska vara försiktig med att köra såna i produktion:
http://gdamore.blogspot.com/2010/08/why-sas-sata-is-not-such-...
Det finns en follow up artikel på samma sida, några månader senare. Där säger han att problemen gäller under high load endast.

Permalänk
Avstängd

Apropås att ZFS har skalningsproblem, och att det har prestandaproblem. Här är det benchmarks som visar att ZFS servrar (dvs en PC + RAM + JBOD kontrollerkort + SATA diskar) tävlar med t.ex NetApp
http://www.theregister.co.uk/2011/10/04/oracle_spc_1_beats_ne...

Angående att göra allt i mjukvara istället för hårdvara. Förrut hade jag en video och en stereo. Tänkte köpa DVD spelare också. Nu har jag slängt ut all hårdvara och använder endast datorn till allting. Jag kollar på film på datorn, varför ha en DVD spelare eller VHS video eller BluRay? Jag lyssnar på musik på datorn, varför köpa massa CD skivor och CD spelare samt förstärkare och annat? Jag kan göra allt i mjukvara. Lyssna på radio via internet istället för att köpa en radio, etc.

Jämför all den hårdvaran mot en enda PC:
-Video
-Radio
-DVD spelare för musik och för musik
-Förstärkare
-...

Eller att kunna göra allt ovanstående i mjukvara på en PC. Visst kanske all hårdvara gör det bättre och energisnålare, men om det knappt är någon skillnad så: varför?

Permalänk
Medlem
Skrivet av saddam:

Apropås att ZFS har skalningsproblem, och att det har prestandaproblem. Här är det benchmarks som visar att ZFS servrar (dvs en PC + RAM + JBOD kontrollerkort + SATA diskar) tävlar med t.ex NetApp
http://www.theregister.co.uk/2011/10/04/oracle_spc_1_beats_ne...

Angående att göra allt i mjukvara istället för hårdvara. Förrut hade jag en video och en stereo. Tänkte köpa DVD spelare också. Nu har jag slängt ut all hårdvara och använder endast datorn till allting. Jag kollar på film på datorn, varför ha en DVD spelare eller VHS video eller BluRay? Jag lyssnar på musik på datorn, varför köpa massa CD skivor och CD spelare samt förstärkare och annat? Jag kan göra allt i mjukvara. Lyssna på radio via internet istället för att köpa en radio, etc.

Jämför all den hårdvaran mot en enda PC:
-Video
-Radio
-DVD spelare för musik och för musik
-Förstärkare
-...

Eller att kunna göra allt ovanstående i mjukvara på en PC. Visst kanske all hårdvara gör det bättre och energisnålare, men om det knappt är någon skillnad så: varför?

Det är svårt att generalisera sådär. Det finns mycket som fortfarande är mycket bättre i hårdvara.

Ta t.ex. riktigt snabba brandväggar, deras brandväggsregler kompileras till vhdl etc. Det finns folk som behöver sådan prestanda.

Varför har du trådlöst nätverkskort i laptopen när du kan lösa det med mjukvara och sdr?

Generellt så vill vi så mycket som möjligt lösa saker i mjukvara, men det finns rätt mycket andra faktorer som spelar in.

Visa signatur

Plan9 fan. In glenda we trust.

Permalänk
Avstängd
Skrivet av dagle:

Det är svårt att generalisera sådär. Det finns mycket som fortfarande är mycket bättre i hårdvara.

Ta t.ex. riktigt snabba brandväggar, deras brandväggsregler kompileras till vhdl etc. Det finns folk som behöver sådan prestanda.

Varför har du trådlöst nätverkskort i laptopen när du kan lösa det med mjukvara och sdr?

Generellt så vill vi så mycket som möjligt lösa saker i mjukvara, men det finns rätt mycket andra faktorer som spelar in.

Visst är det så att dedikerad hårdvara kan göra samma sak, på mindre energi och mindre resurser, men om mjukvara är nästan lika bra? Nu pratar jag inte om extremfall, där endast det bästa duger. Antag att mjukvaran är aning sämre, varför köpa dedikerad hårdvara då?

Jag var ute häromdagen. Såg en grotta ute, så jag gick in. Kolmörkt. Hade ingen hårdvara som var specialiserad för detta, dvs ingen ficklampa. Gick ut, laddade ned en app till mobilen som slog på alla ljuskällor. Det funkade bra. Man såg inte så långt som 20meter eller så, men det funkade bra. Eller miniräknare, det finns dyra HP räknare som kan allt. Eller så kan jag ladda ned en hyfsad miniräknare som inte klarar av allt, men klarar av grunderna. Istället för att gå runt med massa hw så kan man kanske ladda ned en app som gör det.

Så jag förstår inte varför envisas att ha hw när man kan göra nästan samma sak i mjukvara. Mjukvara är ju mycket flexiblare, det är bara att ladda ned appar så ändrar du funktionalitet på några sekunder.

Permalänk
Medlem

I debatten hård vs mjukvaru & skalning är svaret enkelt. Mjukvaruraid etyder att CPU'n ska prata med varje disk, varje gång något händer. Hårdvaruraid betyder att Raidkortets egen CPU sköter det, CPU'n pratar bara med kortet som en enhet.
Med andra ord, när vi expanderar från 8 diskar på en kontroller, Raid, eller inte, till 24, på 3 kontrollers, så måste CPU'n flytta samma datamängd + overhead x3 vs datamängd + overhead x24. Normalt sett är det inte ett problem att köra flera vettiga raidkort, systemet ser det hela som en enhet.

Daisy-chain... i en miljö där man pratar om prestanda? Försöker du medvetet göra dig löjlig? Möjligtvis för att lagra data ingen har någon brådska med att få tag i, av just den anledningen du själv anger.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Medlem
Skrivet av saddam:

Så jag förstår inte varför envisas att ha hw när man kan göra nästan samma sak i mjukvara. Mjukvara är ju mycket flexiblare, det är bara att ladda ned appar så ändrar du funktionalitet på några sekunder.

Flexiblare yes, men varför inte göra hårdvara så pass flexibel att vi kan programmera den mot våra behov? Varför inte ge oss möjlighet att ladda in kod som gör att vi kan styra våra kontrollers? Varför finns det inte en zfs (eller vilket annat filsystem) firmware i hårdvaran?

Visa signatur

Plan9 fan. In glenda we trust.

Permalänk
Avstängd
Skrivet av dagle:

Flexiblare yes, men varför inte göra hårdvara så pass flexibel att vi kan programmera den mot våra behov? Varför inte ge oss möjlighet att ladda in kod som gör att vi kan styra våra kontrollers?

Det du pratar om, är en dator. Du beskriver en dator helt enkelt. En dator är hårdvara som man kan programmera om att få olika funktioner. Så det du verkar vilja ha, är hårdvara som du kan programmera om med mjukvara. Så det verkar som att du är inne på linjen att om man kan göra samma sak i mjukvara, bara aningen sämre, så är det ingen stor poäng att köpa dedikerad hårdvara. Om jag har en cpu på 2.4GHz, så är det ingen mening att uppgradera till 3GHz. Visst är 3GHz lite snabbare, men inte så stor skillnad. Har man extrema behov så måste man uppgradera till 3GHz, men det har man oftast inte.

Skrivet av -=Mr_B=-:

I debatten hård vs mjukvaru & skalning är svaret enkelt. Mjukvaruraid etyder att CPU'n ska prata med varje disk, varje gång något händer. Hårdvaruraid betyder att Raidkortets egen CPU sköter det, CPU'n pratar bara med kortet som en enhet.
Med andra ord, när vi expanderar från 8 diskar på en kontroller, Raid, eller inte, till 24, på 3 kontrollers, så måste CPU'n flytta samma datamängd + overhead x3 vs datamängd + overhead x24. Normalt sett är det inte ett problem att köra flera vettiga raidkort, systemet ser det hela som en enhet.

Daisy-chain... i en miljö där man pratar om prestanda? Försöker du medvetet göra dig löjlig? Möjligtvis för att lagra data ingen har någon brådska med att få tag i, av just den anledningen du själv anger.
B!

Som du såg har jag postat länkar där en vanlig PC med ZFS tävlar mot de bästa dedikerade lagringslösningarna på marknaden, såsom t.ex. NetApp och EMC. Så mao, så kan du få ut rejält med prestanda utan ett hw-raid kort. Se bara på länkarna. Mao, mjukvaruraid är inte så himla mycket långsammare än hw-raid. Youtube berättade att de fick 30% HÖGRE prestanda när de gick från hw-raid till mjukvaruraid!

Permalänk
Medlem
Skrivet av saddam:

Som du såg har jag postat länkar där en vanlig PC med ZFS tävlar mot de bästa dedikerade lagringslösningarna på marknaden, såsom t.ex. NetApp och EMC. Så mao, så kan du få ut rejält med prestanda utan ett hw-raid kort. Se bara på länkarna. Mao, mjukvaruraid är inte så himla mycket långsammare än hw-raid. Youtube berättade att de fick 30% HÖGRE prestanda när de gick från hw-raid till mjukvaruraid!

Jag förstår varför folk slutar försöka förklara för dig, men jag gör ett sista försök. Om du inte ens försöker ta till dig vad folk skriver, gör de antagligen precis vad jag tänker göra, slutar försöka.

Så länge du hanterar få diskar på ett system, får du inga IO relaterade flaskhalsar, och visst, till priset av lite CPU kraft, kan du få väldigt bra prestanda. Först när du hanterar många diskar, börjar du se stora fördelar för hårdvaruRAID när det kommer till bandbredd.

Om vi tittar på ditt tjatande om hård vs mjukvaru-RAID för Youtube, kanske du ska titta / lyssna på filmen igen. Killen säger klart och tydligt att de hade ett problem med hur Linux hanterade IO. Istället för att tvinga Linux att öka takten, och komma i närheten av vad RAID-kontrollern klarade av, så skapade man på samma kontroller 5 speglade enheter, och lät därifrån Linux mjukvaruRAID'a dem till en lagringsyta. På det viset lockade man Linux att "tillåta" mer IO, eftersom OS'ett nu ser 5 volymer istället för 1. Det kostar som tidigare påpekats lite mer i overhead runt dina IO, men eftersom man sällan eller aldrig ligger på 100% spelar det inte någon större roll. Alternativet hade ju varit att lära Linux att nyttja RAIDkortet fullt ut, men det här var enklare, och framförallt, löste problemet de hade, med en gång, istället för att lägga x antal utvecklingstimmar, under månader för att nå samma resultat. Faktum är att man valde helt enkelt att öka overhead 5 gånger, för samma bandbredd, och fick då högre total prestanda. Det om något, borde påvisa att det aldrig var kontroller som var flaskhalsen. Drivrutiner, troligtvis.

Sen kan man ju undra vad den här tråden har för existensberättigande med tanke på tjatandet om att Youtube såg en prestanda förbättring när de gick från hårdvaru till mjukvaru RAID... Eftersom det inte var vad de gjorde. De ligger fortfarande på hårdvaruRAID, med ett lager mjukvara ovanpå.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Avstängd

Det var mycket prat om att ZFS är långsam på skrivningar, eftersom ZFS är konstruerad så att det är immunt mot write-hole error som hw-raid lider av. Det drar ned skrivprestanda. Ett botemedel mot långsamheten är en SSD som skrivcache, dvs ZIL. Vilket har andra nackdelar, spekulerades det vilt i. Eftersom jag inte är påläst om ZIL så kunde jag inte uttala mig, annat än att ZFS används i tunga databasinstallationer och det vore märkligt om ZFS var långsamt på skrivningar - för då skulle SUN inte kunna använda ZFS i seriösa tillämpningar. Och som vi alla vet, så fokuserade SUN på tunga servrar i Enterprise miljöer. SUN skulle aldrig släppa nåt, som inte dög där. Det är alltså mitt skäl till att tro att långsamma skrivprestanda inte är ett problem för ZFS - det går att kringgå det. Tror jag.

Här finns ett dokument om bara ZIL, för den som är nyfiken. Jag ska läsa det senare.
http://www.ddrdrive.com/zil_accelerator.pdf

Permalänk
Avstängd
Skrivet av -=Mr_B=-:

Så länge du hanterar få diskar på ett system, får du inga IO relaterade flaskhalsar, och visst, till priset av lite CPU kraft, kan du få väldigt bra prestanda. Först när du hanterar många diskar, börjar du se stora fördelar för hårdvaruRAID när det kommer till bandbredd.

Men det är precis detta som jag har svårt att förstå och inte fått någon bra motargument om.

Visst kanske hw-raid är effektivare och snålare än mjukvaruraid, så det hela leder till att du måste använda dubbelt så mycket mjukvaruraidresurser för att få samma prestanda som hw-raid använder. Så? Vad är problemet med det? Vad är problemet med att du måste använda mer cpu kraft, än ett hw-raid kort använder? Flexibiliteten uppväger det. Det är ungefär som att ett program kräver 1GB RAM, eller så kan du optimera det så det kräver 768MB RAM - vad är problemet? Det är bara att fläska på med mer RAM. Det är knappt nån skillnad i RAM.

Man kan alltid stoppa i mera cpu och RAM i en ZFS maskin, så du når upp till samma prestanda som ett effektivare hw-raid kort. Och du kan stoppa i mer och mer CPU, så prestandan går förbi ett hw-raid kort. Ett hw-raid kort kan bara använda ett slot, och det finns bara en viss bandbredd där. Men ZFS kan använda 8 slots eller mer, och använda all den bandbredden. Så jag förstår inte varför du argumenterar för att det blir "stora fördelar för hw-raid när det kommer till bandbredd" med många diskar. Vad är fördelen? Kan du peka ut den? Antagligen 8 slots har högre bandbredd än ett hw-raid?

Angående Youtube, jag har inte sett filmen. Men jag kanske borde göra det. Tills jag gjort det, ska jag inte nämna Youtube igen.

Permalänk
Medlem
Skrivet av saddam:

Det var mycket prat om att ZFS är långsam på skrivningar, eftersom ZFS är konstruerad så att det är immunt mot write-hole error som hw-raid lider av. Det drar ned skrivprestanda. Ett botemedel mot långsamheten är en SSD som skrivcache, dvs ZIL. Vilket har andra nackdelar, spekulerades det vilt i. Eftersom jag inte är påläst om ZIL så kunde jag inte uttala mig, annat än att ZFS används i tunga databasinstallationer och det vore märkligt om ZFS var långsamt på skrivningar - för då skulle SUN inte kunna använda ZFS i seriösa tillämpningar. Och som vi alla vet, så fokuserade SUN på tunga servrar i Enterprise miljöer. SUN skulle aldrig släppa nåt, som inte dög där. Det är alltså mitt skäl till att tro att långsamma skrivprestanda inte är ett problem för ZFS - det går att kringgå det. Tror jag.

Här finns ett dokument om bara ZIL, för den som är nyfiken. Jag ska läsa det senare.
http://www.ddrdrive.com/zil_accelerator.pdf

Och med en ZIL Accelerator kastar du *DEDIKERAD HÅRDVARA* för att lösa ett problem som uppstår för att du inte vill använda dedikerad hårdvara.

I en tråd från 2009 (har jag för mig iafl) rantar du att mer och mer av hårddiskarnas yta tas upp av felhanteringskoder. Men du har absolut inget problem att dedikera extra felhantering via ett filsystem.

Sen på IDG kör du ditt gamla vanliga mantra med ZFS och CERN så fort det ges chans och nu senast spekulerar du i att man kanske borde ta fram ZFS för magnetband.

Ge dig någon gång.

ZFS verkar skitbra men det är inte guds gåva till mänskligheten.