Citat:
Ursprungligen inskrivet av Robban@Lipogram
"One day /data/ (our large postgresql data mount point) suddenly went read-only. Postgres, of course, was quite displeased with this occurrence. So, naturally, I tried to fix the problem by umounting and mounting again, all to no avail. It turns out that a reboot was required to rectify the issue."
En sysadm som löser problem med filsystemet (för det är vid problem som de monteras om ro, för att undvika skador) genom att boota om vet jag inte om jag sätter så stor tilltro till. Han har uppenbarligen bristande kunskaper när det gäller administration av Linux.
Att han inte kunde Linux så bra, tror jag inte riktigt stämmer. Han har driftat sajten med flera TB stora databaser och många tusen användare, länge. Läs följande länk nedan istället då, som säger samma sak; Linux ballar ur vid större laster och de måste byta till Solaris. Det verkar typiskt, många sajter börjar med Linux och när lasten växer så pallar inte Linux längre. Då måste de prova något annat, och Solaris fixar biffen. Fördelen är att Solaris och Linux är ganska lika, kan man ena så kan man snabbt lära sig den andra. Båda är ju typ, Unix. Båda är lika, och lätta att prova på för den kunnige. Men skillnaden är att Solaris är för Enterprisesystem och stora tunga miljöer, där Linux ballar ur. Men absolut, Linux är bra för mindre krävande installationer. Och när Linux inte längre pallar, så är det lätt att byta till Solaris. Steget är litet. Det är inte som från Mac till Windows, t.ex. Linux ballar ur:
http://searchenterpriselinux.techtarget.com/news/article/0,28...
Andrew Morton, Linux kernel developer säger att Linux kärnan är hopplöst buggig och går inte att reparera. Linux kärnan är på 6,4 milj rader kod och mer än 10 milj rader totalt, om man räknar in alla kommentarer och new lines. Jag har för mig att hela Windows NT 4.0 var på 10 milj rader? Fatta att en _kärna_ är på 6,4 milj rader kod. Det är ju helt hopplöst att få en sån stor monolitisk kärna buggfri. Det är vid stor last som Linux visar sina svaga sidor.
http://lwn.net/Articles/285088/
Citat:
Ursprungligen inskrivet av Robban@Lipogram
Får stå för Henry Newman. Behöver inte vara hela sanningen bara för att någon skriver det, eller hur?
http://lxer.com/module/newswire/view/103802/index.html
Kör f.ö. hela vår AFS-infrastruktur på Linux och det fungerar aldeles utmärkt. Många TB och många siter.
Men visst, zfs verkar kanon. Säger inte emot dig där. Förstår bara inte varför du drar in Linux vara eller inte vara i frågan.
Intressant länk. I din länk står att de gjorde fsck för ett stort ext3 system och det tog en vecka! Under tiden man gör fsck kan man inte använda filsystemet, man måste vänta. ZFS har inget fsck, man gör en scrub och man kan använda filsystemet under tiden. ZFS checksummar ju varje block hela tiden, och sparar checksummorna på andra diskar i RAIDet, så ZFS kan återskapa informationen helt automatiskt.
Och, ZFS kommer till Mac OS X! Och finns till FreeBSD. Så möjligheten finns att porta det, förutsatt att licenserna funkar ihop. Lite synd att Linux licensen inte är kompatibel. Men det finns andra OS som har licenser som funkar. Måste allting kretsa kring Linux? Om ZFS licensen inte passar ihop med Linux så är det hata som gäller? Varför det? Det finns ju andra OS som portat ZFS. Jag tycker det är en ganska egocentrisk världsbild som Linux folket har. Alla måste rätta sig efter dem annars ska de förgöras. Men vi får se, kanske kommer ZFS till Linux. ZFS arkitekten hade möte med Linus Torvalds nyligen - de diskuterade ZFS men inget beslut togs då. Men det är nog fortsatta diskussioner. (När Sun öppnade upp Java tog det oxå lång tid, många år, därför att Sun var tvungna att städa upp koden och bevisa att de ägde varje rad kod. Det tog lång tid. Skälet att Java inte följer någon formell standard är för att Microsoft hindrar SUN med motiveringen att det inte är bra att ett enskilt företag har sån makt över en std. OOXML någon? Länk kan ges om någon vill läsa själv)
Men ZFS är öppet och går att porta. Folk har redan portat det. Det finns även en Solaris dist som heter Nexenta, vilket är GNU med Solaris kärnan och är extremt likt typ Ubuntu fast med Solaris kärnan och ZFS, Dtrace, Zones, etc.. Samma tanke som disten OpenSolaris, vars nya version kommer om någon månad - 1 CD i storlek. Personen bakom OpenSolaris disten är Ian Murdock, som skapade Linux Debian. Han kommer garantera att OpenSolaris känns precis som Linux, men med den stabila Solaris kärnan och ZFS, DTrace, Zones, etc.
Nu verkar det kanske som jag rackar ned på Linux, men det gör jag inte. Jag menar att Linux och Solaris har mera gemensamt än icke. Och de är väldigt lika. Det är lätt att switcha mellan dem, just pga de är så lika. Unix har funnits i många år, och Linux kopierar Unix. Det är självklart de är lika. För hemanvändaren som mig så duger Linux mycket bra. Men jag är ju datornörd och provar numera Solaris. Jag gillar att jag inte behöver byta OS om jag vill göra något seriöst stort. Solaris duger från hemanvändare clientOS upp till de största sajterna och största lasterna i världen. Även FreeBSD har bra kvalitet på koden och klarar mycket stora laster, förstås. Jag började själv med Linux eftersom jag inte visste FreeBSD fanns då. Hade jag vetat det, så hade jag stannat med FreeBSD hela tiden. Men nu provar jag Solaris som filserver och är extremt nöjd. Under 10 år har jag aldrig varit med om att Solaris kraschat, jag har aldrig sett det hända, och då har jag programmerat mycket och stressat systemet.
Angående IBMs stordatorer läste jag något intressant. T.ex. påstår IBM att en av deras minsta mainframe motsvarar 232 st x86 servrar och deras stora stordator motsvarar 1500 x86 servrar. De kostar många milj kr, kanske uppemot 50-100 milj kr?
Det framgår dock inte att IBM förutsätter att alla x86 servrar har några få procent nyttjandegrad och Mainframen har 90% eller mera, nyttjandegrad. Det är endast då som en Mainframe motsvarar många x86 servrar.
Det är vidare känt att 1 IBM stordator MIPS (som IBM mäter prestanda i) = 4 MHz x86. Så en vanlig IBM stordatorCPU på 1000 MIPS motsvarar ungefär en x86 server på 4 GHz.
http://www.mail-archive.com/linux-390@vm.marist.edu/msg18587....
"Barton Robinson, another person I know for many years (we've presented together at conferences like SHARE and SHARE Europe), is probably the best known VM (and z/Linux) performance expert in the world. Nobody considering z/Linux should try to do it without his products; they're that good and essential. He came up with the rule of thumb that 4 MHz of Intel is roughly equivalent to 1 MIPS of mainframe."
Man kan emulera en IBM mainframe mjukvarumässigt:
http://blogs.sun.com/jsavit/entry/once_again_mainframe_linux_...
"To put this in perspective: let's go back to the smaller, cheaper mainframes mentioned in the beginning. That is $95,000 for a single CPU rated at 28 MIPS, no disk, no operating system. Outstanding by the standards of traditional mainframe pricing years ago, but for perspective: I can emulate 30 MIPS of mainframe on my laptop using a program like Hercules, for a cost of maybe $1K or $2K. Let me say that again: I can use emulation software to pretend to be a mainframe - outperforming that $95K IFL despite a 50x or 100x performance hit due to using software to pretend to be silicon - and still outperform that "cheap" mainframe while spending only 1/50th the price."
Faktum är att IBM vägrar offentliggöra benchmarks för sina stordatorer. Och IBM är kända för att skryta när de har något bra, t.ex. de pratar hela tiden om sina "supersnabba" Power6 CPUer på 4.7GHz (där 3 såna maskiner med totalt 12 st Power6 får storstryk av en SUN maskin med 4 cpuer på 1.4GHz). Om nu stordator CPUerna som IBM ensamt utvecklar, skulle vara så extremt snabba att de motsvarar 1000 tals x86 CPUer, så skulle vi få höra det hela tiden. Jag menar att det kanske är bara reklam och marknadsföring? T.ex. säger IBM att en Power6 har typ 300GB/sek bandbredd, men det räknar IBM genom att addera alla komponenter i chippet! Cache bandbredd + minne + annat. Så kan man ju inte göra. Du kan inte överföra data snabbare än den långsammaste komponenten. Om det är 10GB/sek, så kommer du aldrig upp mera än 10GB/sek, och inte 300GB/sek som är den totala summan.
Det finns exempel på stora sajter som kört på stordatorer, och bytt ut allt mot en SUN maskin på 4 cpuer med gott om kraft över. En internet leverantör hanterar 1 miljard email i månaden, och bytte ut alla maskiner i sin backenda mot en Sun maskin T5440 med 4 cpuer. T5440 är på 4U och har 256 trådar, dvs Solaris listar 256 CPUer och Solaris skalar extremt bra, men det gör inte riktigt Linux, gränsen vår väl någonstans kring 16 core i praktiken:
http://blogs.zdnet.com/BTL/?p=8769
Visst finns stora Linux beräkningskluster, men de kan inte göra något annat än just tugga siffror. På vanligt OS arbete suger de.
Så det jag försöker säga är att det verkar som IBM stordatorer cpuer inte är så himla snabba. Vanliga större Unix datorer börjar komma ikapp och är förbi. En Quad Core x86 tror jag kommer ganska långt ikapp en IBM mainframe cpu i prestanda. Skillnaden är väl främst att en stordator har grym I/O kapacitet, de kan serva tusentals användare pga massa hjälp I/O cpuer. Men rent prestanda mässigt är en mainframe CPU kanske sämre än x86 CPU.
Som en IBM mainframe snubbe skriver:
"Jag tror att ett operativsystems (virtualiserat eller ej) beeteende vid hög utilisering(dålig svenska...) beror mer på operativsystemet i sig, och inte plattformen den kör på:
Windows, Linux = instabilt vid 80-100% utilisering
z/OS, z/VM, Solaris = stabilt vid 100% utilisering
(detta är givetvis en generalisering, men ändå...)"
Cableguy
Du kan inte adda en/flera diskar till din existerande ZFS raid än, utan de nya bildar en ny raid. Men SUN jobbar på denna funktion just nu, tror jag. Och att kunna minska antalet diskar med en i taget. Däremot kan du ta loss en disk, stoppa i en större och vänta tills ZFS återskapat all data. Sen tar du ut nästa disk och stoppar i en större och återskapar datat. Så gör du tills du klar med alla diskar. Då har du bytt ut diskarna mot större. Det är så jag ska göra. Jag byter ut mina 4 st 500GB mot 1TB eller 1.5TB.
Meto
Ja, ZFS har inbyggd raid. Och det är därför ZFS är så bra eftersom de bakat ihop allting till en enda enhet, på totalt 80.000 rader kod. Men alltså, det är extremt simpelt att ladda ned Opensolaris på 1 CD och prova sätta upp en ZFS raid själv hemma, prova med USB minnen. Och om det funkar bra med CIFS och allt annat, så är det bara att prova på jobbet. SUN tillåter att man lånar en dator gratis i 60 dagar. En "Thumper" med 48 st TB diskar ger 48 terabyte och skriver mer än 2GB/sek. Greenplum som är typ världens största databassystem med extremt massiva stora databaser, bygger hela sin lösning på såna Thumper maskiner. De är så billiga och det är ju ZFS i botten, vilken ger enkel admin. Annars går det inte att sköta många tusen maskiner lätt. Vem vill sitta med 20-30 kommandon i LVM när ett räcker i ZFS?
En video med ZFS och usb memory sticks demonstrerar fail hantering, mm:
http://video.google.com/videoplay?docid=8100808442979626078