Citat:
Ursprungligen inskrivet av jookeer
Har Apple kommit längre med ZFS än OpenSolarisversionen, isf hur?
OpenSolaris är ju gratis vilket passar oss fattiglappar som bygger hemmaservrar, antar att Apple Mac OS X kostar mer än det smakar?!
Hoppas jag har fel!
Vem driver utvecklingen av ZFS, Sun och/eller Apple, har hela tiden trott det var Sun och de andra, typ Apple, hänger på och anpassar till sina miljöer och därmed inte bidrager till kärnproduktens utveckling?!
Så, åter till min fråga, var kan man finna en roadmap för ZFS OpenSource?
Jag själv föredrar stabilitet och tekniska fördelar framför ett snygg gui, så jag föredrar ett serverOS som Solaris framför Apple OS X, trots att det är gratis och att jag är en fattiglapp. Om Solaris duger åt aktiebörsen, så duger det åt mig. Det jag gillar med Solaris är att det skalar bra. Man kan köra det på Asus EeePC, hemma servern och ända upp till megastora installationer där man driftar typ kärnreaktorer, aktiebörser, etc. Tänk om jag lärt mig Windows och sen måste jag börja jobba på aktiebörsen, då måste jag lära om från början med Solaris. Nu kör jag Solaris hemma, så jag slipper lära om, om jag måste jobba med riktigt seriösa installationer. Jag kan redan Solaris. På stora installationer är det oftast nån Unix variant.
Fast iofs så är både Apple och Solaris är Unix, så mycket är detsamma. Man slipper faktiskt lära om. Det vore skillnad om man bara kunde Windows, då skulle man börjat från noll om man går till Unix. Det vore inte bra, det är bra att kunna lite om alla OS, tycker jag själv.
(Om man vill läsa lite om Solaris så kan man läsa denna tråd. Mycket som står här, finns skrivet där. Men jag pratar även om SunRay, DTrace, Linux prestanda vs Solaris prestanda, och annat:
http://www.sweclockers.com/forum/showthread.php?s=&threadid=8... )
Angående ZFS så är det SUN som utvecklat det, och sköter all utveckling. Apple och FreeBSD har portat ZFS från Solaris, de båda har antagligen inte bidragit med mycket kod (om någon alls).
Angående roadmap så vet jag inte var det finns. Däremot vet jag att på ZFS mail listor, diskuteras att man ska kunna lägga till/minska diskar (på en grupp av diskar) i ett ZFS raid. Det pratas även väldigt löst om deduplicering(?), dvs många filer har ju mycket gemensamma data. T.ex. doc formatet, har alltid en header som ser ut på ett visst sätt. Då är det onödigt att lagra headern i varje doc fil. Det räcker att lagra bara en header. Så om en fil har en bitsträng, så slipper man lagra den bitsträngen i varje fil. Det räcker att en enda fil lagrar den bitsträngen, och alla andra filer pekar på bitsträngen. Alltså en form av automatisk komprimering. (Detta ska inte förväxlas med att en partition är komprimerad, det finns sedan länge i ZFS. Man säger att en partition ska komprimeras, och väljer komprimeringsmetod/algoritm-gzip? och allting man kopierar dit blir automatiskt komprimerat. Det finns vissa siffror som säger att man får snabbare överföringshastighet om man komprimerar datat därför att det går snabbare att läsa lite data från disk och packa upp det i det snabba RAMminnet, än att läsa mycket data från den långsamma disken)
Sen är det massa andra småsaker. Jag känner inte riktigt till allting som de vill lägga till i ZFS.
Yonkas,
Jag tycker det är strategiskt smart att Apple väljer ZFS. Apple slipper utveckla och underhålla koden själva, på en sån här komplex produkt. SUN testar ZFS riktigt ordentligt och det är extremt viktigt att testa kod och funktioner, men det tar mycket tid och resurser. Nu slipper Apple allt detta jobb som SUNs ZFS tester gör varje natt (flera år gammal info, nu är detta ytterligare förbättrat antagligen):
"Nightly “ztest” program does all of the following in parallel:
* Read, write, create and delete files and directories
* Create and destroy entire filesystem and storage pools
* Turn compression on and off (while FS is active)
* Change checksum algorithm (while FS is active)
* Add and remove devices (while pool is active)
* Change I/O caching and scheduling policies (while pool is active)
* Scribble random garbage on one side of live mirror to test self-healing data
* Force violent crashes to simulate power loss, then verify pool integrity
Probably more abuse in 20 seconds than you’d see in a lifetime
ZFS has been subjected to over a million forced, violent crashes without losing data integrity or leaking a single block "
Apples val av ZFS betyder även att man kan ta ett ZFS raid från Solaris och stoppa in i en Apple maskin, och tvärtom. ZFS lagrar endian neutralt, mao spelar det ingen roll om du kör Solaris på SPARC eller x86, FreeBSD eller Apple. Det är bara att ta ut diskarna och stoppa in dem huller om buller i den andra datorn och göra "zpool import" så är det klart. Detta är svårt att göra med HW raid. Båda datorerna måste utrustas med HW kort, och beroende på cpu arkitektur så lagras data olika pga big endian eller little endian. Med ZFS slipper man alla dessa strul. Behöver inte installera HW kort eller nånting.
Det är även smart att FreeBSD valt ZFS. Ju flera OS som har ZFS, desto kompatiblare blir vi alla. Som Unix användare är det strul att mounta andra filsystem, som NTFS och sånt. Drömmen vore att bara mounta på, oavsett vilket OS. Vi kanske kommer dit?