Hårdvaruraid vs ZFS, på hemmabygge?

Permalänk
Avstängd

3. Precis. Redundansen ligger i varje grupp. 2 diskar blir en liten grupp. Ett stort ZFS raid består av flera små grupper. Det vore inte bra att ha en ZFS raid med 40 diskar, och med bara en eller två diskar som redundans. Det är bättre med små grupper precis som du säger. Kanske runt 5-6 diskar? Så man vill antagligen inte ha fler än 5-6 diskar i en grupp. Därför att efter det, börjar redundansen bli lidande.

4. Nej det kan man inte.

emigrating12,
Nej, write back cache slås av har jag läst nånstans. ZFS första prioritet är säkerhet, säger SUN. Andra prio är prestanda. Det går inte att få säkerhet om write back cache är på. SUNs kunder är stora företag där inget får gå snett. De betalar mångmiljon belopp i USD till SUN, och väntar sig resultat. Och SUN bygger det som Enterprise kunderna vill ha. De kräver extrem säkerhet. Att inte tänka på write back cache skulle resultera i många klagomål. Så det hanteras korrekt av ZFS. Inga klagomål. Alla är nöjda.

EDIT: Lade till "antagligen inte ha fler än 5-6 diskar i en grupp"

Permalänk
Medlem

5. Hur är det om man i RAIDz tappar en disk pga tex glappande kontakt. Kommer den då att i timmar resynca/rebuilda/verifiera hela RAIDen efter det att den borttappade disken dyker upp igen?

6. Man kan expandera en RAIDz genom att byta ut diskarna en i taget med större diskar. Detta utökade området, kommer det in automatiskt i RAIDen som ledigt utrymme i filsystemet? I detta läget antar jag att hela RAIDen måste byggas om eftersom pariteten måste räknas fram på nytt?

Permalänk
Medlem

Problemet med grupper, för hemmabruk, är ju att man blir tvungen att köpa in 4-6 diskar varje gång man vill utöka lagringsplatsen eftersom man inte kan utöka en "array" utan bara lägga till en ny grupp till den virtuella disken. Att lägga till två diskar ger väldigt lite platsökning i förhållande till kostnaden - samtidigt blir det en relativt stor kostnad att lägga till 4 eller fler diskar varje gång. Catch 22 om du frågar mig.

Ok, så RAM minnet används då endast som en read cache - det vill då säga att write's till en zraid är tröga (jämfört med en HW kontroller med write back cache enabled)?

jookeer: Har du fortfarande problem med glappande kontakter? Köp dig ett (eller flera) 5-in-3 kabinett eller ännu bättre ett hotswap chassi

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

emigrating12,
länkar, tack!

7. När man bootar, var ligger infon om filsystemet tex Raidz, grupper, pooler etc..? Kan man ha flera kabinett med ett antal diskar bildandes pooler, grupper, Raidz, whatever, som man pluggar i och ur (inte hot-swap). Tänkte ev. sätta upp ett antal diskar i ett antal kabinett som man kopplar in vid behov och ha en och samma OS-disk. Dvs vad vet OS-disken om dessa kabinett? Jag vill att OS laddar infon om grupper, pooler etc från de diskar som är medlemmar. I Win med mjukRAID kan du flytta RAIDen till annat system, dvs Win känner bara till RAIDens struktur genom att läsa in denna från medlemsdiskarna. Antar/hoppas ZFS gör på samma sätt?!

Permalänk
Medlem

Länkar till? kabinett/chassi? Det är bara att kolla lite snabbt på f.ex. eBay så bör du hitta användbara interna 5-in-3 SATA kabinett för runt 500,- - med en lite större budget (typ 1500,-) kan du plocka upp helt chassi med 8 inbygda hotswap bays, eller ännu större budget 12/16/20/24/48 bay chassi med backplanes och allt som behövs.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Tänkte bygga externa kabinett som ställs på golvet bakom bakre kortsidan där jag har ett antal "shields"/bakplåtar med eSATA->SATA (kontakter/kablar) förbundna på insidan till mobots SATA-kontakter.

Pss kan man använda samma mobo/chassi/systemdisk till flera (men ej samtidigt) kabinett med diskar MEN då måste OS:et klara detta så det inte blandar ihop hur kabinettdiskarna är strukturerade när man byter.

Trött på/dyrt att köpa nytt chassi+PSU+mobo+CPU+RAM varje gång man skall drifta igång en ny array.

Permalänk
Medlem

One word; SAS

Då kan varje "enclosure" få sin egen ID och du kan mixa och matcha så mycket du vill utan problem. Det är klart, om din RAID lösning stödjer COD får du samma funktionalitet eftersom configurationen ligger lagrad på diskarna.

Men, vad slags budget har du för det här? Frågan är ju om det är billigare att bygga flera externa kabinett som kan bytas ut eller ett stort kabinett med flera ingångar som du kan byta emellan för att uppnå samma effekt.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Budget till hembyggda kabinett=2st masonitskivor och 2st 12cm fläktar per kabinett med 6 diskar. 100kr/kabinett.

Kontakter, 3st eSATA plåtar med 2st eSATAkontakter +2 kablar på eBay=3*80kr/st ink frakt=250Kr

KLART!

Va' e' COD?

Permalänk
Medlem

LOL, ok - nu börjar jag förstå varför du upplevde så mycket problem med glappkontakt till dina diskar Nejdå, det är klart, det borde fungera helt ok, men blir ju inte precis hotswappable då.

COD = Configuration On Disk.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Ja asså, jag kör bara hemmaservrar och avgör själv när/hur dom skall vara igång. Kan leva med att starta om vid behov isf online 24/7 utan driftsavbrott.

Permalänk
Avstängd

jookeer,

5. Jag har inte upplevt det själv, men på något sätt måste ZFS raidet repareras. En reparation kan ta lång tid om du är helt ur sync.

6. Det nya utökade området kommer automatiskt in i raidet.

7. Du kan ha flera olika ZFS raid. Du kopplar in en av dem, och skriver "zpool import" så kommer diskarna scannas igenom och importeras korrekt. Om du vill ta bort diskarna, skriver du "zpool export" så detachas raidet. Du kan nu koppla in ett annat ZFS raid och skriva "zpool import". etc. Eller så kan du ha flera ZFS raid inkopplade samtidigt förstås. Ingen montering behövs, "zpool import/export" räcker. Allt sköts automatiskt. Det funkar exakt på samma sätt om du kopplar in raidet till en annan dator.

emigrating12,
Det är sant, du kan inte öka med en disk i taget. Men den funktionen kommer som sagt.

Permalänk
Medlem

7. På sätt och vis kan man ju då säga att "zpool export/import" liknar mount/dismount eller attache/detache - det enda OSet lagrar är väl namnen och möjligen en del andra attribut för att definiera zpoolerna.

Om du flyttar en zpool till en ny konfiguration/server räcker det då med "zpool import xxx" eller skall man först definiera vad xxx består av?

8. Kanske jag har missat en tjock fet manual med 100-tals kommandon för att hantera alla detaljerna med ZFS? Eller så är det enklare än jag begriper.

9. Sedan väntar vi alla på ryktena om att det skall komma en funktion för att utöka en zpool RAIDz med fler diskar. Detta är ju en "vill ha nu på-en-gång"-funktion eftersom vi alla förr eller senare vill utöka våra arrayer. Trist bara att ingen tycks veta NÄR?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jookeer
7. På sätt och vis kan man ju då säga att "zpool export/import" liknar mount/dismount eller attache/detache - det enda OSet lagrar är väl namnen och möjligen en del andra attribut för att definiera zpoolerna.

Om du flyttar en zpool till en ny konfiguration/server räcker det då med "zpool import xxx" eller skall man först definiera vad xxx består av?

8. Kanske jag har missat en tjock fet manual med 100-tals kommandon för att hantera alla detaljerna med ZFS? Eller så är det enklare än jag begriper.

9. Sedan väntar vi alla på ryktena om att det skall komma en funktion för att utöka en zpool RAIDz med fler diskar. Detta är ju en "vill ha nu på-en-gång"-funktion eftersom vi alla förr eller senare vill utöka våra arrayer. Trist bara att ingen tycks veta NÄR?

7. Det räcker med "zpool import"-kommandot

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Avstängd

Jookeer,

8. SUN har mycket bra dokumentation på alla sina produkter, Solaris, ZFS, Java, DTrace, etc. Ganska typiskt stora Enterprise företag.
http://docs.sun.com/app/docs/doc/819-5461?l=en

Kort kan sägas att det finns två kommandon: zpool och zfs. Om du vill göra något med ZFS raidet, så använder du zpool. Typ:
zpool create
zpool destroy
zpool import
zpool export
zpool status
etc. Det är väldigt enkel syntax. Det tillkommer lite fler args på vissa rader ovan. T.ex. skapa en raid:
zpool create myRaidTjolahopp disk0 disk1 disk4 disk7

Om du vill göra något med partitionerna, dvs filsystemen, så använder du zfs:
zfs list
zfs create
zfs destroy
zfs status
zfs snapshot
etc.

Det är i stort sett det. Det tillkommer lite args oxå ibland. Här är en liten kort sammanfattning av några kommandon, på sid 32 och framåt.
http://opensolaris.org/os/community/zfs/docs/zfs_last.pdf

Så jag tycker ZFS är extremt enkelt att använda, tack och lov. Ingen formatering eller nåt sånt. Bara tuta och köra. Simpelt.

9. Att utöka eller minska en ZFS raid finns på önskelistan av funktioner som ska in i ZFS, säger SUN. Men det är en lågprioriterad funktion, eftersom stora Enterprise företag aldrig krymper raid. Det är bara småkunder och privatpersoner som är intresserad av sånt. Mao, jag tror man inte ska vänta på den funktionen. Det kan alltså ta flera år i värsta fall. Isåfall är det nog bättre att köra HW raid som klarar av sånt.

Permalänk
Medlem

Tack igen för bra info - Enklare än jag insett.

10. Nån "papperskorg" med borttagna filer, som Win har, finns inte? Å andra sidan överskrivs inte det man tar bort omedelbart, antar det finns ett kommando för att återvinna borttagna data alternativt tar man en snapshot innan rensning. All data i snapshots ligger ju låst och kan inte tas bort, antar det finns kommando för att rensa bland gamla snapshots, ett sätt att rensa bort gammalt skit?

11. Händer det att man av någon outgrundlig anledning får korrupta data och därmed har anledning att verifiera/konsolidera (jfr Win chkdsk /r /f) filsystemet? Defrag för att samla ihop utspridda filer finns inte heller trots att det kan behövas? Filräddningsprogg, typ GetDataBack finns väl inte heller?

Permalänk
Avstängd

Jo, ZFS är extremt enkelt. Det är en av de riktigt stora fördelarna faktiskt och ett stort skäl till varför alla som provar ZFS aldrig vill gå tillbaka till de gamla krångliga raid systemen, "varför har jag inte provat ZFS förrut?". Det är många som skriver att ZFS är så enkelt och man blir så produktiv. Man skriver ett simpelt kommando så är det klart och funktionen är igång och kör. Inget underhåll. Allt sköter sig själv. Fire and forget. ZFS är ju till för administrera många många hårddiskar och feta raid, då måste det vara simpelt.

T.ex. aktivera iSCSI:
zfs set shareiscsi=on myZFSraid/myfilesystem
Så är det klart. Mycket enklare blir det inte?

(Denna information om iSCSI nedan, är tagen från denna OpenSolaris tråd:
http://www.sweclockers.com/forum/showthread.php?s=&postid=886... )

För de som missat iSCSI, det är ganska häftigt: iSCSI tillåter att man skapar en ZFS partition (dvs filsystem) och delar ut över LAN/internet. En Windows PC upplever det som att man kopplat in en vanlig SCSI disk rätt in i PCn. Så då kan PC formatera den ZFS partitionen med vanliga NTFS och använda den rakt av som en vanlig hårddisk.

Man kan även installera olika Windows/Linux och boota direkt från iSCSI disken. Windows maskinen behöver alltså ingen hårddisk. Den kör allt över nätverket. Om du har GBit nätverk så når Vista runt 90MB/sek över nätverket, rapporterar Ronnylov för sin ZFS server. Om din ZFS raid når 300MB/sek så kan du serva 3 Windows maskiner a 90MB/sek utan hårddiskar, tror jag? Jag hoppas prestandan blir bra?

Detta funkar även till VMware esxi. Den kommer åt iSCSI diskarna.

Så du får alltså ZFS underliggande allt, Windows märker inte att NTFS kör ovanpå ZFS. Detta betyder att du har alla ZFS funktioner och säkerhet såsom t.ex. snapshot. Du installerar Windows XP och snapshottar den. Sen klonar du upp den på 1 sek och delar ut till varje familjemedlem. Sabbar nån sin installation, så raderar man klonen och skapar en ny klon. Tar en sekund. Mastern går inte att ändra på.

Det finns länkar med mer info i tråden ovan, om man vill se hur man gör detta. Funkar även till Linux.

10. Det finns en papperskorg.

Du kan radera snapshots. Men resultatet kan bli oväntat om du raderar ett snapshot mitt i. Antag att du har snapshottat 1000 ggr på samma partition, och du vill radera snapshot nr 400, jag vet inte hur bra det kommer att gå eftersom kanske snapshot nr 401 är identisk med snapshot nr 400. Knappt något har ändrats, mellan de båda snapshotsen. Om du raderar nr 400, så kommer nr 401 vara kvar - med all data. Så du har alltså inte raderat några data i praktiken, eftersom du har andra snapshots som använder sig av datat. Det är ju självklart, om nr 401 använder datat, så kan du inte radera bort datat.

Det jag försöker säga är att om du raderar en snapshot, så kanske du inte frigör utrymme alls. Om du verkligen måste frigöra utrymme, så bör du isåfall kopiera all data till en annan partition/filsystem och radera snapshot nr 400 och framåt. Då frigör du utrymme.

Och när du raderat data så är det borta, tror jag. Det finns inte många jättemånga verktyg för Unixar som återskapar data. Eftersom Unix är fleranvändarsystem. Om någon raderar, så är nån annan där och skriver över med nya data. Ok om Unix vore single user. Då kan man återskapa data. Men Solaris är ju ofta för att drifta stora saker med många användare.

11. Ja, det händer att du vill verifiera dina data. T.ex. jag kopierade alla data från min gamla ZFS raid till min nya. Efter kopieringen ville jag kontrollera det nya ZFS raidet, efter fel. Då använder man kommandot zpool scrub. scrub är som chkdsk, men du kan använda raidet under tiden. scrub kommer att scanna igenom alla data och kontrollera checksummorna och reparera om det behövs. Det kollar bara existerande data, om raidet är tomt, så blir den klar direkt eftersom det inte finns data att kolla. Jag kollade 3 TB data igår, det tog typ 7 timmar. När jag skapade raidet så scrubbade jag direkt efter, då blev den klar på några sekunder eftersom raidet var tomt. SUN rekommenderar att man scrubbar typ varannan vecka om man kör intensivt. Jag kör inte intensivt så jag scrubbar en gång var 3de månad.

Defrag finns inte än, vad jag vet. Men det jobbas på funktionen för att minska på antal diskar eller utöka antal diskar i en raid. För att kunna göra det, så måste ZFS supporta en funktion som inte finns just nu, men den funktionen jobbas på och kommer nån gång 2009 preliminärt. Den funktionen kommer att tillåta massa saker; lägga till diskar, defragga online utan problem. etc. Men frag är inte ett jättestort problem på ZFS, eftersom när du skriver dit data, så kommer all data skrivas ned, och sist så flyttas pekaren. Så en skrivning blir en atomär operation. Men det kommer komma många fler funktioner. ZFS är inte som ett raid bios, där du kan vara lite begränsad i antal funktioner.

Permalänk
Medlem

iSCSI är ju inte precis en ZFS feature då det finns iSCSI target (och initiator) software till de allra flest operativsystem, men det är mycket bra oavsett

Att serva 3 windows maskiner a 90MBps var kommer ju bara att fungera om du har 3 GbE kort eller ett 10Gbps kort i server'n - annars kommer ju nätkortet flaskhalsa det hela.

OT: Någon som vet om det finns någon som helst VM host software som kan ge native hardware access (PCI, PCI-e, Firewire etc) till en gäst? Hyper-V och ESXi gör det inte vad jag har kunnat rota fram, andra alternativ?

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Asså, du kan väl inte ha Win systempartition på en fjärrdator via iSCSI, hur sjutton kan du tala om för Win när du installerar att den skall använda en LAN-systemdiskpartition?!

12. Hoppas jag har fel, isf hur installerar du Win till ett iSCSI device? Swappa över LAN?

Permalänk
Medlem

Jodå det kan man, det blir ju inte en LAN station på det sättet - Windows ser iSCSI enheten som en lokalt inkopplad disk.

12. Precis som du installerar normalt sett - tryck bara F6 under installationen för att ladda iSCSI drivare.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Permalänk
Medlem

Det finns olika sätt - om ditt moderkort har specifict iSCSI stöd så ja, om inte måste du till med en drivare och fortfarande ha en bootable enhet i boxen (f.ex. en USBkey).

Tror endast det är server hårdvara som har iSCSI i bios?

Egentligen ser jag ingen fördel med att köra systemdisken över iSCSI [för hemmabruk], men till lagring däremot... Jävla smidigt.

Se förövrigt här för lite mer info. Bör också gå att köra en network boot som handar över systempartitionen till iSCSI (altså vanlig network boot, med en iSCSI bootbios).

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

OK - får labba med det senare.

Just nu har jag prob med OpenSolaris på ytterligare en burk, NF7-S, nforce2, inga drivare till NICen och SiL3112. Mycket vanlig hårdvara men inga drivisar!

13. Var hittar man drivare till OpenSolaris om de inte finns med på distCD'n?

Provade därefter med FreeBSD men hamnade i en rackarns massa detaljer om hitan och ditan, allt i textmode, hur svårt kan det bli att få upp en burk att köra ZFS på?

EDIT: Provade ytterligare en burk i maskinparken ett DFI nf4 Ultra. OpenSolaris LiveCD hittade alla SATA (nv_sata) och PATA samt nVidias egen NIC, CK804, Marvell NICen hittades inte.

KAN DET HÄR VARA NÅT ATT BYGGA PÅ?

Jag är helt övertygad om att det kommer att bli av problem, vill veta vilka de värsta är innan jag sätter igång.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

Man kan även installera olika Windows/Linux och boota direkt från iSCSI disken. Windows maskinen behöver alltså ingen hårddisk. Den kör allt över nätverket. Om du har GBit nätverk så når Vista runt 90MB/sek över nätverket, rapporterar Ronnylov för sin ZFS server. Om din ZFS raid når 300MB/sek så kan du serva 3 Windows maskiner a 90MB/sek utan hårddiskar, tror jag? Jag hoppas prestandan blir bra?

Detta funkar även till VMware esxi. Den kommer åt iSCSI diskarna.

Så du får alltså ZFS underliggande allt, Windows märker inte att NTFS kör ovanpå ZFS. Detta betyder att du har alla ZFS funktioner och säkerhet såsom t.ex. snapshot. Du installerar Windows XP och snapshottar den. Sen klonar du upp den på 1 sek och delar ut till varje familjemedlem. Sabbar nån sin installation, så raderar man klonen och skapar en ny klon. Tar en sekund. Mastern går inte att ändra på.

Det finns länkar med mer info i tråden ovan, om man vill se hur man gör detta. Funkar även till Linux.

90 MB/s med Vista-klienten var med CIFS, jag har inte testat med iSCSI ännu. Mycket riktigt är det gigabit nätverket som begränsar så det blir ju fördelat till alla datorerna, typ 30 MB/s om 3 datorer hämtar filer samtidigt. Jag har 5 diskar i RAIDZ1 så även om prestandan kanske är 300 MB/s på servern (vet inte har inte testat det) så är det nätverkskortet som flaskhalsar samt hårddiskarna på klientdatorerna. Eftersom mina klientdatorer inte har så mycket snabbare hårddiskar än vad gigabitnätverket kan leverera så behöver jag inte snabbare nätverk ändå.

Permalänk
Avstängd

Jookeer,
Det låter som det kan vara något. Släng in en 120GB IDE disk och provinstallera? Angående NICs, så kan man köpa ett billigt 100MBit PCI-kort för 50 kr. Fast med de hastigheter raid kommer upp i, så kanske det är bättre med ett GBit kort.

Ronnylov,
Ah fan. Glömde att det var med CIFS du testat med. Kanske blir iSCSI ganska snabbt, eftersom datorn tror det är en vanlig SCSI disk. Och scsi diskar är ganska snabb teknologi?

Eftersom ditt nätverk flaskhalsar och du har ett kompetent raid, så kanske du borde köpa ett till 1GBit NIC kort? Jag tror det är billigare att köpa ett till 1GBit än köpa ett 10GBit kort. Fast, det kanske inte behövs om du har få klient datorer. Fan, nu får man själv uppleva varför 10GBit kort är nödvändigt i servrar.

Här är lite mera iSCSI info
http://blog.juhonkoti.net/2008/06/29/sharing-iscsi-volumes-fr...

Permalänk
Medlem

Vi har 5 stycken klientdatorer hemma så det är väl ytterst sällan mer än 1-2 stycken i taget använder filservern samtidigt så än så länge får det räcka med enkelt 1 Gbit/s nätverkskort.

Enligt senna länk ska man genom att modifiera windowsregistret kunna komma upp i 90-100 MB/s med iSCSI över gigabitnät i WindowsXP.
http://blogs.sun.com/constantin/entry/x4500_solaris_zfs_iscsi...
Framgår inte om registerändringen kanske sabbar annan nätverkstrafik?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
...Fan, nu får man själv uppleva varför 10GBit kort är nödvändigt i servrar...[/url]

Haha, jag försökte förklara detta för dig ang. RAID, min server och diverse virtuella maskiner för ett tag sedan

Ang. iSCSI hastighet så menar jag komma ihåg att ren diskprestanda ligger ~30% snabbare än om disken skulle vara utdelad på nätverket - det spelar ju egentligen liten roll om en share i sig saturerar nätverket, men låt säga att man lyckas få ut 200MB/s över en 10GbE link, då borde man klara 260MB/s om den var iSCSI-fierad.

Iallafall, jag hade hoppats du [saddam] ville komma med ett svar på min VM / native hardware fråga? Eller har du ingen koll på sådant? Kunde tänka mig att köra upp en Solaris server som en VM, men då måste jag på ett eller annat sätt få tillgång till den ena SAS kontroller'n i gäst OSet (annat än RAW shares).

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd

Ronnylov,
I den länken så modifierar de Windows registret för att få snabbare överföring. Men de verkar prata om Win2000 och W2003? Jag vet inte om det gäller även för WinXP och Vista?

emigrating12,
Jaja, jag har inte sysslat lika mycket med servers som du har. Jag förstår inte riktigt allt du försöker säga, som du kanske märkt. Hela min hemma server kostar lika mycket som en enda av dina SAS diskar, typ.

Menar du att man får kanske 30% snabbare med iSCSI? Coolt.

Angående om du kommer åt SAS, så vet jag inte alls. Jag har inte koll på såna saker. Vet inte ens om det är möjligt. Men, samtidigt, Solaris är ju först och främst ett ServerOS, mycket kompetent inom stora miljöer och virtualisering. Solaris har ju stött virtualisering mycket länge. Så man tycker ju att det borde gå.

Solaris har flera virtualiseringslösningar, bl.a. VirtualBox, Ldoms (som bara funkar på SPARC) och Zones som är ZFS kloner som jag berättar om i OpenSolaris tråden i Linux avdelningen. Men den Solarislösning som kan vara aktuell här heter xVM och bygger på XEN. Jag vet inte så mycket om sånt här, men här finns en FAQ samt en liten video som visar xVM GUI och annat:
http://www.sun.com/software/products/xvmserver/index.xml

artikel om xVM
http://techworld.idg.se/2.2524/1.144915

wikipedia
http://en.wikipedia.org/wiki/Sun_xVM

Permalänk
Medlem

Slänger in en snabb fråga om OpenSolaris, kan man läsa från NTFS och EXT3 utan massa krångel?

Har nämligen data på NTFS och EXT3 partitioner som jag funderar på om jag ska migrera över till ZFS.

Permalänk
Avstängd

Enligt mina erfarenheter så blir det krångel. Man kan mounta NTFS och ext3, men det har strulat för mig. T.ex. när jag mountade NTFS så fick jag typ 2MB/sek. Men det finns folk som det gått bra för.

Det problemfriaste är kanske att stoppa in diskarna i en annan dator, via USB(?) och föra över via samba eller nåt sånt. När man installerar OpenSolaris, så kommer den atuomatiskt detektera alla Windows maskiner och sätta upp samba åt dig. Så det är bara att dubbelklicka på "nätverkshanteraren" så kommer du åt de andra Windows maskinerna.

OpenSolaris kan läsa FAT32, så om du kan skapa en FAT32 partition och flytta över datat lite i taget, så kan det funka.

Permalänk
Medlem

@saddam; Nja, inte helt vad jag var ute efter Jag kan inte (av diverse orsaker) byta "host" operativsystemet ifrån Windows Server 2008. Det jag eventuellt kan göra är att flytta mina existerande Hyper-V maskiner till en annan "platform" typ VMWare eller XEN - men de måste altså stödja Intel's VT-d teknologi fullt ut så jag kan "dela ut" en individuell PCI-e port el. liknande till "gäst" systemet. Varken VMWare/ESXi eller Hyper-V kan detta (efter vad jag funnit). Jaja, får la fortsätta googla det

Men ja, om jag kommer ihåg rätt så var det en hel del tester på iSCSI hastighet och den låg då ~30% över ren nätverksdelning. Kommer inte ihåg om detta var under Linux SMB dock, i vilket fall det är värdelös data eftersom SMB inte är spec snabbt ändå.

Det som kan vara interessant är att köra ZFS som filsystem på min HW RAID kontroller. Då får jag fortfarande all parity beräkning gjord av dedikerad hardware men säkerheten som ZFS erbjuder. Men som sagt, då måste det gå som en virtuell box på något sätt.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]