OpenSolaris 2008.11 är här!

Permalänk
Avstängd

Ska du inte köra hemma, utan på ett företag så är det nog Solaris 10 som ni bör titta på. OpenSolaris är supportad, men OpenSolaris är inte lika stabil som S10. SXCE är inte ens beta, det är snarare alfa version. Men den använder Solaris kernel, så den är antagligen mycket mera stabil än de flesta andra OS. Det finns sajter som kör SXCE i produktion och har gjort det länge, t.ex. opensolaris.org har kört SXCE sedan build 67 tror jag. OpenSolaris kommer varje halvår, SXCE släpps varannan vecka. Jag tror faktiskt det är hugget som stucket mellan SXCE och OpenSolaris. Så det beror nog på vilka krav ni har. Ska ni drifta något som inte får gå ned, t.ex. aktiebörsen så är det S10 som gäller. Är det inte aktiebörs krav så tror jag det går precis lika bra med OpenSolaris som SXCE.

I alla tre kan man leka med Zones. Här är en guide hur man installerar en webserver i en Zone:
http://blogs.sun.com/blogfinger/entry/how_to_add_a_solaris

Permalänk
Medlem

Jag antar att det finns gnome desktop i nexenta också?
Dock har jag inte testat den som kom nu den 20e, men sist har jag alltid fastnat på att jag aldrig fått in nåt grafiskt.. och det är det som det hänger på om jag ska ta mig över från Ubuntu till Nexenta.. behöver utbudet som ubuntu ger, så en medelväg blir Nexenta.

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Jag har nu satt ihop mitt nya OpenSolaris 2008.11 system som ska bli min nya filserver.
Hårdvarumässigt var det inga märkvärdigheter:
http://prisjakt.nu/minsida.php?a=ronnylov&j=537121
Samt dessutom två stycken 250 GB samsungdiskar från gamla servern (en IDE och en SATA),
en 5,25-tums till 3,5-tums hårddiskadapter, DVD-läsare (IDE), floppydisk samt 4 stycken extra SATA-kablar.

Första problemet var att jag inte kunde komma åt mina SATA-diskar men det löste sig genom att ändra inställningarna för SATA från AHCI till IDE-kompatibelt läge i BIOS-inställningarna. Det verkar vara något problem med ATI SB700 sydbryggan och AHCI i OpenSolaris. Eftersom prestandan ändå inte påverkas så mycket så kör jag på IDE-kompatibelt läge tills vidare. Sedan var det klurigt att skapa en spegling (ungefär som RAID1 i ZFS) av boot-disken men hittade en lösning på detta:
http://darkstar-solaris.blogspot.com/2008/09/zfs-root-mirror....

Efter att följt denna guiden funkade det underbart bra med root mirror i OpenSolaris! Jag testade koppla ur en av hårddiskarna och systemet startade utan problem utan att jag behövde göra något alls. Kopplade tillbaka den, körde en scrub (vet inte om det behövs) och sedan zpool clear och mirror-konfigurationen var OK igen:

ronny@filserver:~# zpool status rpool
pool: rpool
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror ONLINE 0 0 0
c3d0s0 ONLINE 0 0 0
c4d0s0 ONLINE 0 0 0

errors: No known data errors
ronny@filserver:~#

Hårddiskarna har annorlunda benämningar än i t.ex. Linux men man kan lista dem med format och sedan avbryta med Ctrl-C:

ronny@filserver:~# format
Searching for disks...done

AVAILABLE DISK SELECTIONS:
0. c3d0 <DEFAULT cyl 30397 alt 2 hd 255 sec 63>
/pci@0,0/pci-ide@14,1/ide@0/cmdk@0,0
1. c4d0 <DEFAULT cyl 30398 alt 2 hd 255 sec 63>
/pci@0,0/pci-ide@11/ide@0/cmdk@0,0
2. c4d1 <WDC WD10- WD-WCAU4166876-0001-931.51GB>
/pci@0,0/pci-ide@11/ide@0/cmdk@1,0
3. c5d0 <WDC WD10- WD-WCAU4156093-0001-931.51GB>
/pci@0,0/pci-ide@11/ide@1/cmdk@0,0
4. c5d1 <WDC WD10- WD-WCAU4166871-0001-931.51GB>
/pci@0,0/pci-ide@11/ide@1/cmdk@1,0
5. c6d0 <WDC WD10- WD-WCAU4167110-0001-931.51GB>
/pci@0,0/pci-ide@14,1/ide@1/cmdk@0,0
6. c6d1 <WDC WD10- WD-WCAU4167074-0001-931.51GB>
/pci@0,0/pci-ide@14,1/ide@1/cmdk@1,0
Specify disk (enter its number): ^C
ronny@filserver:~#

Sedan har jag skapat min RAIDZ på följande vis:
ronny@filserver:~# zpool create tank raidz1 c4d1 c5d0 c5d1 c6d0 c6d1

Körde en scrub (för att kolla fel):
ronny@filserver:~# zpool scrub tank

Kolla status:
ronny@filserver:~# zpool status tank
pool: tank
state: ONLINE
scrub: scrub completed after 0h0m with 0 errors on Sat Dec 27 01:13:10 2008
config:

NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c4d1 ONLINE 0 0 0
c5d0 ONLINE 0 0 0
c5d1 ONLINE 0 0 0
c6d0 ONLINE 0 0 0
c6d1 ONLINE 0 0 0

errors: No known data errors

Kolla det "råa" utrymmet på diskarna:
ronny@filserver:~# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
rpool 232G 4,92G 227G 2% ONLINE -
tank 4,53T 159K 4,53T 0% ONLINE -

Kolla utrymme i filsystemet:
ronny@filserver:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
rpool 6,79G 222G 75K /rpool
rpool/ROOT 2,98G 222G 18K legacy
rpool/ROOT/opensolaris 8,35M 222G 2,73G /
rpool/ROOT/opensolaris-1 2,97G 222G 2,74G /
rpool/dump 1,87G 222G 1,87G -
rpool/export 64,2M 222G 19K /export
rpool/export/home 64,2M 222G 19K /export/home
rpool/export/home/ronny 64,2M 222G 64,2M /export/home/ronny
rpool/swap 1,87G 223G 16K -
tank 120K 3,56T 28,8K /tank
ronny@filserver:~#

Som synes på rpool så har jag bara halva utrymmet på mina två 250 GB-diskar eftersom set är en mirror och de fem terabyte-diskarna monterade i /tank ger 3,56T användbart utrymme när redundansen är borträknad. ZFS verkar jättebra, enkelt att administrera jämfört med raid i Linux och det går snabbt att skapa arrayer och filssystem.

Så allt ser väl bra ut så här långt. Nu ska jag klura ut hur man flyttar /home från rpool till tank och hur man sedan delar ut allting via CIFS eller Samba. När det gäller strömförbrukningen har jag undervoltat litegrann och kör på 2,0 GHz istället för 2,5 GHz och då drar datorn 84 Watt från vägguttaget med alla hårddiskar inkopplade och snurrandes, men utan någon belastning. Är väl OK strömförbrukning med 7 stycken hårddiskar i datorn tycker jag. Jag är jättenöjd än så länge!

EDIT 2009-01-07: På grund av stabilitetsproblem med inbyggda nätverkskortet på moderkortet vid hög belastning (överföringar av filer på tiotals gigabyte och hastigheter uppåt 90 MB/s) så har jag köpt till intel pci-express gigabit nätverkskort vilket löste problemen (se uppdaterad produktlista på prisjakt).

Permalänk
Avstängd

Shysst! Bra how-to tycker jag. Din strömförbrukning är väldigt bra, det är inte lätt att komma ned till 84 watt! Och jag ser att du bara använder std komponenter. Bra val. Vore även kul att få veta prestanda lite senare.

scrub är Solaris motsvarighet till fsck. Skillnaden är fsck bara kontrollerar metadatat, den kontrollerar inte själva datat på diskarna. Så fsck reparerar bara metadatat. Och medan fsck körs, så kan du inte använda diskarna. Du måste vänta. Att fsck en stor Terabyte raid tog en vecka. De borde alltså istället återställt från backup.

scrub går igenom hela raidet och kontrollerar alla data och alla metadata och allting, och för varje checksumma kontrolleras att siffran är korrekt. Så fort du gör en läsning eller skrivning räknar ZFS fram en checksumma, som sparas på en helt annan disk så allt kan återställas om något blir knas. Om checksumman inte är korrekt så repareras den och Solaris rapporterar felet, vilket du ser i scrub outputen. Ju mer data du har, desto längre tid tar scrub. Har du inga data alls, tar scrub ingen tid. Man brukar rekommendera att köra scrub en gång i månaden. Du kan använda ditt raid utan problem, under tiden du gör en scrub - men just nu i denna version av ZFS kan du inte ta snapshots samtidigt. Tar du en snapshot, så startar scruben om från början. Att scrubba 1 TB tar typ 3 timmar för mig. Varje gång jag uppgraderar Solaris kollar jag om jag kan uppgradera ZFS till senaste, och kör dessa båda kommandon (det tar en sekund att uppgradera till senaste ZFS versionen med alla nya funktioner)
#zpool upgrade
#zfs upgrade

Själv kör jag /export/home på rpool. Därför att /export/home blir fragmenterad och det är mycket skrivning och experimentering med oviktiga saker. Det jag istället gör, är att använda /tank som backup. När jag lekt färdigt på /rpool och fått projektet färdigt, så kopierar jag till /tank. Eftersom du speglar boot (dvs /rpool) så är dina data säkra utan att du måste flytta till /tank. /rpool är alltså slask för mig. Själv har jag inte speglat boot, eftersom jag kör ZFS där och ZFS fixar alla fel och varnar i god tid innan det blir mer seriösa fel. Dessutom uppgraderar jag till nya Solaris versioner med clean install och hela boot raderas då, så jag anser verkligen boot vara slask. Jag tycker det är viktigt att /tank är ren och snygg och inte fragmenterad. Själva Solaris tar ju typ 3-4GB på installationsdisken, så jag har massor av utrymme över för /home. Det utrymmet räcker. Jag vill helst ha en slask partition som man kan fragmentera och misshandla och sen flytta viktiga data till /tank som är för mer permanent lagring. På /tank ändrar jag inte så mycket. Det som är där, det är där. Typ. Så när jag tankar ned saker via DC++ och Wine så hamnar allting i /rpool och när jag ser att filen funkar bra, så flyttar jag den till /tank och sorterar in den på rätt ställe.

Jag vet dock att när du skapar en användare så får du ange hans hemkatalog. Kan du inte prova att ange /rpool som hemkatalog?

Angående sätta upp CIFS:
http://blogs.sun.com/icedawn/entry/bondin

Angående sätta upp Samba:
http://blogs.sun.com/observatory/entry/accessing_windows_shar...

Jag tycker CIFS är enklare att sätta upp. Jag brukar använda det för VirtualBox. Jag installerar Windows XP i VB och för att dela kataloger mellan Solaris och Windows, så går jag via CIFS. Just nu funkar inte "shared folders" funktionen i VB för Solaris. Då får du gå via CIFS eller Samba istället.

Sen när du fått upp allting bra, så måste du prova köra tunna klienter SunRay! Det är fan det absolut häftigaste teknologin SUN har. Då kan du koppla in 10 st SunRay och dela ut till folk (via LAN eller via internet), etc och det märks inte om du sitter framför din Solaris server eller om du sitter framför en SunRay. Kanske ha en SunRay på landsstället, som ger dig direkt access till din server? De drar ungefär 300kbit/sek bandbredd för optimal användning. De finns trådlösa, via 3G.

De kostar 2000kr/st (40USD på Ebay för gamla modeller) och går inte att uppgradera. De har ingen CPU eller RAM. Du uppgraderar istället servern, så har varje SunRay uppgraderats i prestanda. Alla andra tunna klienter på marknaden har en klen CPU (typ 1GHz) och RAM (256MB) och du måste installera OS på dem och patcha och underhålla - och kraften räcker knappt. Om 10 år, så duger inte de klienterna för 1GHz/256MB är för lite. Men SunRay använder serverns CPU och RAM, så de kommer alltid duga - kraften räcker alltid till. En investering för livet. MTBF är 22 år. De väger 385gram, stor som en VHS kassett. Ingen fläkt eller rörliga delar. Du kan ha 10 st i en kartong och när du behöver en ny arbetsplats, så kopplar du in en i huben/routern och vips så får du upp en inloggningsruta. Skapa konto för den nya medlemmen, så är allting klart. Användaren kan köra Windows via VirtualBox, eller Linux, eller OS/2, eller Apple OS X (med licensnyckel och hack, läs på forumet). För SunRay behöver du lite mera CPU dock, som drar ström. Men det är ok, du stänger ned alla andra datorer, och du tjänar på det eftersom varje SunRay2 drar 4 watt. Säg att du har igång 4 datorer hemma som varje drar 100 watt, det blir 400 watt. Säg att du har 5 SunRay2 istället, då drar servern 150 watt + 5 x 4watt = 170 watt. Då kommer alla åt MP3 biblioteket på din feta ZFS raid, och datat är helt säkert. SunRay är faktiskt ascoolt. Drar inte mycket CPU. Har man en fet quad cpu så kan man driva runt 30 st SunRay. I framtiden kommer nya CPUer så SunRay parken blir bara snabbare, när man uppgraderar CPU. Och det är billigare att köpa en SunRay för 2000kr, än köpa en helt ny dator som man måste installera OS på, och patcha och ha sig. Och datorn blir ju omodern efter några år. SunRay kraften är densamma som serverns, den räcker alltid till. Istället för att köpa flera olika datorer, kan man satsa alla pengar på en enda fet server istället så uppgraderas alla SunRay samtidigt.

Permalänk
Medlem

Har någon av er kört in nåt grafiskt under Nexenta?
Jag skulle faktiskt vilja migrera över till ZFS men vill helst inte göra det med nån FUSE-lösning i Linux.

Hittar ingen vettig guide på hur man sätter upp en Nexentaburk nånstans :/

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ronnylov
Så allt ser väl bra ut så här långt. Nu ska jag klura ut hur man flyttar /home från rpool till tank och hur man sedan delar ut allting via CIFS eller Samba. När det gäller strömförbrukningen har jag undervoltat litegrann och kör på 2,0 GHz istället för 2,5 GHz och då drar datorn 84 Watt från vägguttaget med alla hårddiskar inkopplade och snurrandes, men utan någon belastning. Är väl OK strömförbrukning med 7 stycken hårddiskar i datorn tycker jag. Jag är jättenöjd än så länge!

Är det inte bara att göra en länk/genväg/ompekning mha "ln -s" som man gör i Linux?
ln -s /home /tank/home

Visa signatur

01001000 01100001 01110010 00100000 01100100 01110101 00100000 01110100 01110010 10000110 01101011 01101001 01100111 01110100 00111111 00100000 00111010 00101001

Permalänk
Medlem

Förstår inte riktigt hur du menar, har du flera olika storage pooler och du vill flytta filsystemet till den andra poolen eller vill du bara ändra sökvägen filsystemet monteras på?

Hänvisar till http://dlc.sun.com/pdf/819-5461/819-5461.pdf oavsett

Visa signatur

Networking geek, #28735

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Schrimp
Har någon av er kört in nåt grafiskt under Nexenta?
Jag skulle faktiskt vilja migrera över till ZFS men vill helst inte göra det med nån FUSE-lösning i Linux.

Hittar ingen vettig guide på hur man sätter upp en Nexentaburk nånstans :/

Jag förstår inte riktigt din fråga. Hur då "sätta upp en burk"? Menar du installera? Eller konfa? Eller hur menar du?

Här är lite info om den senaste Nexenta, som tydligen är samma build av SXCE som OpenSolaris kör:
http://www.opensolaris.org/jive/thread.jspa?threadID=86624&ts...

Och i nästa build av SXCE, b105, så kommer Crossbow! Det verkar riktigt grymt. Används för att virtualisera nätverk. Bra när man kör virtuella maskiner, eller för testing av nätverkssetup:
http://opensolaris.org/os/project/crossbow/
http://blogs.sun.com/sunay/

TWAN,
Jag tror det blir problem. Man måste sätta mount points på ett korrekt sätt och så. Det räcker inte att bara köra mjuka länkar, tror jag?

Permalänk
Medlem

OpenSolaris - FilServer - HOW 2

Här kommer en mycket (i mitt tycke) bra quickguide på hur man sätter upp ZFS i OpenSolaris.

http://www.heise-online.co.uk/open/OpenSolaris-as-a-file-server--/features/112212

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
TWAN,
Jag tror det blir problem. Man måste sätta mount points på ett korrekt sätt och så. Det räcker inte att bara köra mjuka länkar, tror jag?

I Linux och BSD världen så är det inga problem såvitt jag vet. (Free?)BSD kommer med /home pekat till annan plats som standard vill jag minnas.

Visa signatur

01001000 01100001 01110010 00100000 01100100 01110101 00100000 01110100 01110010 10000110 01101011 01101001 01100111 01110100 00111111 00100000 00111010 00101001

Permalänk
Medlem

Så som jag hade det på gamla Linuxservern var att jag satte sambautdelning på användarnas hemmakataloger och använde samma användarnamn och lösenord på Linux-servern som på windows-klienterna och på så sätt fick varje användare privata filer på servern. Men jag skulle ju kunna ha likadant nu med hemmamapparna på rpool och så skapar jag länkar till tank för t.ex. video och annat. Låter rätt så smart att göra så egentligen.

Ja, jag ville ha redundans på alla filer i min server så jag slipper tänka på var jag lägger mina data. En hårddisk kan väl gå sönder ganska abrupt antar jag så zfs utan redundans låter osäkert och dessutom fattar jag som att felkorrigeringen i zfs kräver mirror eller raidz, för kör man singeldisk kan man med zfs få reda på att filerna är korrupta men det är väl svårare att återställa dem när redundansen saknas?

EDIT: Calimeros länk gav de svar jag behövde för hur man flyttar /home från rpool till tank och hur man ställer in rättigheter m.m. för utdelningarna. Tack Calimero!

Permalänk
Medlem

Tankade just ner 2008.11->CD

Bootade CD'n och hänger i "Probing HW..." i evighet, provade alla valmöjligheter med samma resultat.

Har kört CDcheck - CD'n är OK!

HJÄLP!

Permalänk
Avstängd

Aj då, det låter inte så bra. Det är så att OpenSolaris är lite kinkigare med hårdvaran, eftersom det är för stora serverhallar och stora servrar. Där är det bara få högkvalitetsprylar som används. Det finns inte lika många drivare för vanliga PC saker helt enkelt. I värsta fall kan du nog inte köra Opensolaris på den burken.

En del rapporterar dock att när de tar bort USB grejer så funkar OpenSolaris installation, sen kan de sätta tillbaka grejorna igen. Eller när de sätter alla hårddiskar till IDE legacy compatibility mode i BIOS.

Kanske kan du installera Opensolaris i VirtualBox och testa om det är nåt för dig eller om du inte gillar det alls? Du kanske inte ens gillar det? Eller kör Apple OS X om du bara vill åt ZFS? Eller FreeBSD?

Ronnylov,
Jo, ZFS behöver redundans för att kunna reparera. Det kan inte utföra magi.

Läste om en intressant tillämpning. Någon hade kommit på att man kan använda root mirroring för backup. De gör en mirror med extern USB drive. Sen tar de ut USB driven och kör root på bara en disk. Efter en period sätter de tillbaka USB driven och reparerar den så den blir uppdaterad, eftersom det är mirror. Då får man säkerhetsbackup och dessutom time slider på allting i root hela tiden. Lite kul tillämpning.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Shysst! Bra how-to tycker jag. Din strömförbrukning är väldigt bra, det är inte lätt att komma ned till 84 watt! Och jag ser att du bara använder std komponenter. Bra val. Vore även kul att få veta prestanda lite senare.

...

Hej saddam!

Nu har jag fixat en windowsutdelning med hjälp av cifs med hjälp av dina länkar. Bäst prestanda får jag om klienten kör Windows Vista (och har snabba hårddiskar förstås). Min huvvuddator har trippel-boot XP 32-bit, Vista x64 samt Linux Mint 32-bit och tre stycken WD6400AAKS-diskar (ej raid). Så jag testade först XP och fick ca 40 MB/s skrivhastighet till servern och ca 60 MB/s läshastighet. Utdelningen låg på tank som alltså är RAIDZ med 5 diskar.

Men med Windows Vista klient så blir hastigheterna 80-90 MB/s över gigabitnätverket. Skrivning mot servern ligger på ca 90 MB/s och läsning från servern lgger på strax över 80 MB/s. Jag har märkt detta tidigare också att Vista är mycket snabbare som klient mot sambautdelningar och det ska visst bero på att det finns automatisk optimering av hastigheten i samba-versionen som Vista kör. Jag återkommer med test mot Linux-klienten men jag har en känsla av att jag kanske borde köra NFS mot Linux för bästa prestanda, eller finns det några bättre alternativ?

Dessa testerna körde jag med processorn nerklockad till 2 GHz. Jag ska klocka ner till 1 GHz och se om det blir någon försämring. Ska försöka hitta någon bra kompromiss för prestanda och effektförbrukning.

Några tips på övriga prestandatester? Nu har jag bara tagit tiden det tar att överföra stora filer (några gigabyte stora) och räknat ut vad det blir i MB/s.

Jag är jättenöjd med prestandan i alla fall! Mer än dubbelt så snabbt som min gamla linux-server! Jag hade förmodligen fått liknande prestanda även med linux men jag hade inte fått ZFS med samma prestanda i linux.

EDIT: Linux Mint sambaklient: Läsning från servern 38 MB/s, skrivning till servern 48 MB/s.

Permalänk
Medlem

Till ronnylov: Om du skapar en fil från din Windowsmaskin som du har monterad till ditt ZFS filsystem, hur ser "filepermissions" ut på din ZFS-burk?

Alltså:
1) Skapa en dummyfil (typ excel eller liknande) på ditt ZFS-fileshare
2) Logga på din ZFS-filserver
3) Gå till katalogen där filen ligger
4) Slå kommandot "ls -l" och posta utskriften som svar i denna tråd.

Tack på förhand

/Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Medlem

ronny@filserver:/tank/video$ ls -l
total 16
d--------- 2 ronny staff 2 2008-12-29 10:55 Ny mapp
---------- 1 ronny staff 13824 2008-12-29 10:55 Ny(tt) Microsoft Excel-kalkylblad.xls

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ronnylov
ronny@filserver:/tank/video$ ls -l
total 16
d--------- 2 ronny staff 2 2008-12-29 10:55 Ny mapp
---------- 1 ronny staff 13824 2008-12-29 10:55 Ny(tt) Microsoft Excel-kalkylblad.xls

STORT TACK! Jag får precis likadant på min "/tank". Trodde jag såg snett när jag loggade in på min ZFS-burk och endast såg "---" som filrättigheter.

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jookeer
Tankade just ner 2008.11->CD

Bootade CD'n och hänger i "Probing HW..." i evighet, provade alla valmöjligheter med samma resultat.

Har kört CDcheck - CD'n är OK!

HJÄLP!

Gick in i BIOS och avaktiverade SATA-chipset - då släppte låsningen - så nu installerar jag på en USB-sticka.

Känsliga grejor det här med OpenSolaris på PC skrot - var kan man köpa Sparc med T2?

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av jookeer
Gick in i BIOS och avaktiverade SATA-chipset - då släppte låsningen - så nu installerar jag på en USB-sticka.

Känsliga grejor det här med OpenSolaris på PC skrot - var kan man köpa Sparc med T2?

Här har du en, från $19,635...
http://www.sun.com/servers/netra/t5440/

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Thomas
Här har du en, från $19,635...
http://www.sun.com/servers/netra/t5440/

Jisses, ta bort de 2 första siffrorna i priset så skall jag börja spara...

Nu har jag installerat -> USB och när jag bootar den så får jag:

grub>

HJÄLP!

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av calimero
STORT TACK! Jag får precis likadant på min "/tank". Trodde jag såg snett när jag loggade in på min ZFS-burk och endast såg "---" som filrättigheter.

//Calimero

Prova istället:
ls -dv *

Saken är den att CIFS har ändrat på filrättigheterna i Unix, pga Solaris numera är kompatibelt med Windows till 100%. Samba är ju bara fusk kompatibelt med Windows, och funkar inte i alla situationer. Därför bör man läsa på om filrättigheterna som krävs för full Windows kompatibilitet, det heter ACL:
http://blogs.sun.com/marks/entry/zfs_acls
Här står hur man ska tolka alla rättigheter. Vad blir outputen om ni listar ACL rättigheterna?

Ronnylov,
Det låter som hyfsade prestanda mot din Vista klient? 80-90MB/sek? Hur snabbt kan 1 GBit nätverkskort överföra data om det maxar? 90MB/sek? Är det så att om du kör 10GBit nätverkskort så får du ännu snabbare än 90MB/sek, dvs det är ditt NIC som slår i taket just nu? För ditt ZFS raid är ju snabbare än så 90MB/sek. Kanske ide att du börjar titta på 10GBit nätverkskort, eftersom du maxar ut 1GBit? Har du provat höja GHz på CPUn och se om det går snabbare? Men kul att du är nöjd med prestandan i alla fall, 80-90MB/sek borde räcka ett tag. Hur snabb är din Vista disk? Hinner den skriva alla data som ZFS trycker ut på ditt nätverk? De flesta hårddiskar klarar inte hantera 90MB/sek, va?

Angående Linux så vet jag inte. NFS är antagligen ett bra val?

Du kan även testa prestanda på själva ZFS raidet med "bonnie" tror jag det heter. Det är ett program.

Har du testat iSCSI? Jag vet inte riktigt vad det är, men det är nåt i stil med att du kan mounta en katalog över internet. Så då kan du ha en partition som du mountar över internet och kommer åt ditt ZFS raid på det sättet, från vilken dator som helst. En extern hårddisk helt enkelt.

Jookeer,
Tyvärr vet jag inte hur du ska fortsätta med USB. Kan du inte prova boota från CD istället? Det kanske är struligt att boota från USB? Jag tror inte du behöver stänga av SATA, det räcker att sätta den till "legacy mode", dvs "IDE compatibiliy mode"?

Du behöver inte köpa SPARC grejer, det är ju tunga servrar för stora företag som omsätter miljarder kr. Här har du lite PC hårdvara som funkar med Solaris, du kan även läsa kommentarerna för mera tips:
http://breden.org.uk/2008/03/02/home-fileserver-zfs-hardware/

Här är lite intressanta länkar om ZFS, om man vill läsa mera:
http://www.sun.com/bigadmin/features/articles/zfs_part1.scala...

http://opensolaris.org/os/community/zfs/docs/zfs_last.pdf

Varför man ska undvika Raid 5:
http://www.baarf.com/

Permalänk
Medlem

Tack för svar saddam!

USB boot: Grub hittar inte bootrooten, jag ligger i bash och förväntas göra några kommandon, MEN VILKA?

Din andra länk i ditt svar till mig med overheadbilderna är precis desamma som en nizze på Youtube presenterade i en propagandavideo om ZFS - kul.

Det vi nybörjare behöver är en lathund med kommandon, från start till mål, för att sätta upp en single disk resp en RAIDz + hur man kommer åt sin ZFS server från Win. Annars kan man ju Googla fram rejält med info men just en översiktlig lathund har jag inte hittat, typ:

-1. Hur vet jag att OpenSolaris har drivare till mitt PC-skrot?

0. Hur mycket RAM och CPUkraft behövs för att driva en ZFS-server

1. Installera OpenSolaris
- tänk på detta och detta
2. Ställ i ordning en datadisk
- alternativ 1
- alternativ 2
- .....
3. Skapa en RAIDz
- kommando 1
- kommando 2
- .....
4. Hur komma åt filerna på sin filserver från Win
- ladda ner och installera xxxx eller zzzz
- konfigurera nätaccess och utdelning
- konfigurera GUI
- .....

Hittar någon en länk?

Annars kan jag försöka skriva en egen lathund eftersom jag ändå måste igenom alla dessa steg men risken är att en nybörjare gör fel som blir svåra att rätta till i efterhand, en erfaren vet bättre om "best practice" så man hamnar rätt från början. En sådan lathund borde bli klistrad.

Någon frivillig? Snälla!

Permalänk
Medlem

jookeer:

Här kommer (igen) ett litet länktips för "nybörjaren". Jag följde denna och för mig så funkar det utmärkt.

http://www.heise-online.co.uk/open/OpenSolaris-as-a-file-server--/features/112212

Däremot så upplever jag det lite "stökigt" att få kläm på exakt vilken hårdvara som funkar.

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Avstängd

Jookeer,
Jag tror det bästa vore om du gjorde en sån lathund. Därför att om du ska köra Opensolaris hemma som filserver, så måste du lära dig systemet. Och hur lär man sig ett system på ett bra sätt? Jo, genom att göra ett specialarbete om det, dvs din lathund. Om du postar den här så kan vi titta på den och fylla i detaljer. Så nu har du chansen att bidra något vettigt som alla kommer att länka till, din artikel kanske kommer att bli mycket läst.

Men det är inte så svårt som det låter, eftersom vi redan postat all info du behöver. Du behöver alltså bara sammanställa det, allting finns redan här. T.ex. i länken jag tipsade dig om, består av flera artiklar. De artiklarna tillsammans är alltså den lathund du efterfrågar. Om du tittar på nästa del i artikeln:
http://breden.org.uk/2008/03/08/home-fileserver-zfs-setup/

Kort kan sägas att du stoppar in diskarna i ditt chassi. Installerar Opensolaris eller kör LiveCD. I opensolaris finns ett program som scannar din dator och talar om vilka drivrutiner som finns. Efter det så sätter du upp ett zfs raid genom att i stort sett skriva (eller nåt sånt här):
#zpool create minZFSraidTjohoo disc0 disc1 disc2 disc3
Så är raidet klart efter en sekund, ingen formatering krävs. Nu kan du börja tanka direkt. För att sätta upp Windows utdelning, så postade jag en länk om "CIFS how-to". Den är simpel att följa. Då är OpenSolaris burken färdigt uppsatt. Done. Allt detta står i de länkar som vi postat.

Angående RAM; jag körde Solaris + ZFS på 1 GB RAM och Pentium 4 på 2.4 GHz under ett år utan problem. Men eftersom ZFS är 128 bitar, och P4 är på 32 bitar, så får du långsamma prestanda (typ 20-30MB/sek). Om du har 64 bits CPU så får du snabba prestanda (100MB/sek och uppåt). Ju fler diskar du stoppar i, desto snabbare går det.

Angående USB och OpenSolaris verkar det som det är nåt strul med det, om man googlar lite. Det rekommenderas alltså inte. Kör via CD istället.

Permalänk
Medlem

OK!

1. Jag känner trycket och stora förväntningar på publiceringen av "min" lathund - men med lite hjälp från er andra skall det nog gå vägen. Kan ta en stund då jag vill försöka gå grundligt tillväga, mycket att läsa och sätta sig in i + stök och bök med installationer.

2. Har svårt att hitta OpenSolaris för 64bit - den distCD jag har är: x86 snv_101b_rc2 - kanske samma CD för båda men rc2 tyder på release candidate 2 - hur hittar man den absolut senast släppta releasen?

Edit: Såg vid boot av LiveCD'n att den väljer x64

3. Kommer att prova på ett MSI K9N Ultra med 1GB RAM och en måttligt överklockad Sempron LE-1200 (2.2GHz). Allt i den här burken är superduperbudget som det skall vara för en hemmaNAS. Sedan har jag 4 st USB av olika storlekar som jag möjligen kan RAIDa och labba med innan jag går över till diskar, blandat PATA och SATA (6 st). Nån som redan nu ser några problem med denna rigg? Mobot har dubbla GBLAN-portar om nu detta kan/bör nyttjas.

Synpunkter?!

Permalänk
Avstängd

1. Läs den dära sista länken jag postade. Det är en hel artikel serie. Börja från början. Den serien innehåller typ allt du behöver veta.

2. Solaris har varit 64 bits i många år. Det är ju ett seriöst Enterprise Unix. Solaris väljer själv 32 eller 64 bitar, vid installation. Du behöver inte göra något. Ladda ned "global Opensolaris" iso filen istället, om du inte får svenska tecken.

3. Jag vet inte, men det borde gå bra. Har du läst den länken jag postade? Där diskuteras lite mobos bland kommentarerna, kanske finns ditt med där? Annars, boota från live CDn och kör programmet så OpenSolaris scannar igenom all din hårdvara - och rapporterar om det finns problem med viss hårdvara.

Jag tror ärligt talat inte du behöver göra en how-to. Det är så simpelt ändå. Bara installera och skriva ett kommando. Eller använda WebGUI till ZFS. Man surfar till
https://localhost:6789/zfs
ersätt localhost med din IP adress om det inte funkar. (Din IP adress får du genom att # ifconfig -a). Om själva tjänsten inte är startad, skriv
/usr/sbin/smcwebserver start
så drar webguit igång

Permalänk
Medlem

OpenSolaris är nu installerat på en PATA-disk. Tog dryga timmen.

4. Kan pinga lokalt och URL:ar på weben men FireFox(FF) går inte igång alls?
5. Skruvat in en SATA-disk, oformatterad

#format ger:

0. c3d1 <DEFAULT cyl ....>
/pci@0,0/pci-ide@4/ide@0/cmdk@1,0

jisses, VAD BETYDER DETTA?

6. Kollar drivare får rosa rader med:

MCP55 SATA controller(1) Misconfigured:[nv_sata]
----------"------------2------------"------------
----------"------------3------------"------------

denna rad är EJ rosa:

MCP55 IDE pci-ide

MCP55 är bryggkretsen till diskarna på mobot.

Vad betyder det att raderna är rosa och status är: Misconfigured:[nv_sata]?

Har gjort "Install all drivers"

7. Får jag igång SUNWsmbs*? Hur kollas detta? Det är installerat!

# /usr/sbin/smcwebserver start - funkar inte - finns inte där, har gjort su - innan

Hjälp mig ut ur Solarisdimman!

Permalänk
Avstängd

4. Märkligt. Det borde funka. Ditt nätverkskort kanske inte har drivrutiner. Vad är det för modell?

5. Disken heter c3d1 och det är det du vill veta om du installera ZFS på en disk. Ange då c3d1, precis som Ronnylov skriver högre upp här på samma sida.

6. Inte en aning, har aldrig provat OpenSolaris. Det låter som Opensolaris inte gillar din SATA disk. Kan du ställa den till legacy mode i bios (som ronnylov beskrev) och starta om?

Hur kollar du drivare?

7. Aj då. Instruktionerna jag gav dig, är nog till Solaris Express. En annan dist, alltså.

Ronnylov, din installation funkar och är korrekt, får du igång webgui alls?

Permalänk
Medlem

4. FF går inte igång, samma på en annan burk där jag kör OpenSolaris i VirtualBox. Annars funkar ju ping vartsomhelst

5. format hittar bara PATA-disken där OS ligger, SATA-disken finns i BIOS, RAID-BIOS är INTE aktiverat.

6. Man ser drivare i en app. Driver Manager eller nåt sånt, men status är att SATA-portarna är "Misconfigured". De enskilda fysiska portarna syns men inga diskar på dom. Fishy!

Troligen skall det vara drivare som fan vet var man hittar?!

7. Hur ser man vilka tjänster som är installerade och deras status?

Har jag ännu en gång gått in i den berömda Linuxväggen? Kommer BillyBoy ännu en gång få rätt?

Permalänk
Medlem

Jag ändrade från AHCI till IDE på SATA-läget i bios och då funkade mina SATA-diskar. Installerade också operativsystemet på en PATA-disk först, speglade sedan systemdisken till en SATA-disk efter ändringen på inställningen i BIOS.

Angående hastigheten så är ju en byte 8 bitar så teoretiskt kan gigabit-nätverk överföra 119 MiB/s men sedan tillkommer ju så kallad overhead för filöverföringsprotokoll, adressering och annat så man kommer väl inte ofta över 100 MB/s i praktiken skulle jag tro. Mina hårddiskar i Vista-klienten maxar väl på sådär 120 MB/s så jag känner inget behov av 10 Gbit-nätverk. Det är ganksa mycket dyrare också, kräver ju nya nätverkkort samt ny switch också.

Däremot har jag läst att om man har två gigabit nätverkkort i båda ändar av kommunikationslänken och en nätverksswitch som kan hantera multilänk-protokoll (minns inte exakt vad det heter) samt dubbla nätverkskablar så kan man ju få 2 Gbit/s mellan två datorer.

EDIT: Testade överföing direkt mellan två hårddiskar i Vistadatorn och fick 93 MiB/s. Har även bytt till intels PCIe nätverkskort då realtek-nätverket på moderkortet hängde sig ibland men nu funkar det stabilt med intelkortet. För ca 90 MiB/s mellan Vista-datorn och servern via gigabitnätet så det verkar vara hårddiskarna som begränsar farten. Kör jag dubbla överföringar till varsin disk samtidigt så hamnar vardera överföringen från filservern på ca 50 MB/s vardera så då är nog nätverket flaskhals istället. Känns rätt bra balanserat ändå om nätverket är ungefär lika snabbt som kopiering mellan mina snabbaste hårddiskar i klientdatorn. Detta får duga så länge!