OpenSolaris 2008.11 är här!

Permalänk
Avstängd

Calavera,
Allt ser korrekt ut nu av döma "zpool status" output.

Prova att skapa några filsystem t.ex. "zfs create Video" och kopiera dit lite filer. Sen stänger du av datorn, tar loss en av diskarna på måfå och kollar om du kommer åt filen igen, kan läsa den och skriva till raidet. Det är bra om du skriver upp vilken disk som är c4d0p0 och vilken disk som är c4d0p1. Om det står att c4d0p0 har kraschat, och du måste byta den disken, vet du vilken disk det är du måste byta?

När du skapar filsystemen, så måste du använda rätt växlar om du vill använda CIFS (vilket du vill). Det räcker inte med zfs create Video. Du måste använda zfs create mixedcasensitivity Video etc. Läs Ronnylovs post tidigare här för att se vilka växlar han använde.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pr0xy
Kolla "rådisk" # zpool list
Kolla "tillgängligt" diskutrymme: zfs list
"Skrubba" tanken: zpool scrub tank
Kolla status efter scrub: zpool status tank

root@blue_server:~# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT rpool 152G 4.38G 148G 2% ONLINE - tank 3.62T 132K 3.62T 0% ONLINE -

root@blue_server:~# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.37G 143G 72K /rpool rpool/ROOT 2.37G 143G 18K legacy rpool/ROOT/opensolaris 2.37G 143G 2.24G / rpool/dump 1.98G 143G 1.98G - rpool/export 31.3M 143G 19K /export rpool/export/home 31.3M 143G 19K /export/home rpool/export/home/admin 31.3M 143G 31.3M /export/home/admin rpool/swap 1.98G 145G 16K - tank 92.0K 2.67T 26.9K /tank

root@blue_server:~# zpool scrub tank root@blue_server:~# zpool status tank pool: tank state: ONLINE scrub: scrub completed after 0h0m with 0 errors on Wed Apr 22 01:39:32 2009 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c4d0 ONLINE 0 0 0 c4d1 ONLINE 0 0 0 c5d0 ONLINE 0 0 0 c5d1 ONLINE 0 0 0 errors: No known data errors

Ser friskt ut men vad vet väll jag.

@Saddam: Jag är helt lost på din senaste post faktist, hur var det jag skulle göra?

(http://www.sweclockers.com/forum/showthread.php?s=&threadid=8...)

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Avstängd

Jag menar, kolla om din raid funkar. Ta loss en hårddisk och boota upp. Se om alla data finns där ändå, och om du kan skriva dit saker.

Men du borde nog först och främst läsa på ordentligt. Tänk på att du ska lagra mycket data där. Vad händer om alla data försvinner pga du klantat dig? Skyll inte på mig då. Läs ZFS admin guide först. ZFS är ganska enkel att förstå, så texten är enkel.

Permalänk
Medlem

@Calavera,

ser bra ut!

Passa på att justera "systemklockan" automagiskt:

# su - root
# vi /etc/inet/ntp.conf

server 0.pool.ntp.org
server 1.pool.ntp.org
server 2.pool.ntp.org

# svcadm enable svc:/network/ntp:default
# svcadm restart svc:/network/ntp:default

Om du inte vet vad "vi" är så fråga saddam, eller gå bakåt i "tråden".

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

Tack igen!

Hur kommer jag lättast åt servern utifrån?
I OSX så brukar jag kunna skriva in datorns ip och komma åt direkt, men jag verkar inte kunna komma åt OpenSolaris maskinen.
Finns det något sätt att sätta upp mapparna så att de går att komma åt likt vanliga delade windows mappar?

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Medlem

CIFS!

Det finns "ledtrådar" längre bak i tråden!

Lite hints:

Installera dessa paket:

SUNWsmbs
SUNWsmbskr

# svcadm enable -r smb/server
# smbadm join -w WORKGROUP
# zfs create -o casesensitivity=mixed tank/public
# zfs set sharesmb=name=Public tank/public

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calavera
Finns det något sätt att sätta upp mapparna så att de går att komma åt likt vanliga delade windows mappar?

Spana in cifs-sidan på genunix.org http://wiki.genunix.org/wiki/index.php/OpenSolaris_CIFS_Servi... Det finns en guide för hur man kommer igång med cifs på opensolaris och en felsökningsguide.

Genunix FAQ för nya opensolaris användare är rätt bra, http://wiki.genunix.org/wiki/index.php/Open_Solaris_New_User_...

Faktiskt så finns det en hel del bra information på genunix.org

Permalänk
Medlem

Tack för all hjälp igen!

Nu har jag enablat CIFS och skapat en share enligt:
http://wiki.genunix.org/wiki/index.php/Getting_Started_With_t...

På slutet står det:

Citat:

Now, you can access the share by connecting to \\solaris-hostname\share-name. For information about how to access CIFS shares from your client, refer to the client documentation.

Jag antar att solaris-hostname är 'namnet' på min dator, det som står i terminal (root@coolname), men hur skriver jag share-namnet?

default nfs=() /export/home/admin/Documents nfs=() nfs:sys=(rw="192.168.1.0/255.255.255.0:192.168.1.2") zfs zfs/tank smb=() tank=/tank zfs/tank/shared smb=() tank_shared=/tank/shared

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Avstängd

Du connectar från Windows XP. Se fotot, och följ denna instruktion för att connecta:
http://blogs.sun.com/icedawn/entry/bondin

Du har väl läst ZFS admin guide? Tänk på att du inte vill torska alla dina 4TB data pga du klantat dig. ZFS förlåter inte, du kan inte ta tillbaka filer. Det som är borta, är borta. Den varnar inte alls, utan raderar allting. Du har inget skyddsnät. Läs på.

Permalänk
Medlem

Tack för all info och hjälp, men när inget vill sig fungera och man inte har nog med kunskap för att kunna felsöka själv så börjar man bli lite trött - kanske raid är värt det fast sina brister...

Om det skulle fungera som det så fint gör i alla guider så skulle det ju vara prima, men tyvärr så gör det ju inte det.
# smbadm join -w WORKGROUP
ger t.ex. inte helt otippat
failed to join workgroup 'WORKGROUP' (INTERNAL_ERROR)
Varför? Jag antar att det bara vill jävlas med mig -_-

Och inte fungerar det att connecta från varken windows eller osx...
Med ZFS admin guide? Menar ni då pdf dokumentet på närmare 300 sidor?

Att försöka fixa med detta utan kunskap verkar närmare hopplöst.
Jag vet inte vad jag ska göra.

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Medlem

Vad är namnet på din windows-arbetsgrupp på nätverket? Det kanske är ställt till något annat än WORKGROUP i din dator du försöker ansluta ifrån. Default brukar väl vara MSHOME eller något sådant på windows. I så fall:
smbadm join -w MSHOME

Det brukar funka om man skriver in ip-numret istället för datornamnet när man ansluter från windows. Då är det förstås att föredra att ha fast ip-nummer på servern. Jag minns att det var lite småstruligt att få fast ip att funka men det kanske du redan har löst?

Sedan bör man skapa en användare med exakt samma användarnamn och lösenord som man har på windowsmaskinen så funkar det bättre med automatisk inloggning på sina shares. Jag hade problem med detta från min dator med Vista där jag hade skapat mitt kontonamn med stor bokstav i början medans jag bara hade små bokstäver på opensolariskontot. Jag testade sedan att skapa ett konto med bara små bokstäver på en annan Vistadator och då funkade det utan problem.

Förresten, jag hade lite problem att få CIFS att funka efter jag installerat enligt guiden, men så startade jag om datorn och sedan funkade det. Kanske är det som behövs? Man tycker ju inte att unix-baserade operativsystem ska behöva omstartas men med opensolaris har jag märkt att det inte skadar med en omstart när man installerat saker, ungefär som med windows...

Permalänk
Medlem

Alla de datorer som skulle anslutas är i WORKGROUP arbetsgruppen.
Jag har prövat skriva in IP-nummer istället och jag har prövat skriva med både stora och små bokstäver, men inget vill sig fungera.
Bara för att jävlas så kommer jag ju åt alla datorer från servern... -_-'

Startade även om maskinen men det hjälpte inte.
Jag skulle gärna vilja veta vad det är som ger mig felmeddelandet, en google sökning på felmeddelandet gav inget jag kunde tyda iafa.

Tack för svaren och tack på förhand igen, utan er skulle jag vara ännu mera lost.

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Medlem

En av mina maskiner heter PC5

# smbadm join -w PC5

Har du uppdaterat pam och därefter ändrat ditt password på servern?

# vi /etc/pam.conf

other password required pam_smb_passwd.so.1 nowarn

# passwd calavera

Därefter kan man göra såhär ifrån XP

\\192.168.0.100\Public

Till och med min gamla Xbox loggar in med user/password utan problem,

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Calavera
Jag har prövat skriva in IP-nummer istället och jag har prövat skriva med både stora och små bokstäver, men inget vill sig fungera.

Du har inte någon skum brandvägg i vägen? Zone Alarm eller så?

Har du kört diagnos skripten på http://wiki.genunix.org/wiki/index.php/Solaris_CIFS_Service_T... ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fnorken
Du har inte någon skum brandvägg i vägen? Zone Alarm eller så?

Allt liknande ska enligt min vetan vara avstängt, om nu inte OpenSolaris har något inbygt som jag inte hittat.

Citat:

Jag försökte göra det, men jag förstod inte hur jag skulle köra skriptet.
# cifs-chkcfg var inget valid command.

Citat:

Ursprungligen inskrivet av pr0xy
En av mina maskiner heter PC5

# smbadm join -w PC5

Har du uppdaterat pam och därefter ändrat ditt password på servern?

# vi /etc/pam.conf

other password required pam_smb_passwd.so.1 nowarn

# passwd calavera

Därefter kan man göra såhär ifrån XP

\\192.168.0.100\Public

Till och med min gamla Xbox loggar in med user/password utan problem,

/t

Vad jag än verkar skriva så får jag samma felmeddelande.
Jag har följt de andra stegen precis som de står, men det vill sig ändå inte fungera, kanske man ska blåsa rent med ny OpenSolaris installation och börja om?

Såg förresten att de på
http://blogs.sun.com/icedawn/entry/bondin
använde OpenSolaris SXDE 1/08, vad är skillnaden?

Tack på förhand igen!
Nu ska det bli av att köpa nytt Nätagg...

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Medlem

Logga in i en terminal (som root)

# cd
FEL !!! # wget http://opensolaris.org/os/project/cifs-server/files/cifs-chkc...
#chmod u+x cifs-chkcfg
# ./cifs-chkcfg

så bör det funka (ej testat)

/t

EDIT3: Det är fel i skriptet i länken.

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

@ronnylov

Har du testat xVM?

"Vår" HW bootar men "original-NIC:en" har lite "problem":

# svcs -xv
svc:/system/xvm/ipagent:default (xVM PV domU IP address reporting agent)
State: maintenance since Thu Apr 23 20:31:00 2009
Reason: Start method failed repeatedly, last died on Killed (9).

Annars ser det bra ut:

# uname -a
SunOS zfs-1 5.11 snv_111 i86pc i386 i86xpv Solaris

# virsh list
Id Name State
----------------------------------
0 Domain-0 running

Har du lite ledig disk och tid över så kan du väl testa med din NIC?

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Avstängd

Calavera,
Dessa CIFS instruktioner gäller för en annan version av OpenSolaris. Du måste dessutom installera några paket som Pr0xy skrev namnen på. Du kan inte följa instruktionerna rakt av, installera paketen först.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Calavera,
Dessa CIFS instruktioner gäller för en annan version av OpenSolaris. Du måste dessutom installera några paket som Pr0xy skrev namnen på. Du kan inte följa instruktionerna rakt av, installera paketen först.

Jag installera redan de paketen, men det vill ändå inte fungera.
# pkg install SUNWsmbskr
# pkg install SUNWsmbs

Enligt http://wiki.genunix.org/wiki/index.php/Getting_Started_With_t...
Jag försökte även joina min workgroup enligt den guiden.

Visa signatur

[workstation] Mac Pro 2x2.66GHz Dual-Core Xeon, ATI Radeon X1900 XT 512MB, 11GB 667MHz FB-DIMM, 2x 500GB RAID0 & 250GB HDD | OS 10.6
[server] Antec PlusView 1000AMG, Asus P5E-VM DO, Intel Core 2 Duo E5200, 4GB RAM, 4x 1TB RAID5 & 160GB HDD | Windows Server 2008
[netbook] AAO ZG5 8.9", Intel Atom N270, 1GB RAM, 120GB HDD | Windows XP

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pr0xy
@ronnylov

Har du testat xVM?

"Vår" HW bootar men "original-NIC:en" har lite "problem":

# svcs -xv
svc:/system/xvm/ipagent:default (xVM PV domU IP address reporting agent)
State: maintenance since Thu Apr 23 20:31:00 2009
Reason: Start method failed repeatedly, last died on Killed (9).

Annars ser det bra ut:

# uname -a
SunOS zfs-1 5.11 snv_111 i86pc i386 i86xpv Solaris

# virsh list
Id Name State
----------------------------------
0 Domain-0 running

Har du lite ledig disk och tid över så kan du väl testa med din NIC?

/t

Jag kör med VirtualBox. Läste någonstans att VirtualBox och xVM inte lirar så bra ihop om de är installerade samtidigt. Var något med att virtualiseringsfunktionerna hos CPUn inte kunde utnyttjas av två olika virtualiseringsprogramvaror samtidigt.

Finns det bra anledningar att byta till xVM tycker du? En nackdel med VirtualBox är att jag måste köra det i userspace, alltså logga in med min användare och därifrån starta VBoxHeadless via ssh, sedan ansluter jag med remote desktop till det virtuella skrivbordet. Nu har jag bara kört kortare sessioner med virtuella maskinen igång men skulle jag köra någon virtualiserad servertjänst så känns inte VirtualBox så opimalt, såvida jag inte kan köra igång det på något annat sätt så jag slipper ligga inloggad. Har för mig det ska finnas något program som gör att man kan upprätthålla inloggade sektioner trots att man loggat ur ssh-terminalen, minns inte vad det hette...

Tror du jag måste avinstallera VirtualBox för att testa xVM, eller räcker det om man inte kör dem samtidigt bara?

Apropå nätverkskort har jag fått några hängningar i CIFS på sistone. Plötsligt tappar det kontakten och jag får starta om servern får att få igång CIFS igen. När det skett har det varit vid filöverföringar från klientdatorer som inte kör intels nätverkskort. Men så känsligt ska det väl inte behöva vara?
Jag hade ju detta problemet innan när jag körde inbyggda nätverkskortet på moderkortet och så bytte jag till intelkort på servern så blev det mycket bättre. Men någon enstaka hängning blev det ändå så jag satte in ett intelkort även i den klientdatorn som körde med realteks integrerat nätverkskort som orsakade problem i början. Mellan dessa datorer med intelkort funkar det nu bra och det har funkat bra även med de andra datorerna men vi har inte kört så mycket trafik från dem innan.

I och för sig är det nog bäst att ha bra nätverkskort i alla datorerna (kör intelkort i 2 klientdatorer och på servern nu) men vi har två datorer som kör andra gigabitkort och det är dessa två som låst servern nu. Möjligen kan switchen vara orsaken? Jag har en 3Com 3CGSU05 switch nu och tycker den har för få portar. Så jag tar gärna emot tips om någon bra prisvärd gigabitswitch med minst 7 gigabitportar. Hur vad det nu, hade man två nätverkskort på servern skulle man då kunna dubblera hastigheten om switchen stödjer "link aggregation"? Låter i och för sig inte billigt...

Permalänk
Medlem

Anledningen till att jag vill testa är att jag inte är särskilt nöjd med VB - väldigt segt (i varje fall med ubuntu). Sen är det ju dehär med remote access - lite struligt med VB som du skriver. När man kör xVM så kör väl dom0 och domU parallellt? Jag vet inte, men jag tror det. Som sagt jag har ingen erfarenhet så det tänkte jag skaffa mig.

När jag köpte min OS-burk så passade jag på att uppgradera nätverket med en 8-ports Netgear och två st 5-portars i samma serie (http://www.prisjakt.nu/produkt.php?e=67142) Vet inte hur det är med link agg. men den stödjer "jumbo frames" iaf.

Det kanske inte är nätverkskortet som strular. Jag hittade ett odokumenterat kommando i OS för att skapa en VNIC och det funkade:

/usr/lib/vna rge0 00:ab:cd:ef:12:XY ändra XY på din MAC-adress så kan du se om du kan köra VNIC på ditt Intel-NIC - det skapas i så fall ett nytt interface som du kan se med # dladm show-link

Jag har hittat fler som verkar ha ungefär samma problem som jag både med b111 och andra builds.

/t

EDIT Min switch stödjer inte 802.3ad (Link aggregation)

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

Hojta om ni får igång vbox under XVM, jag fick det aldrig att lira, den kunde inte ladda kernelmodulen.
Ang XVM tillsammans med vbox allmänt så kan man bara köra en "hårdvaruvirtualiseringsmjukvara" åt gången då den använder instruktionsset i CPU:n för virtualisering - kan tydligen bara användas av en åt gången (virtuella hostarna kallas hvm).
Ett annat och mycket snabbare sätt i xen/xvm är att köra paravirtualiserat (pv) vilket ger en mer direkt access mot hw vid io osv. Det kräver förvisso stöd av OS:et man ska virtualisera (OS:et är anpassat för hypervisorn) vilket OpenSolaris har. Dock inte vanliga Solaris. Det hänger med pv-drivers för disk och nät sen s10u6 så io prestanda blir hygglig, men i övrigt går det seeeegt. Mycket segare att köra OpenSolaris som hvm värd än t.ex. centos (av nån anledning).
Har iofs inte varit riktigt nöjd med prestandan på någon hvm lösning (testat kvm på fedora, xen på centos, virtualbox osv) så pv verkar vara melodin för min del iaf. Ska ändå inte virtualisera någon windowsvariant.

Hur som helst, kör man pv domU:s i xvm så borde det teoretiskt funka med virtualbox. Vet dock inte om kernelmodulen funkar tillsammans med xvm eller om det var jag som strulade till det bara.

Har e.g. inte kommit mycket längre än att jag konstaterat att xvm lirar, har tänkt att flytta en fysisk sol10 -> opensolaris domu så springer ni på nåt intressant vad gäller xvm är jag intresserad av att höra!

Permalänk
Hedersmedlem

Sorry om detta tagits upp redan, men tråden är trots allt 21 sidor med max antal inlägg per sida, och det blir svårt att söka ordentligt.

Vad får ni för slags prestanda om ni jämför ZFS <-> raw disk? Jag får riktigt kass ZFS-prestanda på min temp-installation, lite oroande.

#1: Skriva till ZFS, #2: läsa från ZFS, #3: läsa direkt från samma disk root@opensolaris:/bonnie# dd if=/dev/zero of=./test bs=1000k count=6000; sleep 5; dd if=./test of=/dev/null bs=1000k 6000+0 records in 6000+0 records out 6144000000 bytes (6.1 GB) copied, 321.897 s, 19.1 MB/s 6000+0 records in 6000+0 records out 6144000000 bytes (6.1 GB) copied, 232.999 s, 26.4 MB/s root@opensolaris:/bonnie# dd if=/dev/rdsk/c4d0s0 of=/dev/null bs=1000k count=6000 6000+0 records in 6000+0 records out 6144000000 bytes (6.1 GB) copied, 104.819 s, 58.6 MB/s root@opensolaris:/bonnie# bonnie++ -u serenity .... status output omitted ... Version 1.03d ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP opensolaris 2G 19955 21 18372 4 6456 1 25992 33 25849 1 100.6 0 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 28731 99 +++++ +++ 6794 22 25681 99 +++++ +++ +++++ +++

25-27 MB/s från ZFS jämfört med 58.6MB/s från disken. Ny install, inga ändringar gjorda (men att stänga av checksumming gjorde som väntat ingen skillnad, se CPU-användningen ovan!).
Det är en A64 3000+ med 1GB RAM och en 200GB WD 2000JB (PATA).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Avstängd

Jag hade förrut ett ZFS raid med 4st 500GB diskar. Då fick jag totalt 20-30MB/sek. Men det berodde på att det var en 32bits Pentium4 med 1GB RAM. ZFS är 128 bits och tappar i prestanda ordentligt om det tvingas till 32bits. 64bits CPUer går "normalsnabbt" och jag fick vettiga prestanda när jag bytte ut CPUn till Intel Quad9450.

I ditt fall vet jag inte. Men jag skulle inte bli jätteförvånad om dina siffror är den prestanda du kan förväntas få ut av ZFS. För att få upp hastigheten med ZFS krävs många diskar.

Som Ronnylov förklarade, så kan du förvänta dig ungefär att tappa en disk i prestanda. Så om du har 5st diskar, så får du ungefär samma prestanda som om du bara hade 4 diskar som kör för fullt. Ungefärligen. Nu har du bara 1 disk och det kan vara skälet. Om du stoppar i 4-5 diskar får du vettigare siffror. Och om du stoppar i 10-20 diskar så börjar prestandan bli riktigt bra.

Men jag tror att man inte får lika bra prestanda med ZFS som med hårdvaruraid.

Vad är det för operativsystem du kör?

Permalänk
Medlem

Såhär ser det ut på min burk (raidz1 3x1TB);

root@zfs-1:/tank/home/mrl# bonnie++ -u mrl Version 1.03c ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP zfs-1 8G 61160 93 103731 24 62091 20 45222 98 125308 16 447.1 1 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 27600 96 +++++ +++ +++++ +++ 25703 99 +++++ +++ +++++ +++

EDIT Fixar inte formatteringen ...

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Hedersmedlem

Jag kör OpenSolaris 2008.11, förstås.
Testade dock även FreeBSD 7.2-RC2 som som kickade röv på Solaris:

OpenSolaris 2008.11: Version 1.03d ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP opensolaris 2G 18568 4 6189 1 25075 1 100.5 0 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 27253 99 +++++ +++ 3328 11 9852 61 +++++ +++ 30943 99 opensolaris,2G,,,18568,4,6189,1,,,25075,1,100.5,0,16,27253,99,+++++,+++,3328,11,9852,61,+++++,+++,30943,99 FreeBSD 7.2-RC2: Version 1.93d ------Sequential Output------ --Sequential Input- --Random- Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP freebsd 2G 99 97 40470 12 22395 7 210 96 53319 7 88.5 1 Latency 193ms 5095ms 3689ms 348ms 1143ms 320ms Version 1.93d ------Sequential Create------ --------Random Create-------- freebsd -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 18924 94 +++++ +++ 15401 82 16842 95 +++++ +++ 16181 97 Latency 16659us 37304us 78645us 20653us 1262us 1307us ## ZFS write, ZFS read, raw disk read freebsd# dd if=/dev/zero of=./test bs=1000k count=6000 ; sleep 5 ; dd if=./test of=/dev/null bs=1000k ; dd if=/dev/ad2s1g of=/dev/null bs=1000k count=6000 6000+0 records in 6000+0 records out 6144000000 bytes transferred in 129.157186 secs (47569943 bytes/sec) 6000+0 records in 6000+0 records out 6144000000 bytes transferred in 112.920304 secs (54410055 bytes/sec) 6000+0 records in 6000+0 records out 6144000000 bytes transferred in 105.922304 secs (58004781 bytes/sec) Opensolaris ZFS read / raw read: 45% (från dd) FreeBSD ZFS read / raw read: 93.8% (från dd)

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Avstängd

Oj, det var lite coolt. Min första tanke är dock att din OpenSolaris installation strular på något sätt. Den använder inte korrekt drivrutin för någon hårdvara eller nåt sånt. Som vi sett är ju OS kinkig med drivrutiner och hårdvara.

Undrar hur stor skillnaden blir med flera diskar? Är det fortfarande någon skillnad då? Troligen.

Oavsett om min tanke är korrekt eller inte, så verkar som FreeBSD ger dig bättre resultat än OS på just din hårdvara, och därför kanske FreeBSD är lämpligare för din setup för att få ut hög prestanda (om du inte kör flera diskar, för då får du så hög bandbredd att några 50MB/sek hit eller dit, inte spelar någon roll).

Vad har du för hårdvara, kan vara bra att veta. Ronnylov eller nån annan, har ni FreeBSD lättillgängligt och kan jämföra med OS?

Permalänk
Hedersmedlem

Har inte 100% koll på hårdvaran (det är farsans dator, fast inte hans hårddisk, så elak är jag inte ).
Det jag vet är:
MSI nånting nForce4 Ultra
Athlon 64 3000+ (Venice), inte överklockad
1GB DDR (ja, jag vet att ZFS gillar minne, men som sagt, ingen permanent install )
WD 200GB PATA-disk (WD2000JB)

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Thomas
MSI nånting nForce4 Ultra

Vilket om man skall tro den här tråden http://www.mail-archive.com/opensolaris-discuss@opensolaris.o... kan vara en del av problemet.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av z84
Vilket om man skall tro den här tråden http://www.mail-archive.com/opensolaris-discuss@opensolaris.o... kan vara en del av problemet.

Haha, det där är min tråd.
På den tiden var dock dd långsamt också, nu är dd snabbt (vilket gör att det inte KAN vara drivrutinsrelaterat - hur skulle då ett userland-program som dd kunna läsa snabbt från den?) vilket det inte vardå.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS