OpenSolaris 2008.11 är här!

Permalänk
Medlem

Saddam,
Ja jo, raidz2 är väl bättre att köra och diskarna 10 å 10 istället, men då det är en bit kvar i framtiden innan jag ska expandera dit (i alla fall 2-3 månader, måste överväga dit tråd om 4x8p, då mitt framtida moderkort enbart har 2st pci-e x16 (varav ena går i x8 om man kör 2) och sedan 3st pci-e x1 samt 2 pci portar så måste det med i beräkningarna. Men om du har några 8p som går på pci-e x1 så får du gärna säga till

Jobbiga med att köra de i 10hdd raidz2 är att jag måste köpa 10diskar åt gången, eller så måste jag ha temporär lagringsplats för 4tb varje gång jag ska gå från 5 till 10 diskar å så. Att köpa 5 diskar på en gång känns inte så oöverkomligt, men 10diskar på samma gång svider lite ;P.

Men men, får tänka mer på det framöver, all beräkning och liknande jag har haft hittills har ju enbart varit att få igång servern med vad jag har nu och vilket expansionsbart chassi å liknande jag velat ha. Nu är allt sånt klart så det är nu jag ska lära mig opensolaris lite bättre och även kolla upp satakontrollers and whatnot

Edit: Kollade det ena kortet du rekommenderade som hade pci-e (super micro, AOC-USAS), de kostar ju 2000kr i bulk (3000kr retail) och hamnar då på 8k totalt för 4 kort, köper hellre två stycken Highpoint rocketraid 2340 som i mitt fall hamnar på samma pris fast är i retail. Kan leva med eventuellt något lägre överföringshastighet

Permalänk
Medlem

När jag nu startade om solarisburken så fungerade min behemoth direkt, jäkligt mysko det dära

Men nu har jag i varje fall en konkret fråga till er, hur gör jag för att shara internet? Har två integrerade NIC och ett flertal instickskort om jag skulle behöva fler framöver men anyhow, ena kommer sitta rätt mot nätet med fast ip som jag måste använda, det andra ska gå direkt till min arbetsstation (solaris med 192.168.0.1 och arbetsstation med *.*.*.2 är väl lämpligt). Hur ska jag gå tillväga för att den ska låta min dator ansluta till internet?

Permalänk
Medlem

@JBerger

Jag blev lite inspirerad av ditt förslag med email/sms så jag slängde ihop en liten lösning. Själv har jag sms kopplat till min mobil. Jag har testat allt utom crontab, den testen körs imorgon kl 06.00

Mina förutsättningar:

¤ Jag har en MTA i en egen zone - se min blog.
¤ Du behöver en MTU på din OS-installation. Om du är en fena på sendmail & co använd den, annars kan jag rekommendera "email"

¤¤¤ Installera email

# cd /usr/local/src
# wget http://www.cleancode.org/downloads/email/email-3.1.2.tar.gz
# gzip -d email-3.1.2.tar.gz
# tar xvf email-3.1.2.tar
# cd email-3.1.2

¤¤¤ Jag väljer att placera email i gnu-katalogen (efter som den ligger i PATH)

# ./configure --bindir=/usr/gnu/bin
# make
# make install

¤¤¤ Mina ändringar i conf

# vi /usr/local/etc/email/email.conf
SMTP_SERVER = '123.456.78.90'
MY_NAME = 'root@OpenSolaris2008.11'
MY_EMAIL = 'pr0xy@home.se'
#SIGNATURE_FILE = '&/email.sig'
#ADDRESS_BOOK = '&/email.address.template'
#VCARD = "~/dean.ldif"

¤¤¤ Testa med ett mail

# email -s "Trying to send the README file to my mailbox" pr0xy@home.se < /usr/local/src/email-3.1.2/README

¤¤¤ Dax att fixa ett litet "script" som kollar status på zfs

¤ Ändra ALERT_TO, ALERT_SUBJECT, DISKS[*]

# su - root
# cd
# mkdir bin
# cd bin
# vi zstatus.sh
-----------8<---------
#!/bin/ksh
#
# Written by: pr0xy 2009-04-01
#
# Copyright: GNU GENERAL PUBLIC LICENSE, Version 2
#
# Purpose: Check zpool status, report any problems by email
#
#
export ALERT_TO="pr0xy@home.se"
export ALERT_SUBJECT="Please check your zfs pool!"
export OOPS=0
export ZSTATUS="/tmp/zstatus_`date +%Y%m%d_%H%M`".tmp
export EMAIL_REPORT="/tmp/zfs_report_`date +%Y%m%d_%H%M`".tmp
# Fill up this array with your config
export DISKS[0]="raidz1"
export DISKS[1]="c3d1"
export DISKS[2]="c4d0"
export DISKS[3]="c4d1"
#
zpool status >> $ZSTATUS

i=0
while [ $i -lt ${#DISKS[*]} ]
do
RAIDZ1=`grep ${DISKS[$i]} $ZSTATUS`
STATE=`echo $RAIDZ1 | awk 'BEGIN { FS = " " } ; { print $2 }'`

if [[ $STATE != "ONLINE" ]]
then
OOPS=1
READ=`echo $RAIDZ1 | awk 'BEGIN { FS = " " } ; { print $3 }'`
WRITE=`echo $RAIDZ1 | awk 'BEGIN { FS = " " } ; { print $4 }'`
CKSUM=`echo $RAIDZ1 | awk 'BEGIN { FS = " " } ; { print $5 }'`
echo "You've probably got some problems with ${DISKS[$i]}!" >> $EMAIL_REPORT
echo "STATE = $STATE" >> $EMAIL_REPORT
echo "READ = $READ" >> $EMAIL_REPORT
echo "WRITE = $WRITE" >> $EMAIL_REPORT
echo "CKSUM = $CKSUM" >> $EMAIL_REPORT
fi
((i +=1))
done

if [[ $OOPS -eq 1 ]]
then
email -s "$ALERT_SUBJECT" $ALERT_TO < $EMAIL_REPORT
fi
rm -f $ZSTATUS
rm -f $EMAIL_REPORT
-----------8<---------

# chmod u+x zstatus.sh

¤¤¤ Fixa crontab (kör skriptet varje dag kl 06.00)

# crontab -e
00 06 * * * /root/bin/zstatus.sh

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av JBerger

Men nu har jag i varje fall en konkret fråga till er, hur gör jag för att shara internet? Har två integrerade NIC och ett flertal instickskort om jag skulle behöva fler framöver men anyhow, ena kommer sitta rätt mot nätet med fast ip som jag måste använda, det andra ska gå direkt till min arbetsstation (solaris med 192.168.0.1 och arbetsstation med *.*.*.2 är väl lämpligt). Hur ska jag gå tillväga för att den ska låta min dator ansluta till internet?

Detta funkar för mig med OpenVPN (min laptop är kopplad till ett 3G-abb. Jag routar 10.8.0.0/24 till mitt lokala LAN) Nu får du själv läsa den fina manualen

# routeadm
Configuration Current Current
Option Configuration System State
---------------------------------------------------------------
IPv4 routing disabled disabled <--!
IPv6 routing disabled disabled
IPv4 forwarding disabled disabled <--!
IPv6 forwarding disabled disabled

# routeadm -e ipv4-forwarding
# routeadm -e ipv4-routing
# routeadm -u
# routeadm
Configuration Current Current
Option Configuration System State
---------------------------------------------------------------
IPv4 routing enabled enabled <--!
IPv6 routing disabled disabled
IPv4 forwarding enabled enabled <--!
IPv6 forwarding disabled disabled

# svcadm enable network/ipfilter

# vi /etc/ipf/ipnat.conf
map rge0 10.8.0.0/24 -> 0/32 portmap tcp/udp auto
map rge0 10.8.0.0/24 -> 0/32

# ipnat -l

# ipnat -f /etc/ipf/ipnat.conf
# ipnat -l

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Avstängd

JBerger,
Du kanske inte behöver köpa 10 diskar i taget? 5 diskar per månad räcker? Jag tror du inte behöver 30 diskar på en gång heller? Ett zpool med 10 diskar räcker långt. Du kommer inte fylla det på lång tid. Ett par månader senare kan du adda 10 diskar till. De sista 10 diskarna kan du nog adda nästa år eller så. Jag tror inte du fyller upp 20 diskar i första taget? 30 diskar verkar lite overkill. Mycket Pr0n eller?

Angående de dära korten jag länkar till, har du bara 2 pci-e slotar så är nog 16p kort bättre. Du verkar ju ha råd, liksom. Men kolla att de funkar på Solaris först. Och slå av raid funktionaliteten om det går. Kanske kan du flasha bios så raid funken stängs av?

Angående NIC frågorna så vet jag inte. men här finns mycket praktisk info som kanske kan hjälpa dig
http://www.sun.com/bigadmin/home/index.jsp

EDIT: Ok, här har vi solaris proffs som tur är!

Permalänk
Medlem

Ja jäklar ja, det där hade tagit mig minst en vecka att klura ut pr0xy, tackar!
Just nu så strular min andra NIC på moderkortet med mig, så innan jag får igång att den fungerar felfritt (hur stänger man av och startar upp en hårdvaru enhet? inget simpelt "svcadm disable/enable yukonx" (tror den fick den benämningen, nge0 är min andra NIC iaf) ?

saddam, det är väl inte möjligt att expandera en raidz1/2 ? Säg då att jag har en 10disk raidz2 uppe, och sedan köper 5 till diskar,.. ska jag bara ha de liggandes till jag får 10 och först då sätta upp en ny raidz2? Med dagens snabba internet så går det hyffsat fort att fylla diskarna ;), men är mer ett pågående projekt jag tänkt ha,.. som det är nu är mina 6 diskar i en raidz1 80% fulla och börjar bli dags att expandera, men så har jag haft de i sisådär ett halvår. Tänkte jag köper 4 till diskar och då skapar antingen 2st raidz1 eller 1st raidz2 (most likely raidz2). Men nästa gång det inträffar?
Ska kolla in den sidan du posta saddam, finns säkerligen mängder med matnyttig information där

Ni får ursäkta om jag har massa frågor (som jag säkerligen kan söka efter internet på och få svar på eventuellt), men skulle vilja få servern att boota upp, med delat internet, och att jag kan vpna in till den, felfritt varje gång. Som det är nu så är den lite strulig från och till, och måste då sätta i skärm/tgt/mus och kolla vad det är vilket är jäkla meck. Hence, jag ber er om snabba lösningar, ni som redan sitter på svaren

@pr0xy, rge0 för dig där, är det den som sitter i väggen och har internet, eller är det den som du ansluter mot resten av hemmanätet? Samt vad är 10.8.0.0/24 -> 0/32 för thingy?
Som det är nu så skulle jag vilja ha ungefär följande
(yukonx och nge1 är mina 2 NIC)
YukonX med ett fast IP in i väggen, som låter anslutningar på nge1 som ansluter till resten av mitt hem få ta del av internetåtkomsten på yukonx.
nge1 kommer sitta på 192.168.0.1, och resten av nätet (säg min arbetsdator) kommer ha 192.168.0.2-> und so weiter.
Ska jag då skriva "map YukonX 192.168.0.2/24 -> 0/32" eller kanske "map nge1 192.168.0.2/24 -> 0/32", eller något annat ip/vad det nu är?

Ursäkta min säkerligen dåliga formaterade text och gröt av frågor, i humbly apologize!

Edit: Jag tror mycket av min huvudvärk kommer försvinna när jag väl går ifrån de gamla komponenterna till de riktiga sakerna jag kommer köra om ett halvår.. får slänga in opensolaris på denna någon gång och se hur allt fungerar å så

Permalänk
Avstängd

Har du bara 4 diskar så går det bra med raidz1. raidz2 är bra när man addar en grupp med ca 10 diskar.

Jag skulle väntat tills jag hade 10 diskar till och skapa en ny zpool med dem. Förstöra behemoth och återanvända de diskarna. Och sen adda 10 diskar i taget till den nya zpoolen. Jag skulle inte blanda raidz1 och raidz2 i samma pool. Bättre bara köra rent raidz2 rakt igenom.

Men frågan är om det inte räcker med 20 diskar? 30 diskar är kanske onödigt? Om du har 20 diskar, så kommer småningom 2TB diskar bli billiga. Då byter du ut en hel 10 grupp mot 2TB diskar. Så istället för att ha 30 diskar, så räcker det med 20 diskar som du byter ut till högre kapacitet då och då? Sen byter du 10 diskar mot 4TB diskar. etc. Byter ut 10 diskar i taget mot högre kapacitet. Om du gör så, så misstänker jag 30 diskar är onödigt många? Ju fler diskar, desto större är risken att nån går sönder. Med 30 diskar så går några sönder då och då. 20 diskar ger lika mycket kapacitet i praktiken (dvs jävligt mycket), men de går inte sönder lika ofta. 100 diskar kommer gå sönder stup i kvarten.

20 st 2TB diskar blir 32 TB, det borde räcka ett tag även för dig.

Permalänk
Medlem

Ahh jag blir tokig! Jag har kommit fram till att YukonX NICen är dum i huve', så den har jag avaktiverat i bios nu och slängde in ett utav mina sunkiga pci nätverkskort. Men jag hade problem att göra några inställningar i network, de sparades helt enkelt inte. Tänkte att jag kanske inte hade rättigheter till det, så jag la till "network management" på min user, och tro fan jag förlorar rättigheter till root / använda su and whatnot. Luckliy for me, this time hade jag en annan BE från start.
Så lite frågor, hur skapar jag en egen BE? beadm create name@snapshot eller något tyckte jag det stod, men då måste jag först göra en snapshot right? Hur gör man det korrekt? Lyckades inte få någon ordning på det, så gör att jag laddar min fungerande, kör update som automatiskt skapar en BE till mig och leker i den, fuckar det ur så loadar jag upp den som inte är updaterad
Andra frågan, någon aning om varför jag inte kan ändra och spara inställningar i network? Vill ju sätta IP som jag måste ha på mitt andra nätverkskort för att kunna ansluta till internet på den (och sedan shara det via nge1)..

Saddam, chassit rymmer helt enkelt 33 diskar (30 fram med 6 backplan och 3 bak med en 120mm->80mm+3x 3.5" plåtlåda ungefär, fast kommer använda 2 diskar där till OS och mirrormode). Så ska köra med mina nuvarande 6 diskar, köpa till 4 diskar och ett kontrollerkort å destroya behemoth och återskapa en raidz2 behemoth med 10x 1tb diskar, sedan köpa 10 diskar å skapa en ny raidz2, och därefter återigen 10 nya med ännu en ny raidz2. Därefter kommer jag byta ut de första 10 diskarna mot 10 andra som är mycket större å finare (jag gissar på 3-5 år in i framtiden or something), och så hålla på så tills.. i dont know

Det är en av anledningarna till att jag köpte detta stora chassit, att jag kan fylla det med många (och skapa 3st raidz), för att när jag väl fyllt diskarna så kommer första klumpen med diskar vara antika och bättre att byta ut dem. Så slipper köpa nytt chassi/backplan/kontrollerkort and whatnot. Sata2/3 kommer ju säkerligen finnas kvar med 3.5" diskar de kommande 10 åren om inte längre
Fast det är en liten övervägningsfråga, därför jag ansåg att jag nog kommer köra 6st raidz1 á 5 diskar då det blir en mindre summa att punga ur varje gång jag behöver mer utrymme och köpa nya/ersätta gamla diskar, nog för jag inte får det riktigt lika säkert, men 1 disk paritet känns som det räcker för mig.

Permalänk
Avstängd

Precis, det tror jag blir bra. Dessssstroy nuvarande behemoth. Sen återskapa den. Och till den enda zpoolen som heter behemoth2 så addar du grupper om 10 diskar, varje grupp är raidz2. Så du har inte flera olika zpool, du har bara en enda zpool.

Det chassit låter intressant, har du länk till den? I framtiden kanske man vill göra något liknande, slänga upp en fet server med 10-20 diskar i. Och så kopplar man 4W tunna klienter på 300g st och alla kör mot raidet. Det blir fan en lösning som skulle kostat miljoner för några år sen.

Permalänk
Medlem

Här är caset som jag använder, so far är det helt ok
http://www.overclock3d.net/reviews.php?/cases_cooling/lian_li...

Lite frågor som jag kom att tänka på när jag inte lyckades somna igår:
Går det ha ett gemensamt namn/"enhet" med flera raidz?
Som det är nu är det ju följande för mig:

behemoth
raidz1
disk1
disk2
osv.

Kan man ha det som följande på något vis

behemoth
raidz1
disk1
disk2
undsoweiter
raidz1
disk6
disk7
merdisk
raidz1
disk11
disk12
...

Var för mig det går något liknande med vanlig raid. Hur blir då skrivningen av filer och liknande ifall det skulle fungera? Hur vet man vilka filer som hanmnar på vilken raidz? Skrivs filer till flera raidz samtidigt?

Fråga numbero 2:
De eventuella read/write/chcksum errors man kan se med 'zpool status', upptäcks de automatiskt eller enbart när man kört en scrub? Om de upptäcks innan, vad gör då en scrub? Antar att när man får fel där så är det den disken som har felen som man helst ska returnera då den är något trasig och säkerligen påväg att bli trasigare.

Om man haft ett större hem med barn och fruga så hade ju en kraftigare dator/server med små tunna klienter i barnens rum och liknande varit godsend, bara behöva upgradera en dator för att alla ska få det snabbare och så :). Finns det några tunna klienter för windows? Inte direkt så att man vill lära upp albin 8 år hur han ska göra för att surfa och lyssna på mp3 i solaris, eller ännu mindre säga till han att "Nej, tyvär kan du inte spela world of warcraft för Microsoft och dess produkter är inte tillåtna i detta hemmet" ;P

Edit: So much med försök att få texten att se någorlunda formaterad ut ~~

Permalänk
Medlem

JBerger:
Man kan adda flera raidz till samma pool om man vill det. I praktiken kommer det då att fungera ungefär som en raid0 uppbyggd av flera raidz kan man säga (ungefär som RAID-50). Då fördelas filerna jämnt över de olika raidz som ingår i poolen.

Man kan också ha separata pooler så som du skrev ovan JBerger. Ofta har man ju redan det eftersom man installerar systemet på rpool och sedan skapar man en ny pool för lagringen. Men då kan man inte ha ett filsystem som sträcker sig mellan de olika poolerna. Detta kan ju vara en fördel om man vill ha kontroll på vilka hårddiskar som filerna hamnar på.

Själv har jag en mirror som rpool. Vissa saker funkar bättre från min mirror som t.ex. streama video till min mediaspelare eller att lagra virtuella diskar för diverse operativsystem som jag virtualiserar med VirtualBox. Då skapar jag bara ett filsystem för det ändamålet på min rpool och monterar på lämpligt ställe i det virtuella filsystemet. För masslagring har jag en raidz1 med 5 diskar som jag har i en zpool jag kallar för tank.

Här är exempel på hur man kan göra med en dröse hårddiskar:
http://www.solarisinternals.com/wiki/index.php/ZFS_Configurat...

Edit: Som svar på fråga två så upptäcks felen när man försöker läsa från lagringsutrymmet men bara för de filer som man läser ifrån. De upptäckta visas om man tar zpool status. Nu läser man ju inte hela tiden alla filer man har lagrade och scrub använder man då till för att gå igenom precis allt som finns lagrat på sin pool för att hitta eventuella fel även i de filer som man inte läst på länge. Så har jag fattat saken om jag inte missuppfattat det...

Permalänk
Avstängd

Det dära chassit verkar ju hel fräckt! Nu blir man ju lite sugen på att slänga upp en superserver hemma själv. *flås flås* Chassit är bra och du kan rekommendera det? Hur mycket kostade det? Vad händer om du använder en liten låda där du kan stoppa in 5 diskar på samma plats som 3 diskar? Är lådan designad för det, klarar den av den extra värmeutvecklingen? Har du gömt chassit i garderoben med långa sladdar till skrivbordet?

Fråga 1:
Du bör ha som det första exemplet, då har du bara en enda zpool som består av flera raidz2.

I exempel två har du flera olika zpool, då har du flera olika ZFS raid. Varje zpool är ju en ZFS raid. Du vill kanske inte ha flera olika ZFS raid. Du vill ha en enda stor ZFS raid, dvs en enda zpool.

Fråga 2:
zpool status bara rapporterar om det blivit fel med de senaste filoperationerna, ZFS har alltså detekterat något fel. (ZFS lagar felen som den hittat on-the-fly automatiskt).

scrub går igenom alla data i disken och dubbelkontrollerar att inget är knas. Den kollar alltså även data som du inte rört nyligen. scrub ska man köra en gång i veckan om man är rädd om sina data. Men du kan ju använda raidet obehindrat under tiden så en scrub ställer inte till problem. Du måste inte ta ned raidet och vänta.

Här står om tunna klienter, mitt andra inlägg (räknat från slutet av sidan)
http://www.sweclockers.com/forum/showthread.php?threadid=8137...

Du kan köra olika OS via SunRay tunna klienter. Här kör de Apple Mac OS X. Den tunna klienten syns bra på andra bilden, den är gråvit. Väger 0,38kg, stor som en videokassett. Tar kort för att logga in, eller så kan du logga in som vanligt.
http://blogs.sun.com/ThinGuy/entry/apple_osx_desktop_on_sun

Du kan även köra Linux och Windows, via open source VirtualBox. Eller via VMware och RDP. Dock så vet jag inte hur det blir med 3d grafik. Jag vet att VirtualBox nyligen kom med stöd för en tidig version av OpenGL så du kan köra t.ex. Halflife1, Warcraft3, Unreal Tournament 2004(?), etc - förutsatt att du har ett Nvidia kort (endast Nvidia har släppt Solaris 3D drivrutiner). DirectX stöd är på väg till VirtualBox.

Så för enklare spel funkar nog tunna klienter. WoW funkar inte just nu, det använder en för ny version av OpenGL. Men VirtualBox utvecklingen går i rasande fart.

Man brukar räkna med att en quad core kan driva 40 tunna klienter. Så med en i7 kan du nog driva hela grannskapet, och ge alla en fet quota, med access till alla dina MP3 på ZFS raidet. De har en MTBF av 22 år.

SunRay har även USB stöd. Så de kan använda en minnessticka för att föra över filer t.ex. Eller så kan du stänga av deras USB port från din server om du bedömer det vara för osäkert. Man kan köra SunRay via 3G. Eller trådlöst:
http://platechnotes.patrickarchibald.com/2008/06/sun-ray-2-wi...

Eller över internet. Så ge en SunRay till din gamla mor och kör via internet, och hon slipper sköta nånting. Du gör allt. Men du har ju gjort snapshot på hennes miljö, så kraschar nåt så återställer du från snapshoten och hon är igång igen på 2 röda sekunder. Ge henne en printer som hon kopplar in via USB så har hon allt hon behöver.

Problemet med tunna klienter är att den klarar inte grafik med många fps. Kör du video så är typ 500x500 pixlar det största den klarar av att visa laggfritt. Eftersom servern skickar bitmaps till klienten. Om man skickar 1024x768x24bitplans, 60 ggr i sekunden så blir det mycket bandbredd. Kanske 300MB/sek, dvs mera än en Gigabit NIC klarar. För små rutor med film går det bra.

Permalänk
Medlem

Saddam, den kostade ~2500kr something, men den är typ slut hos tillverkaren/leverantörer så antar den inte går att få tag på längre (fanns 2 kvar när jag beställde min). Är modulärt så man får köpa till lite småsaker som man vill ha (Jag vill byta toppplåten mot en annan som har 2x120mm platser för 250kr, sedan en liten 120mm->80mm+3hdd cage för 250kr). Mina chieftec sst-2131 backplan slida lätt in, det är lite annorlunda hur man monterar 5.25" enheter/backplan osv, inga små "hyllplan" som man kan låta enheten vila på. Detta är både bra och dåligt, bra då man får in i stort sett vilken enhet, backplan eller vad man nu vill ha i chassit, men lite dumt då de inte har mer än skruvarna i sidan som de vilar på (som inte är gummiupphängt eller liknande). Jag löste det genom att börja nedifrån med mina backplan och bara stapla (+ skruvarna då förståss).
Kör alla fläktar till att suga in luft i chassit, förutom de 2 i toppen som blåser ut (då det är dåligt med utrymme under och på sidorna där den står i min garderob så ansåg jag det var bäst att göra så för att få bästa möjliga kylning). En liten mini review om chassit, hoppas det duger

Ronny & saddam om fråga 1;
I den länken du skrev ronny där de hade flera raidz i samma rpool är så jag tänkt göra (Då det inte går att expandera en rpool och att behöva kopiera all data till temporär plats -> destroy pool -> skapa ny pool med gamla + nya diskar -> kopiera tillbaka all data varje gång jag vill expandera kommer vara näst intill omöjligt när man kommer upp i 15-20tb osv).
Men om den kör "raid0" mellan de olika raidzen i samma pool,.. hur blir det då med paritet och liknande? Raid0 är ju att dör en disk så tappar du allt, i detta fallet skulle en hdd i en raidz dö, så skulle raidzen gnälla, dör två diskar i samma raidz så dör raidzen, och då dör _alla_ raidz. Kan det verkligen vara så illa?
Vill ju helst inte ha flera pooler (och därmed flera enheter, vill ha en gigantisk jävla enhet på oändligt många terabyte, inte flera små)... nu när jag tänker efter så kommer det väl bli att man får köra en raidz på raidzen för att skydda sig men för att få som jag vill, or?
mao

behemoth
----raidz1
-------raidz1
---------diskar
-------raidz1
---------diskar
-------raidz1
---------diskar

ungefär? Blir nog lite väl mycket för min del, med 30 diskar på 6st raidz så blir det ju 6 hdd paritet i vardera raidz, och sedan 4 till diskar (en hel raidz, där en disk redan är räknad som paritet). Mao 10/30 diskar som paritet, brr :P. Får nog leva med att i varje fall några pools. Kanske 3st 10disk raidz2 poler or something...

Tackar er båda för infon om scrub och hdd errors, var väl rätt självklart och bara jag som var trött när jag tänkte på det :), så en scrub i veckan och mail/sms raportering när den hittar fel utöver den scrubben känns som rätt säkert och bra.

Saddam,
Jo det går ju köra med windows i virtualbox och så, men inte problemfritt ännu nej. Kanske kan det dära nya onlive eller vad de kallade det, där man kan streama spel från en server till en tunn klient fungera för hemmabruk? (Det de tänkt sig är ju glöm och dröm, hur många gigantiska servrar måste de inte ha för att 10,000 pers ska kunna spela crysis genom deras maskiner? Självkllart vill ju alla kunder spela allt i max också vad givet.. yeah right.) Men för eget bruk med 2-4 användare där 2 surfar, en ser på film och en den fjärde spelar WoW borde ju fungera fint på en i7a

Statusrapport om min solarisserver:
Behemoth raidzen hittas och fungerar felfritt vid varje uppstart, reboot och poweroff kommandona gör precis som man tycker de ska göra (shutdown hade man ju tyckt skulle fungerat som poweroff men icke..). Mitt yukonx NIC har jag disablat då det bara bråkade, men mina nätverksinställningar vägrar spara sig när jag försöker ändra med den GUIn som finns under administration. CIFS sharen verkar också fungera vid uppstart nu (Kan ha varit pga att behemoth raidzen inte fungerade som smb/server inte gick online kanske?).
Så problem att lösa: Varför sparar den inte settings, hur fungerar zfs snapshot lite snabbt och lätt så jag kan skapa egna BEnvironments, vilken NIC ska peka var eller till vilket ip (De scripten pr0xy skrev), other than that i'm good for now.

Jävlar vad jag babblar... xD

Permalänk
Avstängd

Angående fråga 1.

Skapa en zpool (blanda inte ihop det med rpool - som är själva operativsystemets zpool där OS lagras) för lagring. zpool = ZFS raid.

behemoth (din zpool heter behemoth)
--raidz2
------10 diskar
--raidz2
------10 diskar
--raidz2
------10 diskar

Om en raidz2 kraschar så kraschar även ditt ZFS raid. Det inträffar om 3 diskar i en raidz2 går sönder. Vilket är ganska osannolikt. Om endast 2 diskar kraschar i en raidz2 så är allt väl. Totalt kan 6 diskar krascha utan problem (om de kraschar i olika raidz2 grupper).

Ett annat alternativ är t.ex.
behemoth
--mirror
----2 diskar
--mirror
----2 diskar
--mirror
----2 diskar
etc, totalt 15 mirrors.

Om en mirror kraschar, så kraschar ditt ZFS raid. Med denna setup får du högre säkerhet än med raidz2. Eftersom hela 15 diskar används för paritet.

Men raidz2 räcker och ger mycket god säkerhet. raidz1 är bra för små grupper av diskar.

Är man extremt nojjig, så kan man
behemoth
--raidz2
-----3 diskar
--raidz2
-----3 diskar
etc 10 grupper totalt. Då kan 20 diskar krascha utan problem.

(Sen har du ju förstås ytterligare en zpool med ditt OS på:
rpool
--mirror
-----2 diskar (som innehåller OpenSolaris)

Så du har då 2 st zpool (dvs ZFS raid), den ena heter rpool och innehåller OS. Den andra heter behemoth och innehåller lagrade data.)

Onlive är jag skeptisk till. Pingen lär ju vara jättehög och dessutom laggar det. Man kan inte spela grafikintensiva spel på hög upplösning. Men väl gamla spel. Men då funkar en tunn klient också.

Angående BE environments och snapshots, så skrev Ronnylov en bra sammanfattning tidigare i denna tråd. Bläddra bak några sidor. Angående dina nätverksinställningar som inte vill spara sig, har du provat att göra samma sak med kommandon? Det funkar nog bättre.

Du kanske borde överväga köpa "green disks" som drar lite ström? Jag tror Western Digital har en sån serie?

Permalänk
Medlem

Jag är osäker på vad som händer om en raidz dör i en pool bestående av flera raidz. Antingen förlorar man endast de filer som råkar ligga på denna raidz (men man vet ju inte vilka filer som ligger där) eller så förlorar man hela poolen... Saddam kanske vet? Men det är ju bara om du förlorar mer än en hårddisk i någon raidz1 detta händer. Tycker du det låter riskabelt så kör med raidz2 istället och kanske någon hotspare inte är fel heller.

Jag missade förresten en nyhet jag borde ha rapporterat om igår.
Nexenta har släppt NexentaCore Unstable (v2.0 rc1)
http://distrowatch.com/?newsid=05404

Den verkligt stora nyheten är deras experimentella support för 128-bitars processorer!
http://www.nexenta.org/os/x86_128_support
Som sagt var, jag borde ha nämnt detta redan igår, känns gammalt nu ju...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ronnylov
Jag är osäker på vad som händer om en raidz dör i en pool bestående av flera raidz. Antingen förlorar man endast de filer som råkar ligga på denna raidz (men man vet ju inte vilka filer som ligger där) eller så förlorar man hela poolen...

Nej, jag vet inte. Men vid närmre eftertanke så kanske det är så att man förlorar raidz och inte hela poolen? Man kanske borde kolla upp det...

Angående din länk om 128 bits CPU, så var det verkligen coolt! Solaris är verkligen råhäftigt att man kan baka in sån teknologi redan nu. För teknisk information, läs lite mera om hur Solaris hanterar 128 bits CPU på Ronnylovs länk.

Permalänk
Medlem

Saddam,
Kör min rpool i mirrormode med 2 gamla ide diskar (for now, brist på sataplatser och hade ide diskar hemma) som fungerar fin fint

Känns som den första modellen du skrev, 3st raidz2 med 10 diskar vardera känns som bäst, som du säger, att tre diskar i samma raidz2 skulle krasha är ju rätt minimalt, och kommer verkligen inte vilja köra raidz1 på 3 zpools med 10 diskar vardera, two down and all is fucked :P. Två "ought to be safe enough",. kan man hoppas... fan vad jag kommer gråta blod om alla mina 30 diskar skulle tappa all data pga 3 diskar dör i samma zpool >_<

Går det på något vis (gör det säkerligen) att stänga av åtkomsten/exporta en zpool/min behemoth om den upptäcker ett fel? Så är man ju lite extra säker (ingen mer läsning/skrivning till behemoth förän jag stängt av, bytat hdd och startat upp igen), kan ju vara som extra säkerhet. Alternativt att man har det först vid 2 diskar i samma zpool or something.

Saddam, angående nätverksinställningar via kommandon, antar det finns att läsa på den sidan du länkade igår (http://www.sun.com/bigadmin/home/index.jsp), men har inte haft tid att läsa där någonting ännu. Du har inte lite snabba kommandon liggandes på lager som jag kan utgå ifrån och testa lite?
Ska läsa igenom tråden igen efter snapshot/BEnvironments senare ikväll och se vad jag kan lära mig

Permalänk
Avstängd

Jag tror den första modellen är bra för din setup.

Man kan stänga av åtkomsten så fort det blir ett fel man upptäckt med zpool status. Det göres lämpligtvis i samma shellscript som Pr0xy gjorde.

Jag skulle typ göra "zpool status" 1-2 ggr om dygnet mha ett shellscript i crontab. Och så fort något fel visar sig, så mailar eller smsar servern dig. Och då vet du vilken disk som måste bytas och gör det omedelbart. Alternativt är att så fort det detekteras fel så sker "export behemoth" och "poweroff" i shellscriptet. Men det tror jag är onödigt. I vilket fall som helst, så fort det detekteras ett enda fel så bör man vara försiktig tror jag. Jag tror man inte bör vänta tills det är 25-50 fel.

(Jag tror dock att det är ganska lugnt med 25-50 fel eftersom ZFS reparerar alla fel och det är antagligen långt kvar tills disken dör helt och hållet. Kanske veckor eller månader kvar).

Och en gång i veckan så gör man scrub. Gör man allt detta (inklusive att byta en disk så fort det blir ett enda bitfel) och dessutom använder raidz2 så har man en mycket säker datalagringsmiljö, speciellt som ZFS skyddar mot massa konstiga fel som inte vanlig raid gör, och mot silent corruption.

Och dessutom, hur ofta kraschar en disk? Inte ofta. Jag har aldrig varit med om det. I raidz2 så kan t.om. 2 diskar krascha utan problem. Att 2 diskar kraschar kommer nog aldrig hända vid normal användning. Möjligen kan det ske om något fysiskt händer, typ jordbävning, inbrott, etc?

Dock skulle jag nog vänta så långt som möjligt innan jag lade in 30 diskar. Jag skulle köra med 20 diskar så länge som möjligt. Det kanske räcker att uppgradera en raidz2 i taget till större och större diskar. Jag misstänker att 30 diskar är jobbiga att underhålla, misstänker jag. Drar mycket ström, väger mycket, går sönder, etc. Om 10 år så kanske du tröttnat på att tanka data och har familj och inte vill lägga halva hushållskassan på att köpa nya diskar hela tiden så fort det blivit ett enda bitfel. Så du kommer att köra diskar med bitfel, eftersom det blir för dyrt att byta ut 30 diskar mot felfria. Om man verkligen måste, så först då, går man från 20 diskar till 30 diskar. Men skjut upp 20->30 diskar så länge som möjligt, tror jag är ett bra beslut?

Angående snabba kommandon om nätverksuppsättning så kan jag inte sånt. Jag fick googla och experimentera ganska mycket förrut med tidigare Solarisversioner. Numera bara funkar det. Men det finns mycket info om nätverk och solaris.

Permalänk
Medlem

Det fina är ju att man inte behöver köpa diskar om det skulle bli bitfel, bara byta ut och få en ny gratis ju
Kommer byta ut disken så fort det blir något fel, nog för att disken eventuellt kan lagas via scrub eller lowlevelformatering, men den blir ju aldrig helt perfekt igen.
Blir fixa upp en 10disk raidz2a lagom till sommaren, och räknar med att de kommer hålla fram till nästa vår någongång och då köpa 10 till diskar som jag beräknar hålla i kanske 1-2år något såntdära innan jag behöver mer utrymme. Skulle det bli för dyrt att upgradera och underhålla det så får jag väl helt enkelt snåla lite längre med utrymmet, men 10diskar vartannat år blir det ungefär 400kr per månad vilket inte är fullt så oöverkomligt ändå

Eventuellt kommer man väl upp i nivån då man har hela internet på sin dator hemma och inte behöver mer diskar haha ;D

Får googla runt efter lite kommandon och se vad jag kan hitta, postar i denna tråden när jag hittat och lärt mig de

Permalänk
Medlem

Jag missade nog en del inlägg emellan när jag gav mitt senaste svar (så jag visste inte att saddam redan svarat att hela poolen kraschar, ni postar ju så snabbt att jag inte hinner med). Jag tror att saddam har rätt, hela poolen är förlorad om någon av de ingående raidz havererar. En zpool gör striping mellan dess ingående enheter och om någon förloras blir det som när en RAID0-disk kraschar...

Det där med att stänga ner en pool vid diskkrasch går kanske att ordna, jag vet inte hur. zpool export kanske är riskabelt i ett sådant läge? Men ett alternativ är en hot spare disk (eller flera) så att den trasiga disken automatiskt byts ut så slipper man nertiden. Jag har för mig att de hot spares man lägger till sin pool kan användas i vilken som helst av de olika ingående raidz2 arrayerna (så länge som hot spare disken är minst lika stor som den största av de ingående diskarna).

Angående det där nojiga alternativet med många raidz2 bestående av 3 diskar vardera tycker jag det verkar smartare att köra med 3-diskars mirrors istället som ju ger samma utrymme men lägre åtkomsttider. Raidz2 är vettigt bara om man har minst 4 diskar. Alternativet med 3 stycken 10-diskars raidz2 verkar vettigt, eller kanske 4 stycken 7-diskars raidz2 med 2 stycken hot spares om man vill ha ännu mera säkerhet. 3 stycken 9-diskars raidz2 med 3 stycken hot spares kan också vara ett alternativ om du har 30 st hårddiskar.

Boot environments är jättelätt.
Lista dem med beadm list
Skapa en ny med beadm create be_namn
Aktivera den med beadm activate be_namn
Nästa gång du startar datorn så har du fått ett nytt val i grub som blivit default om du aktiverat den. Annars kan man låta bli att aktivera den och manuellt välja den alternativa bootmiljön som ett icke-standard-val i grub.

Själv har jag en bootmiljö där jag testar opensolaris unstable. Känns skoj att kunna leka lite i en bootmiljö och sedan gå tillbaka till stabila miljön till vardags. Blir som två olika installationer som delar på gemensamma filer och endst lagrar skillnaderna i filsystemen separat. Rena undret tycker jag...

Permalänk
Medlem

ronny,
Ahh, jag körde bara beadm för att få fram kommandona och såg att det stod något i stil med 'beadm name@snapshot' och antog att name var namnet på sin BEnviro. och snapshot var en snapshot man ville använda sig av ungefär. Men det var så lätt som du skrev märkte jag nu ja, härligt
Kan man ju leka på och härja så fritt man vill utan att oroa sig

En tanke,.. om jag nu skulle vilja byta till den stabila miljön när man sabbat en testmiljö men inte har su access eller rättigheter att välja vilken som är active med beadm, då måste man ju ansluta skärm/tgt/mus och boota upp å välja den andra miljön osv. Går det att ansluta till solarisburken genom nätverket (RealVNC/PuTTY eller liknande) innan man behöver välja?

Kanske kan man sätta en Benviro. som active vid nästa boot, men booten därpå så startar den stabila booten, om nu något skulle hända,.. kan ju vara värt tycker jag, slippa böka fram och tillbaka med servern å kablage und so weiter.

Permalänk
Medlem

@all,

jag är inte proffs på OS, jag har bara kört det i halvannan månad. Det är ett litet hobbyprojekt. För ett par år sedan körde jag Solaris fast på en mycket "högre nivå". Det fanns alltid "någon" som installerade/patchade och tog hand om allt det där...
När det gäller script mm. så är det en helt annan sak. Som ni kanske la märke till så är skriptet "utvecklat" med ksh, det funkar i princip på alla unix/linux system. Det jag "slängde ihop" är en QD-lösning som funkar. I proffesionella sammanhang så hade jag aldrig levererat en sådan lösning till en kund, men för hemmabruk så funkar det.

@JBerger
När det gäller nätverk, routing, firewalls mm så avråder jag dig ifrån att koppla en "burk" direkt emot internet! Om du visste vad jag vet så skulle du förstå det. Mitt råd är: köp en HW-firewall som fixar NAT:en. Jag hade bra koll på IPTABLES för ett par år sedan men jag tröttnade på att hålla koll på alla exploits etc. och satsade ett par tusen på en bra HW-firewall. Den "sköter sig själv" och drar lite energi. Jag har gett dig lite hintar så att du själv kan googla och gå vidare om du vill det. Min OpenVpn lösning är nog så säker man kan få den i dagsläget. Jag exponerar bara en UDP-port mot nätet och har en PKI-lösning med en 1024-bitars nyckel - så det ska nog rätt mycket cpu-kraft till för att knäcka den

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

Eh, oroar mig inte för exploits och folk som försöker komma in på min burk. Om de vill så go right ahead. Är ju inte så att jag är direkt säkrare om jag sitter på windows med inbyggda firewallen avstängd skulle jag tro

Men kanske borde överväga det lite, kanske inte kul om någon kommer in och förstör alla mina filer and whatnot.. men har ju aldrig hänt ännu för mig eller någon jag känner, och att behöva ha på min egna dator och bara ha den ansluten till servern är ju också lite segt...
Kanske får ha tre datorer hemma, en lekserver som sköter http/ftp/mysql/apache servandet som de får hacka bäst de vill. I don't know, men känns som det inte är något jag behöver oroa mig över.

Permalänk
Medlem

@JBerger

Eftersom dina "burkar" inte blivit hackade (vad du känner till) så kan jag förstå din inställning

Själv är jag "mycket försiktig" när det gäller internet eftersom jag själv har "blivit hackad" (i linux) av en exploit för många år sedan. Som tur var så upptäckte jag det när crackern "hade fingrarna i syltburken". På den tiden var det modem som gällde Så vad gjorde han/hon då? Jo "crackern" tankade ner s/w till min burk, kompilerade den och installerade den! Vad gjorde skiten då? Jo den satte mitt nätverkskort i "promiscuous mode" och "greppade" på typ "login". Därefter skickade "roboten" ett mail till någon adress på hotmail. Du inser väl vad det betyder ...
Som tur var körde jag manuell delivery av mail så jag kunde stoppa mailet innan det skickades till honom/henne. Efter denna incident så är jag paranoid när det gäller "öppna portar"!
Om du inte redan känner till det så finns det "applikationer" som analyserar din IP-stack - fingerprint - och anpassar expoliten efter det.
Så mitt råd är: att ALDRIG koppla någon burk direkt mot internet!

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

Jag kom på en liten tanke angående ansluta min server direkt mot nätet och säkerhet this and that... om jag lägger upp diverse virtualboxar som står för apache/ftp/http och all annan acess,.. kan jag ge dem tillgång till internet, men inte vanliga opensolaris på något vis tro? och lyckas begränsa att allt utom det i virtualboxen till oåtkompligt (mappade saker får read only). Då gör det ju inte så mycket om de skulle förstöra t.ex. min apache då den har en egen "server" so to speak... just a thought

Permalänk
Medlem

Ok, detta är tyvärr den största attackvektorn i OS - läs mitt förra inlägg.

/t

EDIT: Nu ska jag "övervaka" mina applikationer i utlandet. CU!

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

Problemet med tunna klienter är att den klarar inte grafik med många fps. Kör du video så är typ 500x500 pixlar det största den klarar av att visa laggfritt. Eftersom servern skickar bitmaps till klienten. Om man skickar 1024x768x24bitplans, 60 ggr i sekunden så blir det mycket bandbredd. Kanske 300MB/sek, dvs mera än en Gigabit NIC klarar. För små rutor med film går det bra.

Jag har haft en SunRay som arbetsredskap i ett par år. Den hade två fördelar: tystnaden och sessionshantering med minneskorten. Terminalfönster och liknande applikationer var inga problem men tex Firfox på aftonbladet.se var plågsamt ryckigt och slött. Hörlursjacket klarade inte av att driva mina Sennheiser lurar.

Möjligen har det blivit bättre med de nya klienterna men jag skulle protestera vilt om någon bytte ut min arbetsdator mot en SunRay.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av JBerger
Mitt yukonx NIC har jag disablat då det bara bråkade, men mina nätverksinställningar vägrar spara sig när jag försöker ändra med den GUIn som finns under administration.

Nu har jag varit lite för lat för att leta rätt på vad du vill göra...
Om du kör OpenSolaris 2008.11 och konfigurerar nätverket med NWAM så kan du väl inte göra några mer avancerade inställningar. NWAM 0.5 klarar bara att konfigurer upp DHCP och statiska adresser på, vanliga fysiska, nätverkskort.

Se man-sidan för nwamd.

Permalänk
Avstängd

Fnorken,
Om din SunRay var långsam så berodde det på att servern inte hade tillräckligt med kräm. Faktum är att jag har ett par sunray här som jag inte installerat än. Jag kan göra det och rapportera om någon är nyfiken. Så kan ni be mig utföra saker och jag kan rapportera resultatet, precis som Ronnylov gjort åt oss när vi undrat något.

Pr0xy,
Vad tror du om att sätta upp en zone i OS då? Och exponera den mot internet? Är det en bättre lösning än att exponera själva OS?

En vanlig D-link router, är det verkligen råskräp eller duger den, anser du? Vad har du för lösning?

Har du kollat upp COMSTAR och CrossBow? Crossbow tillåter dig att sätta upp virtuella NICs i ett stort nätverk. Du kan snoopa dem och göra precis allt möjligt som du kan göra med riktiga NICs. COMSTAR är nån lösning som jag inte riktigt läst mig in på, men det är något liknande. Nån som vet mera?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Pr0xy,
Vad tror du om att sätta upp en zone i OS då? Och exponera den mot internet? Är det en bättre lösning än att exponera själva OS?

En vanlig D-link router, är det verkligen råskräp eller duger den, anser du? Vad har du för lösning?
[/B]

Man måste ju ändå forwarda de portar som man vill lyssna på så där är man ju exponerad oavsett hw brandvägg. Där är ju zones ett extra säkerhetslager. Oavsett om de hackar zonen kommer de ej åt själva maskinen/globala zonen. I OpenSolaris är zoner dock tydligen alltid fulla (än så länge), i vanliga Solaris kan man ju köra sparse, dvs lofs monterade /usr osv från globala zonen - en hacker kan då aldrig skriva sönder/installera nya OS binärer. Man kan ju fortfarande lofs montera apps från globala zonen, t.ex. egna versioner av apache osv. Då måste man dock hålla koll på att uppdatera dom vartefter exploits dyker upp.

EDIT: Det gick visst att köra sparse i 2008.11. Dock verkar paketuppdatering inte vara fullt utbyggd ännu, vet inte om det finns några risker vid uppdateringar.

Fråga:

Någon som testat xvm server och kört OpenSolaris paravirtualiserat? Vill bli av med en fysisk burk jag kör Solaris 10 på och vill virtualisera den med en xen-liknande lösning. hvm går långsamt, vill köra pv (dvs det enda alternativet som finns är OpenSolaris). Har testat i centos men ej fått det att lira riktigt som pv.
Frågan är hur det funkar med OpenSolaris som dom0, främst m.a.p. stabilitet/hanterbarhet (patchning osv). Prestandan verkar bra, dock kan det hacka lite i dom0 när man kör io-intensiva prylar i domU.