OpenSolaris 2008.11 är här!

Permalänk

@pr0xy
Jag har inte haft så mycket tid att kolla på det efter att jag stötte på patrull med tuntap, väldigt mycket jobb och sådant just nu. Men om ett par veckor kommer jag nog få väldigt mycket mer tid. Dessutom har jag inget direkt behov av det just nu. Mest en skoj grej, så inte så högt prioriterat.

@saddam och jookeer
Har personligen kört Nexenta nu sedan dagarna kringa då denna tråd skapades (början av december 2008) och kan säga att jag bara haft problem en enda gång. Då var det en "apt-clone dist-upgrade" (som är apt-get + zfs) som inte gick vägen. Vilket endast var att göra en rollback i princip. Så jag är mycket nöjd med stabilitet och deras apt + zfs integrering. Dessutom har dem portat det mesta ur apt källorna ifrån Ubuntu (dock inte drivrutiner så klart som saddam nämner).

Annars ser vi fram emot ZFS Crypto som ska vara (det initiella datumet i alla fall ) "feature complete" nu i april. http://opensolaris.org/os/project/zfs-crypto/. Vore trevligt om det kom nu i dessa tider så att man kan se till att kryptera alla sina semesterfilmer. Vem vill att herr storebror skall få titta på dem gratis? Nej han ska betala så klart!

Visa signatur

Permalänk
Avstängd

Rastersize,
Vad tycker du om Nexenta om man jämför med Ubuntu då? Är det mycket annorlunda?

Permalänk

@saddam
Har inte kört Ubuntu Server mer än kanske 2 dagar så jag kan verkligen inte ge en vidare bra bild. Valde Nexenta då det inte gick att installera "vanilla" disten av OpenSolaris på min burk av någon konstig anledning (installern krashade).

Kan dock säga att jag var tvungen att köra en rollback idag igen, ty någonting pajade zfs share delar så det gick inte att komma åt ett smack via varesig nfs eller cifs. Enda jobbiga med det är att man tyvärr måste koppla in datorn till en skärm och välja ett äldre snapshot i grub. Hade varit mycket bättre och snyggare ifall kommandot hade uppdaterad grub åt en att välja det förra snapshotet eller ett eget valbart, kanske är möjligt via något annat kommando. Får efterforskas. Summa sumarum, Nexenta känns inte jätte stabilt just nu. Varannan dist-upgrade (okej utav de senaste 4 då, har kört det kanske 20 gånger totalt) har pajat mitt system.

Edit: Det någonting var nog en ny version av sunwzfskr/sunwzfsr/sunwzfsu. Alltås en uppdatering av ZFS programmen.

Edit: Strunta i det som står nedan, har testat lite och nfs ger mig bättre överförningshastighet. Inte för att jag egentligen är nöjd med det jag får ut (50-70 MB/s) över gbit med 4 st diskar i raidz1.
Håller just nu på att sätta upp en cifs share för att testa det lite (verkar än så länge funka bra mycket bättre än min nfs share) och nu kommer den svåra/jobbiga biten. Jag har ungefär 619 GB data i min tank/storage volym och skulle nu vilja flytta allt detta till den nya volymen som ligger på samma zpool. Testade för att se ifall mv skulle fungera lika fint som det gör när man flyttar inom en disk men det gör det inte utan all data var tvunget att skrivas på nytt. Inte optimalt. Så finns det något sätt (har googlat men inte hittat något) att inte flytta datan utan endast uppdatera så att allt finns under rätt volym?

Alternativt går det att få casesensitivity satt till mixed i efterhand? Just nu är det satt till sensitive på tank/storage volymen.

Visa signatur

Permalänk
Avstängd

Ok, så det är lite instabilt. Men alla rollbacks, har de strulat någon gång alls? Eller funkar de bra?

Vad jag vet (är ganska säker på detta) så måste du kopiera alla data, det går ej med mv. Ty, du ska ju flytta från ett filsystem till ett annat filsystem, typ partition till partition. Filsystemen är ju inte som en katalog.

Angående casesensitivity så går det inte att ändra i efterhand (i denna version av ZFS). Då måste skapa en ny katalog med rätt properties och kopiera alla filer.

Permalänk

Ja det finns en del instabila paket, men kör man unstable får man leva med det (det blir ju lite roligare då också ). Alla rollbacks (har behövt göra två stycken) har fungerat väldigt bra. Aldrig varit något strul med dem.

Som jag förmodade då. Får väll hoppas det kommer ut en ny version av ZFS som stödjer det snart då
Hänger kvar en stund till i NFS träsket då. After all, it works.

Visa signatur

Permalänk
Medlem

Angående koppla in skärm och tangentbord för att göra rollback så behövs det inte i opensolaris. I opensolaris kan man använda beadm list för att se vilka bootmiljöer man kan välja på och så skriver man beadm activate följt av namnet på den man vill återställa till, sedan startar man om datorn.

Jag hittade denna länk som beskriver hur man gör i Nexenta:
http://foss-boss.blogspot.com/2008/12/magical-apt-clone-broke...

Permalänk
Medlem

Går det att installera OpenSolaris utan GNOME och dessa extra-paket som följer med? Vore fint att kunna testa en "ren" version av OpenSolaris. Har försökt leta till mig någonting men utan resultat.

Permalänk
Medlem

MilaX server kan möjligen vara vad du söker woicer.
http://www.milax.org/

Permalänk
Avstängd

Rastersize,
Det finns inga planer vad jag vet, att ändra ZFS så man kan sätta mixedsensitivity i efterhand. Det kommer väl småningom, när alla andra viktigare saker är fixat. Men just nu finns inga planer på det.

Woicer,
Varför vill du installera OpenSolaris utan gnome? Är du rädd för att sluka RAM eller hårddisk utrymme i onödan? Vad är syftet?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Rastersize,
Det finns inga planer vad jag vet, att ändra ZFS så man kan sätta mixedsensitivity i efterhand. Det kommer väl småningom, när alla andra viktigare saker är fixat. Men just nu finns inga planer på det.

Woicer,
Varför vill du installera OpenSolaris utan gnome? Är du rädd för att sluka RAM eller hårddisk utrymme i onödan? Vad är syftet?

Syftet är att jag vill välja fönsterhanterare själv. Jag vill själv välja vad jag vill installera. Det känns (enligt mig) rätt meningslöst att installera någonting jag inte vill ha och säkerligen inte kommer att använda. Att det tar hårddiskutrymme eller RAM är jag inte orolig över. Många distar brukar ha en alternativ iso där du kan välja vilken wm/dm du vill installera, eller att det inte ingår någon i huvudtaget, och jag tänkte om det fanns något liknande till opensolaris.

Citat:

Ursprungligen inskrivet av ronnylov
MilaX server kan möjligen vara vad du söker woicer.
http://www.milax.org/

Jag ska kika vad det är. Tack för svaret :)!

Permalänk
Medlem

Jag tycker själv inom om "one liners" med efter en hel del Googlande måste jag ändå skriva en:
Finns det någon spegling av "pkg.opensolaris.org/relase"?
Den officiella är riktigt långsam, och då menar jag inte långsam som i sköldpadda eller snigel utan långsam som i sönderfallet av Kol-14

Mina systemdiskar körs i mirroring och Grub är installerade på dem. Gjorde upptäckten att om jag försöker boota från den enda disken utan att ändra den till master kommer Grub bara visa ett "kommandoinput"

Grub>

Lösningen är helt enkelt att se till att den disken som man bootar från är master.

Visa signatur

Tjo Göingar!

Permalänk
Medlem

Dammit! Jag flyttade över alla mina grejer från mitt tempchassi till mitt nya fina serverchassi (Lian Li 343), men nu säger opensolaris att 4 utav de 6 diskarna jag hade i min raidz1 är "Faulted" och "Corrupted data" som anledning. Jag trodde inte jag skulle ha några som helst problem med att flytta över dem, eventuellt andra sataplatser å sånt.
Någon av er som har någon smart lösning? Eller är jag illa tvungen att plocka isär och skapa en ny raidz1?

Ska pröva att dra ur alla, starta upp å kolla, stänga ner å sätta i en hdd, starta upp och göra så med alla diskar så får vi se om jag bli något visare..

En annan fråga, varje gång jag startar så är smb/server under "maintainence" och måste köra svcadm disable och sedan enable för att den ska fungera

Edit: Hur gör man för att stänga av den helt btw? Jag kör alltid 'shutdown' eller 'shutdown -y -g0' som går direkt, men den stannar upp efter ett tag (har inte skärm/tgt anslutet så vet inte riktigt vad det står)

Edit: JA! Anslutit en disk - startat - zpool status -v - stängt av - till disk på 3st nu, alla tre har stått som online (I början var bara 2 online och 4 var faulted). Hoppas alla kommer fungera när jag gjort så på alla!

Edit: Sweet! 4 diskar online! Verkar ju som detta kommer fungera, glad jag blir! Men då undrar jag, hur fan kommer det sig att den gnällde från första början?

Sista edit!: Verkade som min ena satakontroller på moderkortet har flippat ur lite, anslöt jag diskar i den så cpade de andra ur enligt zpool status, får kolla bios och se.. men har ju inte ändrat något

Permalänk
Medlem

@JBerger

du får nog berätta lite mer annars blir det svårt att hjälpa dig. På vilket sätt "kopplade" du ur diskarna? På vilket sätt "kopplade du in" diskarna. Är det en ny installation av OS? Hade du en share innan du kopplade ur diskarna? Är det samma användare på den nya installationen? Är det samma rättigheter? Vad står det i logfilen? Osv ...

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

@pr0xy

Av någon anledning så hamnar 4 diskar under c7t0d0 + c7t1d0 om jag använder alla mina sataportar. Är ett gammalt msi k8n diamond moderkort med 4 sataportar på en kontroller och 2 sataportar på en annan. Fungerade felfritt i gamla chassit, men inte nu när jag flyttade över det.

Min hdd uppsättning består av 6x1tb diskar som sitter 3 och 3 i 2st backplan. Kan eventuellt hända att jag kopplat diskarna tvärtom, dvs

backplan1 i plats 1-3 och backplan2 i plats 4-6

och innan var det (eventuellt)
backplan1 i plats 4-6 och backplan2 i plats 1-3

Men vad jag läst om zfs så ska inte det ha någon betydelse vilken disk som sätts i vilken sataport när man flyttar runt å har sig.

Prövat de två diskarna som sitter i den 2portars kontrollern i den andra och där fungerade de felfritt, och har jag bara i 4 diskar på enbart 1a kontrollern (dvs inte använder 2a kontrollern) så står alla 4 som online, är först när jag ansluter någon disk i 2a kontrollern som det börjar bråka.

Trodde först det var strömmen då jag kopplat i 3x120mm, men det var inte det (Nog för att säkringen gick, lite mycket hifi på denna ;P). Även prövat att använda andra IDE porten till mina 2 ide diskar som jag använder som OS i mirror, men det löste det inte heller...

För övrigt så är det exakt samma os installation som innan, hade en smb/server share (CIFS?), samma användare när jag loggar in (tamazin, loggar in och kör su i prompt å sedan zpool status).
Rättigheter och logfil vet jag inte vad jag ska svara på, var kollar jag upp det?

Tacksam för all hjälp, inte så sugen på att byta moderkort å ha mig, ännu mindre göra om min raidz!

Permalänk
Avstängd

JBerger,
ofta så hjälper det att installera om och boota på nytt, vid ZFS problem. Det ska funka klockrent att byta diskar till en annan dator eller annat OS utan problem. Du har gjort "zpool export" och "zpool import"? Det ska räcka så.

Att smb/server är maintenance låter märkligt. Det ska det inte vara. Något är knas. Gör ett script tills vidare? Snart kommer OS 2009.06.

Jag har problem med shutdown kommandot, det tar lång tid. Jag gör "reboot" och då bootar OS om på 10 sekunder, då passar jag på att stänga av strömmen. "poweroff" är en variant, tror jag.

Permalänk
Medlem

saddam,
Får väl pröva att installera om då, meck när man bara har en uppsättning skärm/tgt/mus bara, och på det viset jag installerar OS för mirrmode så måste jag installera det 2 gånger med grhm.. men får pröva det imorgon om jag inte får någon lysande ide.

Har ingen aning om hur jag gör ett script eller hur jag ens får det att autostarta, var är startmenyn->run eller regedit när man behöver det?
Oj, kollade 'svcs smb/server' nu efter senaste reboot och då var den igång av sig själv, skumt det där.

Shutdown tar en väldans lång tid ja, får pröva ditt reboot och stänga av eller kanske poweroff

Edit: Då jag inte installerade om eller något så varken importade eller exportade jag min zpool, utan bara flyttade över alla delar i ett annat chassi. Hur ska jag gå tillväga om jag vill installera om OSet och import/exporta zpoolen? Behövs det? Kan jag lägga över det på usb sticka eller något?
För övrigt så fungerade poweroff galant, tack!

Permalänk
Medlem

@JBerger
Jag är ingen "expert" på OS men jag vet att den är kinkig med HW. Har du kollat dina BIOS-inställningar så att du inte kör med olika inställningar på "SATA-kontrollerna"? T ex AHCI på den ena och IDE-kompatibelt på den andra? (Själv kör jag "IDE-kompatibelt"). Som saddam säger ska det inte spela någon roll att byta diskar - gjorde det själv i början och löste det med:
# zpool import -f tank
Med "rättigheter" menar jag att du bör ha t ex samma UID på användaren (cat /etc/passwd: ANVÄNDARE:x:UID:GID:"HOME" ...). När det gäller "sambarättigheter" så kan nog ronnylov mer om det, jag har inte hunnit fördjupat mig i det ännu. Eventuella "problem" hittar du i /var/adm/messages eller kommandot dmesg.
"maintenance": Har du kollat med svcs -xv?

Lite andra kommandon att testa med:
# zfs get sharesmb,sharenfs
# sharemgr show -vp

/t

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

pr0xy,
Gammalt jäkla moderkort så det har inte stöd för AHCI, och raidfunktionen har jag inte aktiverat heller. Kör exakt samma nu som jag gjorde förut då det fungerade, därför jag är fundersam varför den inte vill fungera nu

Var sparas zpool exporten då? Lägger den sig själv i rpool eller lägger den sig på min raidz? rpoolen kommer ju försvinna när jag installerar om, och kommer jag åt raidzen för att importa själva raidzen så är det ju lite meningslöst
Ska kolla dmesg och svcs -xv om jag hittar något, även kolla sharemgr å de kommandona du skrev.

Permalänk
Medlem

Lol! what the hell!?
Nu har jag fått det att fungera i varje fall xD
Lekte runt lite med zpool commandona, vet inte vilket som löste det men körde först zpool import, körde zpool status mellan varje kommando.. hände inget direkt vid importen.
Körde istället export och då försvann den när jag kollade zpool status/list, kollade jag zpool import så fanns min behemoth där med alla 6 diskar i "online" läge, och stod att man skulle skriva "nummer eller namn" (something like that).
Said and done, zpool import behemoth och det började rassla till i servern, och sedan fanns behemoth där igen med alla 6 diskar i online. cd /behemoth/share följt av ls visade alla mina gamla mappar och liknande, kör en scrub just nu så får vi se vad den säger.

Jävligt konstigt det här om man får uttrycka sig så, men i'm happy as long as it works. Fet jävla just nu i varje fall!

Permalänk
Medlem

OS är magiskt. Man gör en räcka kommandon och plötsligt har man löst problemet eller fått ett nytt utan att veta vilket kommando som låg bakom.

En sak är klar: OS är av feminint genus. Man kan inte be OS fixa nåt det inte vill eller har lust med.

Permalänk
Avstängd

JBerger,
Oops, när jag skrev installera om och boota, så menade jag inte att ominstallera OS. Det ska inte behövas att ominstallera ett Unix. Det jag menade var att ominstallera diskarna, stoppa in diskarna på nytt och sen boota om. Det brukar ofta funka sen, när man testat dra lite i kablarna.

"zpool export" och "zpool import" är viktigt, annars funkar det inte. "export" kopplar loss raidet från OS. Sen vill du koppla in det igen, det gör du med "import".

För att byta ZFS raid till en annan dator:
---------------------------------------------------
1. "#zpool export". Nu är raidet loss kopplat från OS.
2. Ta ut diskarna och stoppa in dem i nya datorn. Det spelar ingen roll i vilka SATA portar, huller om buller går bra.
3. "#zpool import". Nu är raidet inkopplat till OS på nya datorn, på exakt samma mountpoint som på gamla datorn.
4. Kör en scrub för säkerhets skull.

Steg 3 säger åt OS att scanna igenom efter nya ZFS raid. Så det är viktigt. Jag föreslår att du läser på och inte experimenterar hej vilt. Tänk om dina data försvunnit pga du experimenterat med lite kommandon? Om du spenderar 1-2h på att läsa så kanske dina data inte riskeras. Om du tillbringat 3 månader med att skaffa dina data, så är det dumt att inte lägga ett par timmar på att lära dig mera om ZFS?

Permalänk
Medlem

Saddam,
Yeah hade det inte varit för att jag suttit i 2 veckor med polarens dator och flyttat över all min data från min vanliga dator -> hans och sedan flyttat diskarna över till min nya server och kopierat från hans -> till min (men haft kvar datan på hans dator) så hade jag inte varit lika triggerhappy om man säger så :P.

Jag prövade som du skrev att dra ur alla diskar (satan från mobo) och ansluta dem en och en å boota upp, men blev problem när jag använde de två sista portarna som hade en annan kontroller.

Tyckter fortfarande det är märkligt att datorn som är identisk med vad en var innan (förutom att den är i annat chassi och 3x120mm fläktar anslutna) inte gillade min behemoth raidz "out of the box", men glad att jag fick löst problemet. Kommer bli zpool export+import jag kommer rekommendera folk om det bråkar för dem i fortsättningen

Edit: Oh yeah, scrub på behemoth och rpool under natten, inga problem funna. Gött mos! 6tb raidz tog 4h47m, en bråkdel av vad det hade tagit med "Verify & Repair" med intel storage matrix och en raid5a.

Permalänk
Avstängd

JBerger,
Ok, klokt att säkerhetskopiera datat till din kompis. Då förstår jag. Men läs på lite om ZFS nu va? Det är väldigt enkelt, ofta one liner kommandon. Du vill antagligen dela ut via CIFS? Isåfall måste du sätta casesensitivity property på dina filsystem (eller på själva zpoolen).

Angående scrub så är det snabbt, ja. En Linux sajt gjorde fsck på några terabyte och det tog mer än en vecka. Men du vet väl att en annan skillnad än prestandan är att du kan använda ZFS raidet som vanligt, under tiden du scrubbar, va?

Du borde göra "zpool status" minst en gång i veckan. Där ser du om någon disk börjar balla ur. Om du börjar få "read errors" eller write errors, så är det dags att byta just den disken. Du vet vilken disk som är c0t0d7 och vilken som är c0t0d5 va? Ta reda på det, så vet du vilken disk som är vilken om du måste byta en disk.

Permalänk
Medlem

saddam,
Jag skrev upp igår när jag stoppade i diskarna en och en vilken som var vilken, men när jag kollade med dmesg så kände den ju igen serienumrena på hårddiskarna, så om man kunde hitta någon smidig lösning för att få ut en koppling mellan serienummer och c0t0d0 osv så hade det nog underlättat ännu mer ifall man kopplat om bland satasladdarna och glömt notera vilken som är vilken.
Men kommer någorlunda snart köpa mig en sata/raid kontrollerkort och kan då aktivera led på mina backplan för att se vilken disk som är vilken (i Windows i varje fall, förhoppningsvis i opensolaris med).

Hade velat få någon funktion för att den ska skicka ett mail eller i varje fall på något vis säga till om någon disk får något som helst error som man ser med zpool status, då jag hade föredratt att inte VNCa in till burken då och då bara för att se att allt är i ordning, lättare om den säger till själv.

Har läst på en hel del om både zfs och cifs, men hittar man mer intressant läsning så spenderar jag gärna tid och läsa på mer :). Har redan CIFS sharen med casesensitivity, men tackar för rådet

Ska se om jag kan komma på fler saker jag vill lösa så jag kan ställa lite fler konkreta frågor till er kunniga. Tackar vänligast för alla tips och råd man läst här i tråden!

Permalänk
Avstängd

Jag föreslår att du undviker raid funktionalitet i ditt SATA kort som du ska köpa. ZFS funkar inte bra med raid. Om du aktiverar raidet med ZFS så störs ZFS i sitt arbete och du tappar viss säkerhet. Jag kör ett PCI-x kort med 8 SATA portar från mullet.se. 1000kr. Den passar i en ren pci slot, men får då max 150MB/sek. I ett servermobo med pci-x så får du 1GB/sek.

Jag har inte installerat Windows drivrutiner till det kortet, så det betyder att Windows inte ens kan se kortet. Mao kan jag inte nå diskarna från Windows, så jag kan inte formatera eller göra nåt annat dumt från Windows. Jag har faktiskt kopplat in en strömbrytare till mitt ZFS raid. När jag bootar om till Windows så stänger jag av strömmen till ZFS raidet. Då är datorn knäpptyst. En Antec P182 med allting passivt kylt, förutom några tysta 800rpm fläktar och en hårddisk.

Angående mail, så kan du lägga upp ett script i crontab som körs varje dygn. Och så kan du parsa igenom outputen av "zpool status" och se om det är några errors, i vilket fall du mailar eller skickar sms.

Permalänk
Medlem

saddam,
Tänker självfallet inte använda raidfunktionen, utan är mest att jag vill ha sataportar, men finns ju nästan bara 2-4portars satakort så måste köpa ett raidkort om man vill ha 8-16portar. Hade tänkt köpa 2st 16p raidkort för mina 32 diskar (dock kör de 2 os diskarna på moderkortet så 2p på korten kommer vara oanvända).

P182 är utan tvekan det bästa chassit för en vanlig dator (=inte server) out there, har själv ett till min arbetsstation. Good shit
Kör dock Win7 på den stationen, och min opensolaris är en annan dator så behöver inte bry mig om att windows kan påverka diskarna mer än vad cifs sharen kan tillåta den att göra, men låter ju som en bra ide att ha som du om man kör flera os. Gjorde liknande när jag installerade om, att jag drog ur strömen till mina backplan tills jag väl installerat mjukvaran till min raid5 (då jag bara körde i windows) bara för att Windows inte ska in och pilla å förstöra.

Aha, får läsa på om script och crontab då och se hur jag ska lösa det på smidigast vis, att få ett sms när totala felen överstiger 25-50 eller något vore ju fräsigt, bara rdpa hem och scrubba Eller om man fixar så den gör det automatiskt med.

Permalänk
Medlem

Konstigt, efter att ha updaterat och rebootat solarisburken så stod diskarna som faulted igen och var tvungen att export-import min behemoth raidz. Thats odd?

Permalänk
Avstängd

JBerger,
Frågan är inte om det blir billigare att du skaffar 4 st 8p kort:
http://www.mullet.se/product.html?product_id=133690
än 2 st 16p kort? Fördelen med detta kort är att Solaris har inbyggda drivrutiner för det kortet. Det är inte säkert att Solaris lirar med det 16p kort du tänkt dig. Dock bör du ha 4 st PCI-X kontakter för detta kort.

Detta kort rapporteras funka med Solaris. Det är 8p PCI-e kort. Finns på mullet.se för dryga tusenlappen
http://www.supermicro.com/products/accessories/addon/AOC-USAS...

Ska du ha 32 diskar (jisses) så kanske du kan använda ett diskchassi som håller många diskar och koppla det till din dator. Det går väl inte ens att stoppa in 32 diskar i en dator? De 2 OS diskarna kan köra rätt mot moderkortets SATA portar utan problem. Du måste nog köra raidz2 för så många diskar. Typ, grupper om 10 med raidz2 i varje grupp. På så sätt får du grym säkerhet. Du kanske bör adda någon hotspare disk oxå (dvs reservdisk), om en disk kraschar så vaknar den disken till liv automatiskt och börjar reparera raidet. Du kommer få typ 1,5 GB/sek skrivning och närmre 2GB/sek läsning med så många diskar (gissar jag). Du bör har en vettig CPU och mycket minne för denna konfig (minst 8GB RAM) för att få goda prestanda. Om du inte bryr dig om prestanda så spelar det ingen roll, men denna konfig skapar ett hårt tryck på systemet. Och alla diskar i en 10 grupp bör var lika stora, blanda inte diskar i olika storlekar inom en grupp.

Senare kanske du kan överväga att adda några SSD diskar som cache. Då kan det gå riktigt snabbt, om du har rätt workload. Strömma data kommer inte att gå snabbare.

Angående crontab. Det är en tjänst som startar program ett visst klockslag. Du bara specificerar namnet på ditt program och när den ska gå igång i crontab. Du skriver lämpligtvis ett eget shellscript i bash, perl, whatever där du utför en "zpool status" och parsar outputen. I shellscriptet tar du action beroende på om det visar fel, t.ex. scrubba och maila/smsa dig. Dock ska du aldrig ha 25-50 fel. Så fort du får ett fel, så är det ett tecken på att disken håller på att fallera, och den bör bytas ut. Vänta inte tills du får flera än 1 fel. Så fort det är fel, så vidtag åtgärder. Vänta inte.

Angående att diskarna står som faulted igen, det verkar märkligt. Jag vet inte vad det kan bero på. Är det din trasiga SATA port som ställer till det? Har du bytt ut den biten?

Permalänk
Medlem

Saddam,
Tackar som vanligt för dina intressanta och lärorika råd

Det moderkortet jag kör nu har inte riktigt så många platser, men kommer byta min arbetsstations prylar till servern i höst/vår och stoppar in i7 istället. 2x 16p genererar mindre värme och jag kommer få de billigt så det kommer nog inte vara ett problem. Inte lika billigt som 4x~1000kr, men ändå inte fasligt dyrt :P.
Kommer köra deltaco 3x5.25"->5x3.5" backplan som det ser ut nu, och tror jag kommer köra 5 diskar i en raidz1:a, mao 6st zpools á 5 diskar. Nuvarande cpu och minne kommer inte klara av det riktigt, men så ska jag inte köpa diskarna nu på en gång utan gradvis köpa de 5 och 5 ungefär, så när jag är uppe i kanske 20 diskar så kommer jag även ha skaffat i7 och bytat system till ett GA-EP45-UD3P, E3110 (rebranded 8400), 8gb dominator minnen vilket mer än väl kommer klara av så många diskar.
Jag kommer inte bry mig avsevärt om hastigheten, får jag ut 50-100mbps så är jag fullt nöjd. Några minuter kan jag stå ut med att vänta för att föra över en 1080p film
Kommer heller inte blanda som du rekommenderade att jag inte ska, utan köra varje zpool med 5 likadana diskar, de första två zpoolsen kommer vara 2x 5x1tb samsung f1, efter det har det väl kommit 2tb som inte kostar allt för mycket och då köper 5 sådana och så vidare.

När SSD diskarna sjunker lite mer pris och fungerar bättre (OCZ är billiga men fungerar därefter, samsung är sådär all-around bra men något dyra, intel kostar apa) så bytar jag ut mina 2 systemdiskar mot 2 ssd istället (i mirrormode då förståss).

Ska pilla med crontab och lite script sedan när jag kommer hem ikväll och se om jag kan få till det, och just 25-50 fel var bara en siffra, jag har ingen egentlig aning om hur ofta ett fel enligt zpool status uppkommer och liknande, om den anser att 25fel är godtagbart och inte påverkar så kan jag ju sätta limiten där, men om det bara är 1 fel varje månad eller liknande så kan jag sätta gränsen där istället (Kommer nog i slutändan köra på minsta fel -> scrubba och smsa mig).

Jag vet inte riktigt vad det är, de 2 speciella sataportarna som bråkar nu vid reboot fungerar ju felfritt när jag väl exportat->importat diskarna, så känns inte som de är defekta utan snarare det är något mjukvaru som bråkar. Men skulle jag få läsfel eller liknande så bytar jag ju självfallet moderkortet snarast möjligast, men hoppas det ska hålla till jag upgraderar servern i höst/nästa vår.

Permalänk
Avstängd

JBerger,
Jag tror du _verkligen_ borde köra raidz2, och inte raidz1, om du har så många som 30 talet diskar. raidz2 kör man på större grupper av diskar. Så därför kanske du bör köra 10 diskar i en grupp med raidz2. Det rekommenderas alltså inte att du addar grupper om 5 diskar med raidz1, till ett stort raid. Möjligen kan du köpa 5 per månad och när du har 10 st så addar du dem i en raidz2 grupp. Raidz2 är mycket säkrare än raidz1 och alla bör köra det närhelst man har möjlighet. Men det är onödigt om man har totalt 4-5 diskar, på kör man raidz1. Men i alla andra fall är rekommendationen raidz2.

Så jag skulle nog köra 5 diskar i ett raidz1 i en zpool som heter behemoth. Sen när jag har 10 diskar till, så skapar jag en annan zpool som heter t.ex. tank och gör en raidz2 av alla 10 diskar. Och kopierar över alla data från behemoth till tank. Och sen förstör jag behemoth och får då 5 tomma diskar. Och när jag har 10 lediga diskar, så addar jag dem till tank som en ny raidz2 grupp om 10 diskar. etc.

Kom ihåg att du kan INTE ta bort en grupp från en zpool. Så om lägger till en raidz2 grupp till din nuvarande behemoth, så har du 2 grupper diskar: en raidz1 med 5 diskar, och en raidz2 med 10 diskar. Du kan INTE ändra på en grupp. Du kan inte omvandla raidz1 till raidz2, t.ex. Du kan inte lägga till diskar till raidz1. En grupp är fix och kan inte ändras på i efterhand. Om du har en zpool med raidz2 och raidz1 blandat, så kommer du ångra dig i efterhand. Då är det extremt jobbigt att fixa till i efterhand. Du måste kopiera datat, förstöra zpoolen, återskapa den som du vill ha den med bara raidz2 och kopiera tillbaka datat. Bättre göra rätt från början.

Och när du köpt 10 st 2TB diskar, så byter man ut 1TB diskarna en raidz2 grupp, en disk i taget. Och säljer TB diskarna.

De kort jag länkade till genererar inte mycket värme. De är som vanliga SATA portar, typ. Värmen kan du antagligen bortse ifrån, med de korten. Kolla noggrant att 16p korten funkar med OpenSolaris. Det är möjligt att de inte funkar. De korten har dock raid funk, och dess cpu genererar värme.

Du kommer få långt över 50-100MB/sek. Snarare närmre 2GB/sek. Ascoolt! Datorporr ftw! *flås flås*

Du ska inte få ett endaste fel i zpool status. Så fort den visar ett enda fel så är disken på väg att gå sönder. Då bör du byta den. Du riskerar dina data annars. Om du lagt ned 5-6 månaders tid på att skaffa dina data för 30 diskar, med timlön på säg 100kr, så är dina data värda mycket pengar. Då bör du vara försiktig med datat. Inte riskera det och så. (Sen kan jag tänka mig ett ftp konto hos dig flås flås)