Permalänk
Citat:

Ursprungligen inskrivet av Fnorken
Har någon bytt moderkortsmodell i en Opensolaris maskin? Kan man göra det utan att installera om hela systemet?

Jag behöver lite mer minne i hemmaserver och då uppstod ju möjligheten att byta till ECC minne men jag behöver ett nytt moderkort (Asus M3A78-T) då. Det nya moderkortet är ju egentligen rätt gammalt men både ECC DDR3 minnen och AM3 moderkort med ECC stöd är rätt dyra.

Om du köpt moderkortet ännu så får du gärna posta hur det gått. Får nämligen hem mitt nya kontrollerkort, troligen, i morgon. Eftersom mitt moderkort är kinkigt och på upphällningen så kan det vara så att jag måste beställa ett nytt i morgon för att få allt att fungera. Just det där har jag kollat på sedan det togs upp, av dig(?), i en annan tråd om kontrollerkort.

Hade varit härligt att veta till 100% att det skulle funka, även om komponenterna var för sig ser ut som om att de ska fungera med osol.

Mer allmän fråga:
Vilken build är det man ska köra på idag av osol (utan jobbiga cifs och data buggar) om man gör en ny-installation? Kör just nu 104 med lite patchar i nexenta. Men kommer att gå över till osol mainline om jag måste byta moderkort.

saddam: Va? Vad handlade ditt inlägg om, allmän informationssamling ifrån en diskussion med någon på forumet? Vilken tråd? Hw raid vs zfs?

Visa signatur

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av rastersize
Om du köpt moderkortet ännu så får du gärna posta hur det gått. Får nämligen hem mitt nya kontrollerkort, troligen, i morgon. Eftersom mitt moderkort är kinkigt och på upphällningen så kan det vara så att jag måste beställa ett nytt i morgon för att få allt att fungera. Just det där har jag kollat på sedan det togs upp, av dig(?), i en annan tråd om kontrollerkort.

Tyvärr har det inte blivit något moderkort, det visade sig vara väldigt svårt att byta moderkort utan att installera om servern. Jag har inte riktigt tid och ork att installera om just nu.

Jag kör build 118 på min server och det funkar för mig. På min testserver kör jag build 127 och den bootar men sedan har jag inte testat mer.

Permalänk
Avstängd

Rastersize,
Mitt inlägg om ZFS vs hårdvaruraid och IOPS, kom från en tråd. Läs mitt inlägg igen så ser du vilken tråd, jag har editerat det inlägget nu.

Vilken build man ska köra, jag vet inte. Men jag kör b125 just nu. Det var nån bugg i b126 och b127 har jag för mig. b128 dröjer tills tidig december. Då finns deduplication däri. Men jag tänker inte enablea det än. Tänker vänta några builds innan jag kickar igång dedup. Då tänker jag till en början köra dedup + komprimering på min EBooks filsystem. Jag hoppas krympa ned till mindre än hälften. Ska läsa lite hur det funkar för folk. Men jag tänker uppgradera till b128, utan att köra dedup. Det är en flagga du sätter på din zpool. Typ, nåt i stil med "zpool tank dedup=on" så är det klart. Men sen måste du välja vilja filsystem du ska köra dedup på, och då måste du specifikt säga det.

Permalänk
Medlem

Problemet med nyinstallation när det gäller val av build är att antingen får man välja någon officiell utgåva (2008.11 eller 2009.06) eller så byter man till /dev repository och då ploppar den senaste builden in, vilken den nu råkar vara för tillfället. Så det är ju svårt att välja t.ex. b125 direkt efter nyinstallationen om den senaste buiden är b127.

Det där med dedup, jag förstår inte riktigt hur det kan spara så mycket utrymme? Det är väl bara om man har kopia på samma fil på många olika platser man spar utrymme. Jag är inte så insatt så jag är nyfiken på hur det fungerar rent tekniskt.

Permalänk
Medlem

Genunix finns det ISO-filer av build 93 och framåt.

Jag drömmer om en bra release-version. Det hade varit bättre än skivat bröd.

Permalänk
Avstängd

Ronnylov,
Så här får du vilken build du vill. Börja med en fräsh 2009.06. I detta fall vill man installera b118. Men byt ut det mot b125, tex. Mao, byt ut alla förekomster av 118 mot 125.

Starting from OpenSolaris 2009.06 (snv_111b) active BE.

1) beadm create snv_111b-dev
2) beadm activate snv_111b-dev
3) reboot
4) pkg set-authority -O http://pkg.opensolaris.org/dev opensolaris.org
5) pkg install SUNWipkg
6) pkg list 'entire*'
7) beadm create snv_118
8) beadm mount snv_118 /mnt
9) pkg -R /mnt refresh
10) pkg -R /mnt install entire@0.5.11-0.118
11) bootadm update-archive -R /mnt
12) beadm umount snv_118
13) beadm activate snv_118
14) reboot

Deduplication funkar så här. Om du har samma bitmönster i flera olika filer, så lagras det bitmönstret i en enda fil och överallt annars så raderas det bitmönstret. Istället pekar man till det lagrade bitmönstret. Har du två identiska filer, så raderas hela kopian och allt pekar till ett enda original, då får du 50% sparat utrymme. Har du 10 identiska filer, så raderas 9 kopior och allt pekar till ett enda original. Detta sker helt automatiskt. Du kan alltså spara oerhört mycket om filerna har samma bitmönster här och där. Dedup letar upp alla ställen med identiska bitmönster (detta sker på block nivå) och raderar dubletterna och pekar om. Därtill kan du aktivera komprimering också. Dedup är typiskt en high-end grej.

Permalänk
Medlem

Tackar!

Jamen då undrar jag också vilka builds som rekommenderas?
Jag kör 2009.06 b111 på min desktop-dator (#1 i signaturen) och det har inte blivit av ännu att testa nyare builds. 118 och 125 kanske? Men när vissa buggar fixas så skapas ju nya andra buggar. För min del är det mest CIFS som jag vill ska funka stabilt och bra.

Tackar också för tipset om iso-filer med färdiga builds.

Permalänk
Medlem

Jag kan drista mig till att säga att build 118 fungerar för mig. Fast jag vet inte om du skulle få bättre funktionalitet med en uppgradering. Fast jag kör ju 118 på en dator utan skärm så jag vet inte om gnome desktopen har förbättrats mellan 111 och 118.

Nu tänker jag vänta på den första 2010 versionen innan jag uppdaterar min server igen,

Permalänk
Medlem

@saddam,

har du testat? Om det är så enkelt som du beskriver så kan jag tänka mig att testa i helgen.

@all
Vilken release är bäst? Det jag vill ha är allt som funkar i 111b + xVM (med fixad VNC-bugg). GUI:t är inte viktigt för min del (kör det i princip bara när jag bootar)

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk

Tack alla för build rekommendationerna. Ska prova det sätt som du, saddam, beskriver för att dra in b118 eller b125.
Viktigast för mig är att allt fungerar stabilt och att det inte finns några äckliga cifs/nfs/zfs buggar. Så som det fanns i 2009.06(?) och vilken annan build det nu var där det inte var vidare bra med udda antal diskar i en raidz-vdev. Den grafiska biten är för mig helt ointressant. Tycker det är lite tråkigt och synd att man tvingas på hela gnome-paketet i osol.

Övrigt så har mitt AOC-USAS-L8i kommit nu, har dock endast testat med en enda disk (har just nu endast en av de åtta 1.5 TB diskarna som ska vara kopplade till det kortet). Vid det testet verkade allt fungera perfekt dock. Så ska slänga iväg en beställning på 7 st 1.5 TB diskar, ifrån lite olika ställen, nu strax. För att kunna skruva fast bakplåten i chassit var jag tvungen att öka avståndet mellan den och själva kortet med lite distanser (några millimeter). Började först böja bakplåten så att den skulle bli "normal" men insåg att jag då skulle vara tvungen att göra ett nytt hål i den samt att det inte gick bra alls att böja med två tänger. Distans-metoden fungerar dock ypperligt! Lite irriterad på att jag inte kom på det från början.

Dock har jag insett en liten miss jag gjort i min planering. Nämligen ström. Vet för det första inte om mitt 3 år gamla nätaggregat på 430W pallar att köra 17 diskar (under överförningen till den nya vdev:en). Dessutom har jag inte ens kontakter nog åt alla diskarna. Så sitter här och kollar lite på nätaggregat just nu. Hur kraftig nätaggregat tror ni man kan tänkas behöva för att driva 17 diskar samtidigt?

12 st kommer att vara Western Digital Green Power (1 och 1.5 TB).
2 st Western Digital Black 500 GB diskar.
2 st gamla 500 GB diskar.
1 st gammal 160 GB disk.

Lite snabb räkning ger mig:
12 * 15 + 5 * 30 = 330W (vid uppstart, sen går det ner till ~(12 * 8 + 5 * 15) = 170W)
Plus då mitt kontrollerkort, ett PCI kontrollerkort, ett grafikkort, en (@2.0 GHz, org. 3.0 GHz) AMD x2 6000+ (specad. TDP >100W), mobo, fyra stycken DDR2 800 MHz ECC minnen, en dvd-brännare och fyra fläktar.

Jag tycker det känns knapert. Vad säger ni?
Funderar på ett Corsair HX 750W (12 st SATA-strömkontakter och 8 st vanliga 12v molex).

Annars så känns det jäkligt gött att köra 8 GB DDR2 800 MHz ECC minne nu xD
Ska bara koppla in min UPS till servern och få den här nedrans flytten klar..

Visa signatur

Permalänk
Avstängd

Pr0xy,
Ja, jag har testat uppgradera till b125 på det sättet. Funkade bra. Jag har bytt hårddisk och installerat om allting. Jag valde att installera endast b125, den builden funkar bra för mig. b117 funkade också bra för mig. Antagligen funkar även b118 bra också. Kanske skulle man boota om till bas 2009.06 installationen, och radera alla BE. Och installera endast b118 och b125?

Tack för tipset med färdiga ISO filer!

Jag tror 2010.02 blir bra. Den kommer testas ett tag, till skillnad från nu. Nu kör vi ju faktiskt builds direkt utcheckat från development source tree. Helt galet att köra på alfa builds.

Rastersize,
Hick! Jisses vad är det för monsteer du bygger? Men du behöver nog ett starkare och bättre PSU. Ta ett 80% gold eller vad det heter. Ska du ha strömbrytare till ditt raid, eller ska de alltid vara på?

Alltså, vad jäsiken är ett bakplåt? Har aldrig förstått det.

Jag fattar inte hur du ökar avståndet? "Distansmetoden"? Vad är det? Tror du kortet passar i en P182?

Permalänk
Medlem

@rastersize,

Coolt, håll oss uppdaterade!

@saddam

tack för tips, får se om jag hinner i helgen.

@ronnylov

Kan inte du testa på din HW

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk

saddam: Bara min lilla pet
Med bakplåt menar jag den där plåtbiten som man skruvar fast i chassit som sitter på alla PCI/PCIe/PCI-X kort. Förklarar jag mig tillräckligt bra? :S
Hela kortet är i alla fall upp-och-ner. Så lödpunkterna sitter på den sidan som komponenterna brukar sitta på och tvärt om. Därmed är också denna "bakplåten" åt fel håll. Skruvar man av den och lägger några distanser mellan den och själva kortet så passar den dock i porten till vänster (om du tittar rakt på expansions-platserna med baksidan av chassit mot dig). Den kommer att, med min modd, passa i P182. Har själv kortet i ett P180 nämligen

Blir nog ingen strömbrytare. Vi får se vad elräkningen säger när jag behöver betala den själv Då, kanske. Jag är lat och har just nu inte speciellt ont om pengar (är duktig på att spara och planera inköp) så tvivlar på att elräkningen kommer ha speciellt stor betydelse. Dessutom är tanken att köra time machine/crash plan backuper till servern så den kommer att behöva vara igång mest 24/7.
Får väll bli ett Corsair HX 750W (modulärt, med 12 st SATA elkontakter och 8 st vanliga 12 V molex). Blä 1300 kr till

pr0xy: Will do.

Men hoppas att ni förstår att det kommer inte bli så pass coolt direkt. Kommer, så fort jag fört över allt från min gamla zpool till den nya, endast köra 8 lagringsdiskar och en os-disk efteråt. Så endast 9 st diskar när allt är klart. Har dock lite funderingar och planer på att kanske öka till 16 sen. Tihihi

Förresten, hur kvicka är Inet på att leverera? Om jag beställer disk ifrån dem idag, kan jag förvänta mig att jag kan hämta ut dem på måndag (bor i Göteborg)? Tycker jag att jag borde kunna. Men så är man ju bortskämd med Dustins exemplariska hantering av ordrar.

Visa signatur

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av rastersize

Ska bara koppla in min UPS till servern och få den här nedrans flytten klar..

UPS? Nu blev jag lite intresserad, efter förra elavbrottet så har jag varit sugen på att köpa en APC för 1000-1500 kronor. Vad har du för modell och märke? USB eller rs232 anslutning?

Permalänk

Fnorken: Jag har en Eaton PowerWare 3105 (500VA) med USB-anslutning. Mitt råd är att köpa en APC istället. Är högst missnöjd med min (saknas programvara och drivrutiner till det mesta för den...), vill ha en APC istället men det är ett framtida projekt. Enda positiva med den var väll att den var billig (~750 kr från DustinHome).

Edit: Yea baby, yea. Då så var 4 st 1.5 TB WD GP diskar, lite sladd och ett nytt nätagg beställt ifrån DustinHome samt 3 st 1.5 TB WD GP diskar bokade för avhämtning hos webhallen.

Visa signatur

Permalänk
Avstängd

Rastersize,
Jag menar att stänga av raidet inte pga spara ström. Utan att få en knäpptyst dator. Men detta förutsätter att du har en stor systemdisk, typ 1,5TB eller 2TB. Plus att vanliga diskar är inte gjorda för att vara på 24/7. Mitt ZFS raid är på typ 4-5h i månaden, max. Tror jag. Om en disk har 10.000h MTBF så kanske mina diskar håller läängre? Plus att minskar risken att ZFS raidet går sönder, pga strömspik, blixtnedslag, etc.

Vad heter din Pet?

Vad menas med att du lägger distanser mellan bakplåten och kortet? Sen måste du bencha ditt kort! Mumma! Det ska bli kul att höra. 8GB ECC med 8 diskar. Ujujuuj!

Permalänk

Den heter Zaphod (efter en viss karaktär ur en viss bokserie av en viss Douglas)

Har dock en väldigt liten systemdisk och den får nog vara som den tror jag. Uppgradera diskarna måste man nog ändå göra varje år för att få plats med allt. Så varje disk kanske högst, i genomsnitt (dock med stor varians) används 0.5 till 1 år. Beror på vad man har för bredband om vi säger så. I mina drömmar i alla fall

Ska försöka ta ett kort på vad jag menar med distanser sen när jag ändå drar om alla kablar osv. i chassit då diskarna ska installeras. Blir i början av nästa vecka, måndag om vi har tur. Bencha gör jag gärna. Säg bara vilket program jag ska använda mig utav

Visa signatur

Permalänk
Avstängd

Bencha med Bonnie++ som finns som IPS paket. Det sägs att 8GB RAM cachar väldigt mycket och det är inte alltid diskarna används då. Du måste berätta om det känns annorlunda och snabbare. Och bilder. Det här är datorporr! *flås flås*

EDIT: Här testas Deduplcation med NetApp, och det ger en ordentlig prestanda boost. Återstår att se om ZFS version är lika effektiv
http://ctistrategy.com/2009/07/20/deduplication-netapp/

Permalänk
Medlem

Apropå WD GP diskar finns det anledning att noga läsa igenom:

http://www.readynas.com/forum/viewtopic.php?f=24&t=32179

samt andra trådar länkade från ovanstående som diskuterar LCC-problemet (Load Cycle Count).

En del av WD's GP-modeller parkerar huvudena om disken varit idle i 8 sek. Kör man SMART eller Linux kommer disken att accessas var 10:e sek, om disken då är idle laddas huvudena - så här kan det hålla på i evighet, huvudena hoppar fram och tillbaka som skållade troll. Med tiden (<1 år) kan disken slitas ner eftersom dom sägs klara max 300 000 parkeringar.

Nu referarar man till patch/fix progg som funkar/funkar inte under vissa omständigheter.

De halvgamla (som kom för snart ett år sedan) med beteckningen WD10EADS-00L5B1 (3 plattor) sägs vara bättre än de nyaste WD10EADS-00M2B0 (2 plattor) i detta avseende.

Kör du en konfig. som inte väcker diskarna när de gått ner i idle var 8:e sekund är detta inte ett problem. Man kanske kan skriva en liten daemon som var 7:e sekund gör en dummyläsning och pss hålla disken igång men då har man iofs förlorat halva poängen med "Green Power".

Nu är jag varesig guru på OSOL eller ZFS i detta avseende men ni som är det VET säkert om dessa fipplar runt på diskarna av div. skäl.

Ett annat prob med vissa WD GP i RAID finns beskrivet här: http://en.wikipedia.org/wiki/Time-Limited_Error_Recovery
Jag kan kvittera med att patchen funkade för mig.

Är man det minsta osäker/rädd bör man överväga nåt annat än WD GP, kanske Samsungs Eco är ett bättre val?! Eller varför inte den nya Samsung F3, inte lika grön men ruggigt snabb, därtill sval och tyst, helt klart prisvärd oxå.

Viktiga data backas oavsett RAID1/5/6 eller ej!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pr0xy
@rastersize,

Coolt, håll oss uppdaterade!

@saddam

tack för tips, får se om jag hinner i helgen.

@ronnylov

Kan inte du testa på din HW

Vad skulle jag testa, byta moderkort menar du?
Nej, det är inte aktuellt just nu...

Citat:

Ursprungligen inskrivet av jookeer
Apropå WD GP diskar finns det anledning att noga läsa igenom:

http://www.readynas.com/forum/viewtopic.php?f=24&t=32179

samt andra trådar länkade från ovanstående som diskuterar LCC-problemet (Load Cycle Count).

En del av WD's GP-modeller parkerar huvudena om disken varit idle i 8 sek. Kör man SMART eller Linux kommer disken att accessas var 10:e sek, om disken då är idle laddas huvudena - så här kan det hålla på i evighet, huvudena hoppar fram och tillbaka som skållade troll. Med tiden (<1 år) kan disken slitas ner eftersom dom sägs klara max 300 000 parkeringar.

Nu referarar man till patch/fix progg som funkar/funkar inte under vissa omständigheter.

De halvgamla (som kom för snart ett år sedan) med beteckningen WD10EADS-00L5B1 (3 plattor) sägs vara bättre än de nyaste WD10EADS-00M2B0 (2 plattor) i detta avseende.

Kör du en konfig. som inte väcker diskarna när de gått ner i idle var 8:e sekund är detta inte ett problem. Man kanske kan skriva en liten daemon som var 7:e sekund gör en dummyläsning och pss hålla disken igång men då har man iofs förlorat halva poängen med "Green Power".

Nu är jag varesig guru på OSOL eller ZFS i detta avseende men ni som är det VET säkert om dessa fipplar runt på diskarna av div. skäl.

Ett annat prob med vissa WD GP i RAID finns beskrivet här: http://en.wikipedia.org/wiki/Time-Limited_Error_Recovery
Jag kan kvittera med att patchen funkade för mig.

Är man det minsta osäker/rädd bör man överväga nåt annat än WD GP, kanske Samsungs Eco är ett bättre val?! Eller varför inte den nya Samsung F3, inte lika grön men ruggigt snabb, därtill sval och tyst, helt klart prisvärd oxå.

Viktiga data backas oavsett RAID1/5/6 eller ej!

Jag hade just en fråga om detta i lagringsforumet om det var dumt med en GP som systemdisk i Linux, och det kanske det är då? Däremot har jag slutat att köra samsungdiskar av principskäl sedan de hanterat ett reklameringsärende mycket dåligt (de har inte skickat ut någon returfraktsedel för en hårddisk som gått sönder som jag ännu hade garanti på när jag felanmälde, och trots påminnelse har jag inte fått den).

Jag kollade med min wattmeter innan på servern och när min raid används går strömförbrukningen upp i några sekunder innan den faller ner igen. Accessar jag inte min zfs raid så ligger den konstant lågt så jag tror inte det är något problem med mina WD10EACS när jag kör opensolaris och bara har dem till lagring. Men som systemdisk blev jag lite mer fundersam...

EDIT: Jag bestämde mig för WD Caviar Black 1 TB som systemdisk för Linux-htpc-datorn. Den har inga strömsparfunktioner som kan börja krångla.

Permalänk
Medlem

@ronnylov,

Nja, tänkte mer på en färskare build. Vi har ju ungefär samma h/w.

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

@jookeer

Det var ju intressant, då kanske man måste handla nya diskar.

Någon som vet om det finns något S.M.A.R.T. kommando i OSOL ?

EDIT: Hittade denna: http://www.itwiki.se/OpenSolaris/Installera%20SMARTmontools

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Avstängd

Jag fick inte smartmontools att funka under OSol. Säg till hur det går för dig, är du snäll.

Permalänk

saddam: Smartmintools fungerar för mig under nexenta. Laddade ner koden, kompilerade och installerade.

Visa signatur

Permalänk
Medlem

Ide'n med SMART är att få en tidig varning utifall en disk är på väg att lämna in, dvs vissa attributgränser passeras onormalt snabbt varvid en alertvarning skall dyka upp. En disk kan krascha inom dagar eller minutrar, varför man vill ha ständig övervakning, typ 1 ggn/minut. SMART kan inte läsa av värdena om disken är i idle, därför väcks en idledisk.

Jag kör igång och tittar då och då (typ 1 gång/månad) på diskarna med SMART, dvs jag kör ingen aktiv klient som ständigt pollar av/monitorerar attributen, vilket man egentligen skall göra för att få en tidig varning.

Mina erfarenheter av SMART, som jag använder den, är att det är sällan jag fått en tidig varning innan krasch. I vissa fall har SMART varnat i onödan, dvs disken i fråga har funkat helt OK i flera år, i andra fall har kraschen kommit som en blixt från ovan. Det är inte helt lätt/entydigt att tolka alla attributen, gränsvärdena kan vara olika för olika diskar, en del modeller tål mer/mindre än andra etc..

Jag kör alltid SMART + skannar av med HD Tune på nya diskar och noterar attributen. Det har hänt att nya diskar redan efter några hundra timmar "naggat" på marginalerna, typ utbytta dåliga sektorer. I de värsta fallen har jag begärt RMA men återförsäljarna avvisar det och försvarar sig med att man inte byter dåliga diskar bara kraschade. Dessa halvdåliga diskar får bli backupdiskar och duger till det ofta utan problem i flera år eftersom de bara används nån timme/månad. Till syvende och sist är det ju bara ca. var 6:e disk som används som systemdisk och den vill man gärna skall vara av hög kvalitet och prestanda.

Permalänk
Medlem

@saddam

Nä, tyvärr ser det inte ut att funka:
#######################################################################
ATA command routine ata_command_interface() NOT IMPLEMENTED under Solaris.
Please contact smartmontools-support@lists.sourceforge.net if
you want to help in porting smartmontools to Solaris.
#######################################################################

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fnorken
UPS? Nu blev jag lite intresserad, efter förra elavbrottet så har jag varit sugen på att köpa en APC för 1000-1500 kronor. Vad har du för modell och märke? USB eller rs232 anslutning?

Tips! Läs på ordentligt!

Jag gjorde det i våras efter ett strömavbrott och det är inte helt enkelt med OSOL. Dessutom måste du ha ett jordat uttag annars funkar inte UPS:en!

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pr0xy
Jag gjorde det i våras efter ett strömavbrott och det är inte helt enkelt med OSOL. Dessutom måste du ha ett jordat uttag annars funkar inte UPS:en!

Ja jorden är ju ett problem. Med elsystem från t0-talet är jag inte direkt bortskämd med jordade uttag.

Nåja, det var en bra plan!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fnorken
Ja jorden är ju ett problem. Med elsystem från t0-talet är jag inte direkt bortskämd med jordade uttag.

Nåja, det var en bra plan!

Jo jag vet, det var det det föll på för min del Jag är både utbildad på starkström och kan alla de teoretiska beräkningarna men jag vågar inte pilla själv. Man får väl ringa någon el-firma som fixar det ...

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Citat:

Ursprungligen inskrivet av saddam
Bencha med Bonnie++ som finns som IPS paket. Det sägs att 8GB RAM cachar väldigt mycket och det är inte alltid diskarna används då. Du måste berätta om det känns annorlunda och snabbare. Och bilder. Det här är datorporr! *flås flås*

Verkar som att jag får bättre överförningshastighet över nätverket i alla fall. Från konstant 50 MiB/s till 58 MiB/s. Då används det integrerade nätverkskortet (PCI-bussen) och två diskar sitter på PCI-bussen. Således har gav de fyra extra GB:en ~8 MiB/s mer. Är jag glad för

Bilder utav all denna porr kommer när all porr är hemma hos mig och jag städat och dragit om alla kablar i chassit. But there will be pictures.

Ska även testa Bonnie++ i morgon (tror jag) så att jag får before-and-after värden.

Edit: Kört Bonnie++ idag, dvs. med de gamla diskarna kopplade till moderkortets SATAII-portar samt två till ett kontrollerkort på PCI-bussen. Resultatet blev:

# bonnie++ -n 0 -u 0 -r 7158 -s 143160 -f -d /tank/bench Using uid:0, gid:0. Writing intelligently...done Rewriting...done Reading intelligently...done start 'em...done...done...done... Version 1.03b ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP fs 143160M 106069 33 64390 19 167338 22 608.9 2 fs,143160M,,,106069,33,64390,19,,,167338,22,608.9,2,,,,,,,,,,,,,

Vilket, inte ens efter att ha exporterat till en html-tabell (med bon_csv2html), säger mig speciellt mycket. Så tolka för mig

Den ökade minnesmängden verkar dock vara till nytta:

Före bonnie++: # echo '::memstat' | pfexec mdb -k Page Summary Pages MB %Tot ------------ ---------------- ---------------- ---- Kernel 188161 735 10% ZFS File Data 420605 1642 23% Anon 20384 79 1% Exec and libs 5045 19 0% Page cache 674 2 0% Free (cachelist) 2294 8 0% Free (freelist) 1195425 4669 65% Total 1832588 7158 Physical 1832587 7158 Efter bonnie++: # echo '::memstat' | pfexec mdb -k Page Summary Pages MB %Tot ------------ ---------------- ---------------- ---- Kernel 222878 870 12% ZFS File Data 1330539 5197 73% Anon 20492 80 1% Exec and libs 4763 18 0% Page cache 673 2 0% Free (cachelist) 2893 11 0% Free (freelist) 250350 977 14% Total 1832588 7158 Physical 1832587 7158

Som synes så har ZFS File Data (cache antar jag) ökat med nästan 4 GB.
Maskinen har 4 st 2 GB stickor vilket bios också rapporterar men samtidigt säger att endast 7158 MB kommer att vara användbart. Var så då jag hade 4 st 1 GB stickor också, 3000-något MB var då användbart. Någon som vet varför?

Citat:

Ursprungligen inskrivet av jookeer
Apropå WD GP diskar finns det anledning att noga läsa igenom:

[...text...]

Creepy. Ska helt klart kolla upp det. Vet att man kan ställa in "suspend" utav diskarna, borde inte det då låta löshuvudet vila? När jag lyssnar framför chassit hörs dock inget som skulle tyda på att huvudet parkeras och därefter drar igång igen någon/några sekunder senare. Men inte heller säker på att det är något man bör kunna höra?

Visa signatur