Citat:
Ursprungligen inskrivet av NakedApe
Inte för att jag är något större fan av Time Machine men ni verkar missa att de inte uppfyller samma funktion. Att jämföra Time Slider och Time Machine är som att jämföra Subversion och Bacula.
Ok, jag känner inte till Time Machine vidare mycket. Jag trodde att det bara var versionshantering på bitnivå. Men du menar att Time Machine är versionshantering på bitnivå + backup? Och Time Slider är bara versionshantering?
C22H28N2O
Jo det gjorde du nog rätt i. En laptop ska kunna somna på ett enkelt sätt. Dock jobbar SUN med laptops och har explicit sagt att OpenSolaris ska funka bra på laptops. T.ex. 2009 ska nån stor datorleverantör (kommer ej ihåg vem) sälja laptops med OpenSolaris förinstallerat. Men tills vidare är nog Ubuntu ett mycket bra val på desktop. Solaris är trots allt ett Server OS. Inte klientOS. Därför suger det på strömsparning, traditionellt. (Ett långsökt alternativ vore att köra OpenSolaris på laptopen, inuti VirtualBox kanske. Då kommer laptopen fungera strömsparmässigt, eftersom WinXP är host och hosten kan strömspara en laptop på korrekt sätt.)
En fråga till hårdvaru proffsen där ute: Angående att spara strömmen till ZFS raidet. Jag tänkte om man kunde stänga av strömmen till alla diskar, rent fysiskt. Typ, koppla en strömbrytare till varje hårddisk och stänga av/sätta på strömmen till varje disk. Då kan man göra "zpool export minZFSraid" innan man stänger av strömmen. Och sen göra "zpool import" efter man satt på strömmen. Om hårdvaran inte stödjer hot-plug, så kan jag i värsta fall reboota mellan varje access till ZFS raidet. Så jag tänkte ha en stor Solaris systemdisk på 250GB där jag kan cacha det vanligaste och ha ZFS raidet normalt avstängt. När jag behöver någon data, så startar jag upp ZFS raidet och kopierar till systemdisken, och stänger av ZFS raidet. Så jag har ingen Solaris server. Jag har istället en workstation, där jag kopplat in ZFS raidet. Jag använder alltså ZFS raidet för säker lagring bara. Vanligtvis, så är det onödigt att ha alla diskar igång hela tiden, när jag klarar mig med en 250GB cache - för mina behov.
Alternativet vore ett hårddisk rack/chassi som man kopplar ut och in, när man behöver access till ZFS raidet. Typ, via eSata, men eSata har jag inte en aning om hur det funkar med Solaris. Däremot vet jag att portduplikering strulade förrut för Solaris: dvs, man kan inte koppla in ett hårddisk rack, och koppla in en enda sladd mellan hårddisk chassit till Solaris serverns styrkort. Man måste istället koppla in en sladd för varje hårddisk i chassit, till Solaris serverns styrkort. Jag hörde att portduplikering var low-prio funktionality i Solaris för 2 år sen. Jag vet inte statusen just nu. Annars vore det shysst med ett stort rack som man bara kopplade in mha hotswap under drift.
Så min fråga är, hur kopplar man in en strömbrytare till varje hårddisk på bästa sätt? Några tips? Är det bara att klippa och löda sladdarna? Jag tänkte ha en strömbrytarsladd till varje disk och låta dem hänga ut genom ett hål i mitt Antec P182. Finns det någon färdig lösning man kan köpa, där man stänger av och sätter på strömmen till varje hårddisk vagga? Typ, löstagbar disk vagga? Eller en sladd med inbyggd strömbrytare? Kan man köpa såna nånstans eller kan någon här löda såna sladdar åt mig för en billig penning? Hur får man tag på såna sladdar? Tips?
Jag blir oxå lite sugen på att köpa 5 st Terabyte diskar. Jag har ett
http://www.supermicro.com/products/accessories/addon/AoC-SAT2...
SATA kort. Det kostar 1000kr på mullet.se. Det har 8 st SATA portar och Solaris stödjer chipsetet, känns igen direkt vid installationen. Har ingen raidfunktionalitet, tack och lov. Det är PCI-X kort, som finns på server mobos och ger då runt 1GB/sek. Jag har ett vanligt P45 chipset + intel Q9450 och vanliga PCI platser. Då ger kortet vanlig PCI hastighet: dvs 150MB/sek. Det räcker för mig. Om jag byter mobo, så följer kortet med mig så vet jag att Solaris alltid får ett SATA kort med många uttag som Solaris gillar.
Jag har nu 4 st 500GB diskar, vilket ger mig 3x500GB = 1.5TB ZFS raid storlek. Och jag har 4 Sata platser lediga på kortet, men jag behöver 5. Så jag kopplar loss en 500GB disk så jag får 5 platser lediga. Nu kan jag koppla in alla 5 st terabyte diskar och kopiera alla data från min gamla ZFS raid till den nya ZFS raidet. Eftersom min konfig av ZFS funkar bra utan en disk, dvs jag har en raidz1 konfig. Om man väljer raidz2 config, så kan man krascha 2 diskar utan fara.
Men ska jag ha 5 st Terabyte diskar så vore det först bra om jag kunde stänga av strömmen manuellt till diskarna på nåt sätt.
Jag provade att koppla loss en disk från min 4 disk ZFS raid och boota med bara 3 diskar, det gick bra. Jag kunde läsa och skriva mot raidet, fastän den klagade lite på att en disk var borta, vid boot. När jag kopplade in min 4e disk igen så kunde jag reparera poolen med ett kommando, så alla ändringar spreds ut över alla 4 diskar igen och mina data var säkra igen.
EDIT: Can0n, din gamla ntfs länk kanske är bättre än min nya ntfs-3org länk. Skälet är att min länk, tror jag patchar Solaris kärnan med fuse eller nåt sånt. Din länk tillåter ntfs stöd genom user space. Så vill man hellre köra i user space så är det bättre med din länk.