Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016

Dell Force10 S6000 bra för iscsi?

Hej,

Håller på att planera hur jag ska bygga upp mitt system då jag kommer att använda mig av iscsi som kommer att gå till alla serverdator så undra jag om denna Dell Force10 S6000 skulle vara ett bra val till detta?

Då jag inte får lika mycket pengar jag som fick innan så tar det längre tid att spara ihop det men jag ge mig inte utan jag spara på.

Det är mycket kvar innan mitt system är klart.

Jag tror inte den har något GUI om jag inte läst fel.

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Medlem
Plats
Västerås
Registrerad
Mar 2011
Skrivet av superegg:

Hej,

Håller på att planera hur jag ska bygga upp mitt system då jag kommer att använda mig av iscsi som kommer att gå till alla serverdator så undra jag om denna Dell Force10 S6000 skulle vara ett bra val till detta?

Bra val till vad? Ditt "system" torde ha väldigt specifika o höga krav om du anser dig har behov av samt är villig att betala 20-30K eller mer för en switch.

Om du specar dina funktionella behov/krav kanske ngn kan ge dig input.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016
Skrivet av Tanis:

Bra val till vad? Ditt "system" torde ha väldigt specifika o höga krav om du anser dig har behov av samt är villig att betala 20-30K eller mer för en switch.

Om du specar dina funktionella behov/krav kanske ngn kan ge dig input.

Jag är trög när jag är trött.

Jag har 7 serverdator visa är klara och dom andra håller jag på att bygga ihop.

Jag håller på att bygga upp en bra FreeNAS server som ska driva alla mina serverdator och ska även utöka den med SSD i framtiden.

Då jag vill komma upp i högre hastigheter så tänkte jag att denna switch skulle vara bra till det?

Om en server ska kunna komma upp i 1 GB behöves det 10 Gigabit och då SAN:et ska kunna levera det så får det blir 40 Gigabit så att flera server ska kunna komma upp i det. Just nu kommer jag bara att köra HDD men kommer även köra SSD i framtiden.

Ps: Känner själv att jag inte är så bra på att skriva idag.

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016

Skulle denna switch klara av mitt behov eller finns det något bättre till ett okej pris?

Ska förklara bättre vad jag menar.

Då jag håller på att bygga upp mitt system då försöker jag ha det som funkar bäst.

Mitt SAN i början kommer ha 6 st WD gold 6 TB och kommer att utöka det med totalt 24 st och då räkna jag med att komma upp runt 2,000 MB/sek men då det rör sig om HDD så kommer den kanske upp i 600 MB/sek om man har tur och då behövs det 6 Gbit för att kunna överföra det men då jag ska skaffa SSD i framtiden så kommer jag skaffa 40 Gbit för att klara av högra överföringshastighet men då jag är lite osäker vilken switch man bör skaffa men läste att denna switch skulle inte vara ha bra prestanda när det gäller iscsi och därför tänkte jag fråga här då jag inte vill lägga massor pengar i onödan då det kanske inte kommer upp den överföringshastighet som man hade tänkte sig.

Så skulle denna switch klara av mitt behov?

Jag kommer bara köra från FreeNAS och kommer inte ha en ända hårddisk i mina serverdator därför är jag noga på överföringshastighet.

Finns det andra protocol som kanske är bättre och funkar på ESXI?

Fråga gärna om du behöver mer info om något.

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Hedersmedlem
Plats
QuakeNet
Registrerad
Jul 2001

Vet inte riktigt vad du är ute efter, men en switch med 32 stycken QSFP+-anslutningar som klarar 40 Gbit torde utan problem klara att leverera 600 MB/s från en array. Det finns dock massa andra frågetecken, som vilket OS du ska köra, vilka nätverkskort och hur iSCSI-setupen ser ut.

SWECLOCKERS.COM :: If Quake was done today :: Nytt serverrum
WS: Asus P9X79 :: Core i7 3820 :: 32 GB RAM :: Samsung 830 256 GB :: 2x Intel 910 400 GB PCIE :: PNY Geforce GTX 970 XLR8 :: Gigabyte Odin GT 800W :: 2x Samsung Syncmaster S27A950D
NAS: SuperMicro X10-SLM-F :: Core i3 4130T :: 24 GB Kingston ECC :: Ri-Vier RVS2-06A 12Bay 2U :: IBM M1015 (IT) :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+ ::

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016
Skrivet av Kr^PacMan:

Vet inte riktigt vad du är ute efter, men en switch med 32 stycken QSFP+-anslutningar som klarar 40 Gbit torde utan problem klara att leverera 600 MB/s från en array. Det finns dock massa andra frågetecken, som vilket OS du ska köra, vilka nätverkskort och hur iSCSI-setupen ser ut.

Jag kommer att köra med ESXI och FreeNAS.

Hade tänkte mig att köpa denna http://mullet.se/product.html?product_id=340398 skulle den passa?

Kommer ta tid innan mitt SAN är klar men under tiden så planera jag så att det blir bra.

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Hedersmedlem
Plats
QuakeNet
Registrerad
Jul 2001
Skrivet av superegg:

Jag kommer att köra med ESXI och FreeNAS.

Hade tänkte mig att köpa denna http://mullet.se/product.html?product_id=340398 skulle den passa?

Kommer ta tid innan mitt SAN är klar men under tiden så planera jag så att det blir bra.

Vet inte exakt hur kompatibiliteten ser ut med ESXi, men det finns en hel del riktigt billiga QSFP+-adaptrar på exempelvis Ebay. Jag kör SFP+ hemma och köpte häromdagen kort för cirka 200 kronor styck - liknande finns för QSFP+ också.

Jag antar att du har läst denna artikel? Det finns dessutom en hel del problem med iSCSI och ZFS, främst gäller det fragmentering eftersom iSCSI skapar ett virtuellt filsystem, som ligger ovan på ZFS. Jag har själv testat iSCSI på FreeNAS och fått det att fungera hyfsat - men om det är prestanda du är ute efter kommer du gissningsvis bli besviken.

SWECLOCKERS.COM :: If Quake was done today :: Nytt serverrum
WS: Asus P9X79 :: Core i7 3820 :: 32 GB RAM :: Samsung 830 256 GB :: 2x Intel 910 400 GB PCIE :: PNY Geforce GTX 970 XLR8 :: Gigabyte Odin GT 800W :: 2x Samsung Syncmaster S27A950D
NAS: SuperMicro X10-SLM-F :: Core i3 4130T :: 24 GB Kingston ECC :: Ri-Vier RVS2-06A 12Bay 2U :: IBM M1015 (IT) :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+ ::

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016
Skrivet av Kr^PacMan:

Vet inte exakt hur kompatibiliteten ser ut med ESXi, men det finns en hel del riktigt billiga QSFP+-adaptrar på exempelvis Ebay. Jag kör SFP+ hemma och köpte häromdagen kort för cirka 200 kronor styck - liknande finns för QSFP+ också.

Jag antar att du har läst denna artikel? Det finns dessutom en hel del problem med iSCSI och ZFS, främst gäller det fragmentering eftersom iSCSI skapar ett virtuellt filsystem, som ligger ovan på ZFS. Jag har själv testat iSCSI på FreeNAS och fått det att fungera hyfsat - men om det är prestanda du är ute efter kommer du gissningsvis bli besviken.

Så vad är det som gör att det blir svårt att uppnå bra prestanda?

Skulle du kunna göra lite testar och visa upp här om du vill det?

Finns det andra sätt som är bättre än iSCSI?

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Hedersmedlem
Plats
QuakeNet
Registrerad
Jul 2001
Skrivet av superegg:

Så vad är det som gör att det blir svårt att uppnå bra prestanda?

Skulle du kunna göra lite testar och visa upp här om du vill det?

Finns det andra sätt som är bättre än iSCSI?

Det är en del saker som sätter käppar i hjulet enligt min erfarenhet. Först och främst är det väl ZFS i sig som sätter begränsningen - hur blocksystemet är uppbyggd gör att du inte får ut maximal prestanda ur mekaniska diskar och SSD:er. Om du ska bestämt köra ZFS och ska ha prestanda skulle jag sätta upp motsvarande RAID10 vdev:ar, stänga av "sync writes" och möjligen lägga till en SLOG. Det finns mycket skrivet om iSCSI och ZFS, bara att googla lite gällande att stänga av syncen.

Jag har semester just nu, och tanken är att jag ska labba lite med iSCSI i FreeNAS. Har två stycken Intel 910 PCIe 400GB SSD:er till övers som ska in i filservern, då får jag 8 logiska enheter (de är lite skumt byggda) att leka med. I kombination med SFP+-nätverk kan jag nog få till en hyfsad prestanda, men det återstår att se.

SWECLOCKERS.COM :: If Quake was done today :: Nytt serverrum
WS: Asus P9X79 :: Core i7 3820 :: 32 GB RAM :: Samsung 830 256 GB :: 2x Intel 910 400 GB PCIE :: PNY Geforce GTX 970 XLR8 :: Gigabyte Odin GT 800W :: 2x Samsung Syncmaster S27A950D
NAS: SuperMicro X10-SLM-F :: Core i3 4130T :: 24 GB Kingston ECC :: Ri-Vier RVS2-06A 12Bay 2U :: IBM M1015 (IT) :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+ ::

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016
Skrivet av Kr^PacMan:

Det är en del saker som sätter käppar i hjulet enligt min erfarenhet. Först och främst är det väl ZFS i sig som sätter begränsningen - hur blocksystemet är uppbyggd gör att du inte får ut maximal prestanda ur mekaniska diskar och SSD:er. Om du ska bestämt köra ZFS och ska ha prestanda skulle jag sätta upp motsvarande RAID10 vdev:ar, stänga av "sync writes" och möjligen lägga till en SLOG. Det finns mycket skrivet om iSCSI och ZFS, bara att googla lite gällande att stänga av syncen.

Jag har semester just nu, och tanken är att jag ska labba lite med iSCSI i FreeNAS. Har två stycken Intel 910 PCIe 400GB SSD:er till övers som ska in i filservern, då får jag 8 logiska enheter (de är lite skumt byggda) att leka med. I kombination med SFP+-nätverk kan jag nog få till en hyfsad prestanda, men det återstår att se.

Kommer att köra det i Raid 10.

Du får återkomma efter din semester och säga hur det gick för dig?

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Medlem
Registrerad
Dec 2008

Alternativet är att du kör ett annat filsystem än ZFS för din VM-lagring. På switchen kolla efter kö-djupet på switchen. Eftersom det är mycket microburst i iscsi-trafiken behöver switchen ha bra cache för att klara topparna

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2016
Skrivet av jocke92:

Alternativet är att du kör ett annat filsystem än ZFS för din VM-lagring. På switchen kolla efter kö-djupet på switchen. Eftersom det är mycket microburst i iscsi-trafiken behöver switchen ha bra cache för att klara topparna

Jag har inte köp switchen är utan måste kolla upp om den klara av det jag behöver den till och sen så håller jag på att spara pengar till den.

Vad finns det för flera filsystem än ZFS?

Tror du att du kan kolla upp switchen?

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow

Trädvy Permalänk
Medlem
Registrerad
Dec 2008
Skrivet av superegg:

Jag har inte köp switchen är utan måste kolla upp om den klara av det jag behöver den till och sen så håller jag på att spara pengar till den.

Vad finns det för flera filsystem än ZFS?

Tror du att du kan kolla upp switchen?

I freenas finns UFS, sedan i linux finns ext. Vet inte om de är bra för iscsi. Du får läsa på lite

Är ingen expert på hur man ska utläsa om den är bra, men antar att det är "Packet buffer memory". Stor skillnad mellan S55 och S60. Från 4MB till 1,25GB. Vet inte vad det ska ligga.
http://www.dell.com/en-us/work/shop/productdetails/force10-s-...

Trädvy Permalänk
Hedersmedlem
Plats
QuakeNet
Registrerad
Jul 2001
Skrivet av jocke92:

I freenas finns UFS, sedan i linux finns ext. Vet inte om de är bra för iscsi. Du får läsa på lite

Är ingen expert på hur man ska utläsa om den är bra, men antar att det är "Packet buffer memory". Stor skillnad mellan S55 och S60. Från 4MB till 1,25GB. Vet inte vad det ska ligga.
http://www.dell.com/en-us/work/shop/productdetails/force10-s-...

Är det ingen kritisk data skulle jag faktiskt skapat ett UFS-filsystem på iSCSI-disken/arna faktiskt. Som sagt - två blocksystem på en fysisk hårdvara skapar bara fragmentering och prestandaförsämring.

SWECLOCKERS.COM :: If Quake was done today :: Nytt serverrum
WS: Asus P9X79 :: Core i7 3820 :: 32 GB RAM :: Samsung 830 256 GB :: 2x Intel 910 400 GB PCIE :: PNY Geforce GTX 970 XLR8 :: Gigabyte Odin GT 800W :: 2x Samsung Syncmaster S27A950D
NAS: SuperMicro X10-SLM-F :: Core i3 4130T :: 24 GB Kingston ECC :: Ri-Vier RVS2-06A 12Bay 2U :: IBM M1015 (IT) :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+ ::