Problem med Link Aggregation/Trunking på Intel PRO 1000 PT Dual Port Server

Permalänk

Problem med Link Aggregation/Trunking på Intel PRO 1000 PT Dual Port Server

Hej!

Skaffade mig nyligen en Zyxel GS1900-24 med avsikt att öka bandbredden på mitt LAN på ett billigare sätt än 10Gbit.
Aktiverade Link Aggregation i switchen på alla berörda portar.

Link Aggregation/Trunking fungerade klockrent på min server (se sign), och jag valde SLA/Static Link Aggregation.

Nu till problemet;

I en utav klienterna (se sign) petade jag i ett Intel PRO 1000 PT Dual Port Server.
Dessvärre fungerar inte trunking "out of box" med detta kort i Win8.1, men jag hittade en lösning på nätet där man i Intels drivrutin valde I350-T2 som krets istället och då fick man fram "Teaming" i inställningarna för NICen.

MEN
När jag valt SLA även för detta kort och kör "Test switch" i drivrutinen så får jag felmeddelande om att Link aggregation inte är aktiverat i switchen, vilket det är, eller att jag ska testa ALB alt. AFT.
Om jag väljer ALB/Adaptive Load Balancing och kör "Test switch" igen så får jag meddelandet att allt är OK. Men då får jag inte 2Gbit/s som jag försöker uppnå.

Någon som har någon idé på vad som är fel?

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk

Hmm, löste problemet med att drivrutinen gav felmeddelande när jag körde "Test switch".
Av någon anledning så hade switchen resettat sig själv... Allt inställt rätt igen och inga felmeddelanden när jag kör "Test switch".

MEN
När jag kör överföringar osv så får jag fortfarande inte mer än 983Mbit/s som max?!?!

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem
Skrivet av BerraBing:

Hej!

Skaffade mig nyligen en Zyxel GS1900-24 med avsikt att öka bandbredden på mitt LAN på ett billigare sätt än 10Gbit.
Aktiverade Link Aggregation i switchen på alla berörda portar.

Link Aggregation/Trunking fungerade klockrent på min server (se sign), och jag valde SLA/Static Link Aggregation.

Nu till problemet;

I en utav klienterna (se sign) petade jag i ett Intel PRO 1000 PT Dual Port Server.
Dessvärre fungerar inte trunking "out of box" med detta kort i Win8.1, men jag hittade en lösning på nätet där man i Intels drivrutin valde I350-T2 som krets istället och då fick man fram "Teaming" i inställningarna för NICen.

MEN
När jag valt SLA även för detta kort och kör "Test switch" i drivrutinen så får jag felmeddelande om att Link aggregation inte är aktiverat i switchen, vilket det är, eller att jag ska testa ALB alt. AFT.
Om jag väljer ALB/Adaptive Load Balancing och kör "Test switch" igen så får jag meddelandet att allt är OK. Men då får jag inte 2Gbit/s som jag försöker uppnå.

Någon som har någon idé på vad som är fel?

Provat detta?

Perfect success! TWO Intel PRO1000 PT Dual Port Server Adapter Cards
1.Install the latest Windows 8.1 PROSet drivers.
2.Under Network Connections, right-click on the first ethernet port of the Intel PRO/1000 PT card and click on the Configure button.
3.Click on the Drivers tab.
4.Click Update Driver.
5.Click Browse my computer…
6.Click the option – Let me pick from a list of device drivers on my computer.
7.Uncheck the Show compatible hardware box.
8.Locate Intel in the left-hand box
9.Locate the (Intel PRO1000 PT Dual Port Server Adapter) option.
10.Click Next until the process is complete.
11.Repeat this on the secondary ethernet port.
12.Click Update Driver.
13.When done, right-click on the primary ethernet port again and click on the Configure button.
14.You should now see a tab called Teaming.

Permalänk
Skrivet av xp1ratex:

Provat detta?

Perfect success! TWO Intel PRO1000 PT Dual Port Server Adapter Cards
1.Install the latest Windows 8.1 PROSet drivers.
2.Under Network Connections, right-click on the first ethernet port of the Intel PRO/1000 PT card and click on the Configure button.
3.Click on the Drivers tab.
4.Click Update Driver.
5.Click Browse my computer…
6.Click the option – Let me pick from a list of device drivers on my computer.
7.Uncheck the Show compatible hardware box.
8.Locate Intel in the left-hand box
9.Locate the (Intel PRO1000 PT Dual Port Server Adapter) option.
10.Click Next until the process is complete.
11.Repeat this on the secondary ethernet port.
12.Click Update Driver.
13.When done, right-click on the primary ethernet port again and click on the Configure button.
14.You should now see a tab called Teaming.

Tack för svaret!

Var exakt den fixen jag hittade och använde, men på punkt 9 så skulle jag välja I350-T2 ist enligt den guiden jag hittade pga att PRO1000PT inte har alternativet för teaming i Win8.1.

Problemet kvarstår, drivern säger att SLA fungerar mot switchen men jag får bara 1Gbit/s ändå... :S

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem
Skrivet av BerraBing:

Tack för svaret!

Var exakt den fixen jag hittade och använde, men på punkt 9 så skulle jag välja I350-T2 ist enligt den guiden jag hittade pga att PRO1000PT inte har alternativet för teaming i Win8.1.

Problemet kvarstår, drivern säger att SLA fungerar mot switchen men jag får bara 1Gbit/s ändå... :S

Jag tror att du har missuppfattat hur det hela fungerar.

Du kommer inte få 2Gbit på ditt nätverk, däremot så kan du ansluta 2 källor som får 1Gbit var så länge som den klarar av att skicka ut i den hastigheten.

Permalänk
Skrivet av xp1ratex:

Jag tror att du har missuppfattat hur det hela fungerar.

Du kommer inte få 2Gbit på ditt nätverk, däremot så kan du ansluta 2 källor som får 1Gbit var så länge som den klarar av att skicka ut i den hastigheten.

Hmm, okej. För det är inte det som står som förklaring gällande SLA nämligen, där står att man ska få ökad prestanda mot servern/klienten iom att den lägger ihop båda NICen till en logisk...

Gällande ALB däremot så står det att den balanserar lasten över flera NICs.

Rätta mig gärna och förklara hur jag kan missförstått det hela så fatalt...

Plus att det står på otaliga siter att detta är ett kostnadseffektivt alternativ till 10Gbit/s, tror till och med Intel själva skrev det på sin site..?

Och prestanda från diskarna har jag, 8st diskar i raid fem ger mig över 800MB/s i servern och klienten har enbart SSDs.

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Skrivet av xp1ratex:

Jag tror att du har missuppfattat hur det hela fungerar.

Du kommer inte få 2Gbit på ditt nätverk, däremot så kan du ansluta 2 källor som får 1Gbit var så länge som den klarar av att skicka ut i den hastigheten.

Hur ska man tolka detta då menar du? (taget direkt från Intel driver):

"Static Link Aggregation
Static Link Aggregation (SLA) is a performance technology developed to increase throughput between switches or a server and switch. This is accomplished by bundling or channeling several ports together and showing them as a single link. This increases the total bandwidth for the link and provides fault- tolerance in the event of a switch port, cable, or adapter failure.
"

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Rekordmedlem
Skrivet av BerraBing:

Hur ska man tolka detta då menar du? (taget direkt från Intel driver):

"Static Link Aggregation
Static Link Aggregation (SLA) is a performance technology developed to increase throughput between switches or a server and switch. This is accomplished by bundling or channeling several ports together and showing them as a single link. This increases the total bandwidth for the link and provides fault- tolerance in the event of a switch port, cable, or adapter failure.
"

Det står att det ökar bandbredden mot switchen men det står inget om vad switchen sedan gör.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av BerraBing:

Hur ska man tolka detta då menar du? (taget direkt från Intel driver):

"Static Link Aggregation
Static Link Aggregation (SLA) is a performance technology developed to increase throughput between switches or a server and switch. This is accomplished by bundling or channeling several ports together and showing them as a single link. This increases the total bandwidth for the link and provides fault- tolerance in the event of a switch port, cable, or adapter failure.
"

När man kör sla får du rätt och riktigt mera bandbredd, men bandbredden plussas inte ihop.

Har man 2st 1Gbit kort så får du dubbelt så mycket bandbredd, d.v.s. 2st 1Gbit linor.

Enklast att testa detta är om du ansluter 2st klienter till samma "server" och provar kopiera en större fil samtidigt.

Vad som kommer hända är att klienterna kommer använda varsin 1Gbit lina och lasten på "servern" kommer vara totalt 2Gbit men över 2st 1Gbit linor.

Permalänk
Skrivet av mrqaffe:

Det står att det ökar bandbredden mot switchen men det står inget om vad switchen sedan gör.

Skrivet av xp1ratex:

När man kör sla får du rätt och riktigt mera bandbredd, men bandbredden plussas inte ihop.

Har man 2st 1Gbit kort så får du dubbelt så mycket bandbredd, d.v.s. 2st 1Gbit linor.

Enklast att testa detta är om du ansluter 2st klienter till samma "server" och provar kopiera en större fil samtidigt.

Vad som kommer hända är att klienterna kommer använda varsin 1Gbit lina och lasten på "servern" kommer vara totalt 2Gbit men över 2st 1Gbit linor.

Jaha, så man har lurat sig själv alltså..?

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem
Skrivet av BerraBing:

Jaha, så man har lurat sig själv alltså..?

Det finns nytta med Link aggregation i hemmanätverk om du använder den på servrar, men på klienter är det ganska meningslöst.

Permalänk
Medlem
Skrivet av BerraBing:

Och prestanda från diskarna har jag, 8st diskar i raid fem ger mig över 800MB/s i servern och klienten har enbart SSDs.

Du måste köra flera klienter om du skall testa hastighet men du skriver "klienten". Du har 2Gbit från server till switch, men troligtvis bara 1Gbit på portar ut till klienterna och därför du inte kommer upp i högre hastighet och du kommer aldrig få det om du inte kör nic teaming ut till klienterna också.

Permalänk
Skrivet av VexedRelic:

Du måste köra flera klienter om du skall testa hastighet men du skriver "klienten". Du har 2Gbit från server till switch, men troligtvis bara 1Gbit på portar ut till klienterna och därför du inte kommer upp i högre hastighet och du kommer aldrig få det om du inte kör nic teaming ut till klienterna också.

Nej, som jag skrev så har jag ett Intel PRO1000 PT Dual Port Server Adapter i "klienten" med SLA-teaming också, som jag trodde skulle innebära 2x1Gbit/s...

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem

En viktig sak är att komma ihåg är att om du bundlar två stycken 1Gbit/s anslutningar så får du förvisso 2Gbit/s bandbredd totalt, men du kommer INTE att kunna köra en enskild 2Gbit/s dataström. Däremot kan du köra två separata 1Gbit/s strömmar.

Visa signatur

Cisco - Linux - VMWare
-- Citera mig om ni vill få återkoppling --

Permalänk
Medlem

"bästa svaret" av deegan ovan.

Men blir lite intresserad av din nätdesign... Kan du inte bara köra billigt 10G med ex Brocade 1020 mellan klienten och servern?

Visa signatur

En server här, några servrar där.

Permalänk
Skrivet av deegan:

En viktig sak är att komma ihåg är att om du bundlar två stycken 1Gbit/s anslutningar så får du förvisso 2Gbit/s bandbredd totalt, men du kommer INTE att kunna köra en enskild 2Gbit/s dataström. Däremot kan du köra två separata 1Gbit/s strömmar.

Tack för utförligt svar!
Det var ärligt talat det jag trodde efter att ha sökt och läst en massa på nätet, men jag gick uppenbarligen bet på det.
But hey, it´s only money ;P

Skrivet av moron:

"bästa svaret" av deegan ovan.

Men blir lite intresserad av din nätdesign... Kan du inte bara köra billigt 10G med ex Brocade 1020 mellan klienten och servern?

Måste ju fortfarande ha en switch som klarar 10Gbit/s, och dem är inte särskilt billiga, iom att jag har ett antal klienter i hemmet. Om jag inte köper en hel hög av dem NICarna du föreslår och kör servern som switch. Men det skulle innebära en helvetisk kabeldragning i huset...

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem

Som sagt kan man bara få 1gbit oavsett hur många länkar man aggregerar. Man gör det för att bara behöva en IP på servern, får sömnlös övergång på redundanta interface och både switch och server ska kunna lastbalansera över interfacen.

Nya smb-versionen som Windows 8 och server 2012 har ska kunna köra någon form multichannel
http://blogs.technet.com/b/josebda/archive/2012/05/13/the-bas...

Permalänk
Medlem
Skrivet av BerraBing:

Måste ju fortfarande ha en switch som klarar 10Gbit/s, och dem är inte särskilt billiga, iom att jag har ett antal klienter i hemmet. Om jag inte köper en hel hög av dem NICarna du föreslår och kör servern som switch. Men det skulle innebära en helvetisk kabeldragning i huset...

Fast, det jag menade är att du redan måste ha dragit dubbel cat6 för att förbereda för din 2x1G bundle? Därför jag frågade om hur det såg ut (tänkte att du då kunde dra lite fiber, och det är inte så dyrt...)

Kolla på Brocade / Woven för en 50 portars switch med 10G (48x1G + 2 SFP+)

Visa signatur

En server här, några servrar där.

Permalänk
Datavetare
Skrivet av deegan:

En viktig sak är att komma ihåg är att om du bundlar två stycken 1Gbit/s anslutningar så får du förvisso 2Gbit/s bandbredd totalt, men du kommer INTE att kunna köra en enskild 2Gbit/s dataström. Däremot kan du köra två separata 1Gbit/s strömmar.

Detta är helt huvudet på spiken, protokollet som används för "link-trunking" kallas LACP, Link Aggregation Control Protocol. En av egenskaperna när man använder detta är

"All frames forming part of a specific data communication packet will however be transmitted over the same physical connection. This ensures the delivery of the individual frames of a data communication packet will be received in the correct order (and prevents mis-ordering). "

Så länkens kapacitet ökas för varje anslutning men man måste ha minst lika unika dataströmmar som länkar för att kunna använda totala bandbredden, varje enskild dataström kan maximalt få bandbredd av en enskild datalänk.

Angående switch, en 4-portars 1Gbit/s switch kan rent teoretiskt (om HW är tillräckligt kraftig) klara av att köra 1Gbit/s i varje riktning mellan port 0<->1 samt 1<->2, d.v.s. totalt 4 Gbit/s data. Gissar att billigare "hemmaswitchar" eventuellt kan ha problem med detta, men då går det att kolla de olika länkar i en "trunk" genom separata switchar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av jocke92:

Som sagt kan man bara få 1gbit oavsett hur många länkar man aggregerar. Man gör det för att bara behöva en IP på servern, får sömnlös övergång på redundanta interface och både switch och server ska kunna lastbalansera över interfacen.

Nya smb-versionen som Windows 8 och server 2012 har ska kunna köra någon form multichannel
http://blogs.technet.com/b/josebda/archive/2012/05/13/the-bas...

Tack för svaret!
Jo, jag inser nu att jag missförstått det jag läste på innan jag köpte switchen... :S

Skrivet av moron:

Fast, det jag menade är att du redan måste ha dragit dubbel cat6 för att förbereda för din 2x1G bundle? Därför jag frågade om hur det såg ut (tänkte att du då kunde dra lite fiber, och det är inte så dyrt...)

Kolla på Brocade / Woven för en 50 portars switch med 10G (48x1G + 2 SFP+)

hehe ja det är helt rätt, sorry missförstod dig. har såklart dragit dubbla cat6 mellan server -> switch1 och klient1 -> switch1. Men till resterande klienter och switchar går det enbart 1 cat6.
Som det ser ut nu så har jag en NUC som router med IpFire, Zyxel-switchen, en 8-portars netgear-switch och en dlink-router som WiFi-AP.
NUC-routern, servern, klient1, netgear-switchen och WiFi-AP är anslutna på Zyxel-switchen och resterande klienter/enheter är anslutna på netger-switchen i ett annat rum.
Kanske ska se över alternativet med fiber ist som du säger...

Skrivet av Yoshman:

Detta är helt huvudet på spiken, protokollet som används för "link-trunking" kallas LACP, Link Aggregation Control Protocol. En av egenskaperna när man använder detta är

"All frames forming part of a specific data communication packet will however be transmitted over the same physical connection. This ensures the delivery of the individual frames of a data communication packet will be received in the correct order (and prevents mis-ordering). "

Så länkens kapacitet ökas för varje anslutning men man måste ha minst lika unika dataströmmar som länkar för att kunna använda totala bandbredden, varje enskild dataström kan maximalt få bandbredd av en enskild datalänk.

Angående switch, en 4-portars 1Gbit/s switch kan rent teoretiskt (om HW är tillräckligt kraftig) klara av att köra 1Gbit/s i varje riktning mellan port 0<->1 samt 1<->2, d.v.s. totalt 4 Gbit/s data. Gissar att billigare "hemmaswitchar" eventuellt kan ha problem med detta, men då går det att kolla de olika länkar i en "trunk" genom separata switchar.

Tack så mycket för svaret!
Jag är nu med på logiken i det hela.
Har tyvärr helt missuppfattat det här med LACP och trunking...
Ah well, köpte iaf en hyfsad switch i jakten på prestanda. Även att jag inte uppnådde det
Är fiber, som ovanstående nämner, det bästa alternativet sett till pris/perf?

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Medlem

Det var denna switch jag menade, men annars är det kanske billigast att köra typ 4G fiber point to point som SANtyp (till servern då - du lär inte behöva ha det från alla klienter, right?)

http://m.ebay.com/itm/161550910560?nav=SEARCH

Fiberkort:
http://m.ebay.com/itm/221655227836?nav=SEARCH

Visa signatur

En server här, några servrar där.

Permalänk
Medlem

Som nämnts innan så kan du köra SMB multichannel om du kör windows 8 på klienten och 2012 på servern. Detta utan speciella switchar eller teaming. Du bara kör olika subnät på dina nätverkskort och så voilà har du 2Gbit i en enskild överföring. Mycket trevlig funktion som är precis vad du söker

Permalänk
Skrivet av moron:

Det var denna switch jag menade, men annars är det kanske billigast att köra typ 4G fiber point to point som SANtyp (till servern då - du lär inte behöva ha det från alla klienter, right?)

http://m.ebay.com/itm/161550910560?nav=SEARCH

Fiberkort:
http://m.ebay.com/itm/221655227836?nav=SEARCH

Tack för svaret!
Hmm, ja du kanske har rätt gällande p2p, tål att tänkas på och kolla upp. Tack!

Skrivet av b1ghen:

Som nämnts innan så kan du köra SMB multichannel om du kör windows 8 på klienten och 2012 på servern. Detta utan speciella switchar eller teaming. Du bara kör olika subnät på dina nätverkskort och så voilà har du 2Gbit i en enskild överföring. Mycket trevlig funktion som är precis vad du söker

Jaså? Löser den SMB-funktionen det jag strävar efter?

Visa signatur

Klient: ASUS TUF Gaming X670E-Plus | AMD R9-7900X | Kingston FURY Beast DDR5-6000MHz 32GB | MSI GTX 1070Ti | Lian Li PC-O11XL | Cutom H20-loop ½"
Server: Supermicro H11SSL-i | Epyc 7551P | 8x16GB 2933 RDIMM | ConnectX5 2x25gig | 2xLSI 9400-16i | 14x4TB zfs-raid60 | NVMe/900p logs/cache/system

Permalänk
Avstängd
Skrivet av Yoshman:

Angående switch, en 4-portars 1Gbit/s switch kan rent teoretiskt (om HW är tillräckligt kraftig) klara av att köra 1Gbit/s i varje riktning mellan port 0<->1 samt 1<->2, d.v.s. totalt 4 Gbit/s data. Gissar att billigare "hemmaswitchar" eventuellt kan ha problem med detta, men då går det att kolla de olika länkar i en "trunk" genom separata switchar.

En gigabit switch med 4 st portar, ska klara av 8 Gigabit/s (1 Gigabit/s åt varje håll/ port) enligt standarden.

Sen som andra redan sagt så måste TS ha 2 klienter för att få ut max hastighet mot servern.

Och det finns som sagt switchar med flera gigabit portar, och på det 2-4 st 10 Gigabit portar för SFP+ moduler.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Datavetare
Skrivet av PowerNet:

En gigabit switch med 4 st portar, ska klara av 8 Gigabit/s (1 Gigabit/s åt varje håll/ port) enligt standarden.

Sen som andra redan sagt så måste TS ha 2 klienter för att få ut max hastighet mot servern.

Och det finns som sagt switchar med flera gigabit portar, och på det 2-4 st 10 Gigabit portar för SFP+ moduler.

Inser vad du säger men tror du tänker fel med 8 Gbit/s (beror på hur du definierar det).

Du refererar till att switchar tillåter full duplex, d.v.s 1Gbit/s i båda riktningarna SAMTIDIGT (till skillnad från en hub och WiFi där bandbredd delas mellan TX/RX).

Har du 2 portar så kan du ha en inkommande ström på 1Gbit/s som går ut på en annan port. D.v.s. det är en ström på totalt 1Gbit/s som om man sitter och dinglar med benen ovanför portarna och bara tittar på TX/RX då ser 1Gbit/s in och 1Gbit/s ut -> totalt 2Gbit/s passerar systemgränsen kring switchen. Men även fast det är 2Gbit/s data som korsar systemgränsen är det lik förbannat bara en ström på 1Gbit/s.

Så med 4 portar på det sätt TS ville ha det kan man maximalt köra 4Gbit/s trafik, vilket då genererar 8Gbit/s in/ut över systemgränsen på switchen. 8Gbit/s är en meningslös siffra på en switch då den själv aldrig är källa eller mottagare av en ström, det blir då bara relevant att prata om kapacitet som kan gå genom switchen och det är 4Gbit/s för en 4 portars 1Gbit/s switch.

Och rätt säker på att jag sett billiga 8-portars switchar inte kunna maxa alla portar när de varit kopplade mot Spirent TestCenter chassin, däremot har alla 4/5-portars switchar jag använt fixat max last.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Inser vad du säger men tror du tänker fel med 8 Gbit/s (beror på hur du definierar det).
Du refererar till att switchar tillåter full duplex, d.v.s 1Gbit/s i båda riktningarna SAMTIDIGT (till skillnad från en hub och WiFi där bandbredd delas mellan TX/RX).
Har du 2 portar så kan du ha en inkommande ström på 1Gbit/s som går ut på en annan port. D.v.s. det är en ström på totalt 1Gbit/s som om man sitter och dinglar med benen ovanför portarna och bara tittar på TX/RX då ser 1Gbit/s in och 1Gbit/s ut -> totalt 2Gbit/s passerar systemgränsen kring switchen. Men även fast det är 2Gbit/s data som korsar systemgränsen är det lik förbannat bara en ström på 1Gbit/s.
Så med 4 portar på det sätt TS ville ha det kan man maximalt köra 4Gbit/s trafik, vilket då genererar 8Gbit/s in/ut över systemgränsen på switchen. 8Gbit/s är en meningslös siffra på en switch då den själv aldrig är källa eller mottagare av en ström, det blir då bara relevant att prata om kapacitet som kan gå genom switchen och det är 4Gbit/s för en 4 portars 1Gbit/s switch.
Och rätt säker på att jag sett billiga 8-portars switchar inte kunna maxa alla portar när de varit kopplade mot Spirent TestCenter chassin, däremot har alla 4/5-portars switchar jag använt fixat max last.

Nja, en port med 4 st gigabit portar, ska klara av 8 Gigabit/s i trafik (1 Gigabit/s per port) således, 1 Gigabit mot en dator, och 1 Giogabit från samma dator på samma port mot switchen, således 2 Gigabit/s i kapacitet / port, totalt på en switch med 4 portar blir det då 8 Gigabit /s (1 Gigabit /port från switch mot dator, och 1 Gigabit/s från dator mot switch).

Som i ditt exempel jag svarade på blir då i korrekt del:

Skrivet av Yoshman:

klara av att köra 1Gbit/s i varje riktning mellan port 0<->1 samt 1<->2, d.v.s. totalt 4 Gbit/s data.

Korrekt skulle vara:
1 Gigabit/s mellan port 1 <-> 2 och
1 Gigabit/s mellan port 3 <-> 4
Och samtidigt åt andra hållet:
1 Gigabit/s mellan port 2 <-> 1
1 Gigabit/s mellan port 4 <-> 3

En gigabit switch ska klara att hantera 1 Gigabit/s åt varje håll/port, således på en 4 portars gigabit switch ska således kunna hantera 8 Gigabit/s totalt i trafik.
Sen att alla billigare switcharna inte klarar att fylla ut länkarna i viss typ av trafik är en annan sak, men merparten av switcharna klarar full kapacitet i bakplanet.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Datavetare
Skrivet av PowerNet:

Nja, en port med 4 st gigabit portar, ska klara av 8 Gigabit/s i trafik (1 Gigabit/s per port) således, 1 Gigabit mot en dator, och 1 Giogabit från samma dator på samma port mot switchen, således 2 Gigabit/s i kapacitet / port, totalt på en switch med 4 portar blir det då 8 Gigabit /s (1 Gigabit /port från switch mot dator, och 1 Gigabit/s från dator mot switch).

Som i ditt exempel jag svarade på blir då i korrekt del:

Korrekt skulle vara:
1 Gigabit/s mellan port 1 <-> 2 och
1 Gigabit/s mellan port 3 <-> 4
Och samtidigt åt andra hållet:
1 Gigabit/s mellan port 2 <-> 1
1 Gigabit/s mellan port 4 <-> 3

En gigabit switch ska klara att hantera 1 Gigabit/s åt varje håll/port, således på en 4 portars gigabit switch ska således kunna hantera 8 Gigabit/s totalt i trafik.
Sen att alla billigare switcharna inte klarar att fylla ut länkarna i viss typ av trafik är en annan sak, men merparten av switcharna klarar full kapacitet i bakplanet.

Tänk bara strömmar. Varje ström genererar exakt lika mycket TX-trafik som RX-trafik genom en switch förutsatt att switchen inte tappar ramar. 4 portar kan inte hantera mer än 4 Gbit/s RX så du kan inte ha mer data strömmande igenom switchen än 1Gbit/s per port. Och det är absolut bästa fall där RX och TX är perfekt balanserat.

I detta fall kan man hävda att både 8Gbit/s och 4Gbit/s är korrekt, men rent praktiskt har man ingen större nytta av att skicka in 1Gbit/s i en switch om det inte kommer ut någon annanstans. Så maximal mängden trafik över systemgränsen är 8Gbit/s men total mängd switchad traffik är 4Gbit/s.

Detta är förvirrande när man kommunicerar kapacitet, något jag lärt mig den hårda vägen vid utveckling av TCP/IP-stackar och annan nätverksbaserad programvara. Personligen vill jag alltid att man specificerar kapacitet i frames/s för det är dels mer relevant i den mesta programvaran då jobbet per paket är är endera helt oberoende av paketstorlek (L2-switching / L3-forwarding) eller (ofta) svagt beroende (L4+ hantering).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Tänk bara strömmar. Varje ström genererar exakt lika mycket TX-trafik som RX-trafik genom en switch förutsatt att switchen inte tappar ramar. 4 portar kan inte hantera mer än 4 Gbit/s RX så du kan inte ha mer data strömmande igenom switchen än 1Gbit/s per port. Och det är absolut bästa fall där RX och TX är perfekt balanserat.

I detta fall kan man hävda att både 8Gbit/s och 4Gbit/s är korrekt, men rent praktiskt har man ingen större nytta av att skicka in 1Gbit/s i en switch om det inte kommer ut någon annanstans. Så maximal mängden trafik över systemgränsen är 8Gbit/s men total mängd switchad traffik är 4Gbit/s.

Detta är förvirrande när man kommunicerar kapacitet, något jag lärt mig den hårda vägen vid utveckling av TCP/IP-stackar och annan nätverksbaserad programvara. Personligen vill jag alltid att man specificerar kapacitet i frames/s för det är dels mer relevant i den mesta programvaran då jobbet per paket är är endera helt oberoende av paketstorlek (L2-switching / L3-forwarding) eller (ofta) svagt beroende (L4+ hantering).

Nja, där är du fel ute.

En 4 portars gigabit switch kan som du säger 1 Gigabit RX trafik /port, och 1 Gigabit TX trafik/port, men dock så är det totalt 2 Gigabit/s trafik som flödar genom porten, 1 Gigabit RX och 1 Gogabit i TX (1 Gigabit in, och 1 Gigabit ut), så en switch med 4 st 1 Gigabit/s portar har en maxkapacitet på 8 Gigabit/s i bakplanet, då varje port kan hantera 1 Gigabit/s in mot switchen, ochg 1 Gigabit/s ut mot dator/server/NAS/whatever enhet.

Så det korrekta när man pratar om en switch´s kapacitet är att tala om den maximala kapaciteten i bakplanet, som på en 4 portars switch är 8 Gigabit/s.
Eller som på en 24 portars gigabit switch är 48 Gigabit/s, då varje port klarar att hantera 1 Gigabit/s i varje riktning.

Så den totala mängden switchad trafik på en 4 portars gigabit switch är 8 Gigabit/s, inte 4 Gigabit som du skrev.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Datavetare
Skrivet av PowerNet:

Nja, där är du fel ute.

En 4 portars gigabit switch kan som du säger 1 Gigabit RX trafik /port, och 1 Gigabit TX trafik/port, men dock så är det totalt 2 Gigabit/s trafik som flödar genom porten, 1 Gigabit RX och 1 Gogabit i TX (1 Gigabit in, och 1 Gigabit ut), så en switch med 4 st 1 Gigabit/s portar har en maxkapacitet på 8 Gigabit/s i bakplanet, då varje port kan hantera 1 Gigabit/s in mot switchen, ochg 1 Gigabit/s ut mot dator/server/NAS/whatever enhet.

Så det korrekta när man pratar om en switch´s kapacitet är att tala om den maximala kapaciteten i bakplanet, som på en 4 portars switch är 8 Gigabit/s.
Eller som på en 24 portars gigabit switch är 48 Gigabit/s, då varje port klarar att hantera 1 Gigabit/s i varje riktning.

Så den totala mängden switchad trafik på en 4 portars gigabit switch är 8 Gigabit/s, inte 4 Gigabit som du skrev.

Är ju det jag säger, beror bara på hur man lägger systemgränsen. Kan tänka mig att de som utvecklar switchar ser det på ett annat sätt, men ta detta fall

A <--> S <--> B

A och B är maskiner med varsitt 1Gbit/s NIC som går genom en 2 portars switch. Maximala hastigheten A kan skicka till B är 1Gbit/s och maximala hastigheten A kan ta emot med är 1Gbit/s. Det är vad jag menar med att switchen maximalt här kan hantera 2Gbit/s, för det är det maximala flödet av data den kan hantera vilket är det enda relevanta måttet för den som gör något på A och B.

Om jag har en router som hanterar 14.4M 64-bytes paket per sekund så är det en router som fixar 10GBit/s, att hävda att det är 20Gbit/s (är ju trots allt 10Gbit/s in på en port och 10Gbit/s ut på en annan port) skulle leda till rätt mycket klagomål om missvisade kapacitet, och bl.a. Nvidia vet ju bra sådant går... Möjligen definierar switch-tillverkarna kapacitet på ett annat sätt än tillverkare av L3+ utrustning, men för TS blir den praktiska bandbredden på de system han har maximalt 4Gbit/s med en trunk som har två stycken 1Gbit/s kort, 2x 1Gbit/s TX och 2x 1Gbit/s RX.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Är ju det jag säger, beror bara på hur man lägger systemgränsen. Kan tänka mig att de som utvecklar switchar ser det på ett annat sätt, men ta detta fall

A <--> S <--> B

A och B är maskiner med varsitt 1Gbit/s NIC som går genom en 2 portars switch. Maximala hastigheten A kan skicka till B är 1Gbit/s och maximala hastigheten A kan ta emot med är 1Gbit/s. Det är vad jag menar med att switchen maximalt här kan hantera 2Gbit/s, för det är det maximala flödet av data den kan hantera vilket är det enda relevanta måttet för den som gör något på A och B.

Om jag har en router som hanterar 14.4M 64-bytes paket per sekund så är det en router som fixar 10GBit/s, att hävda att det är 20Gbit/s (är ju trots allt 10Gbit/s in på en port och 10Gbit/s ut på en annan port) skulle leda till rätt mycket klagomål om missvisade kapacitet, och bl.a. Nvidia vet ju bra sådant går... Möjligen definierar switch-tillverkarna kapacitet på ett annat sätt än tillverkare av L3+ utrustning, men för TS blir den praktiska bandbredden på de system han har maximalt 4Gbit/s med en trunk som har två stycken 1Gbit/s kort, 2x 1Gbit/s TX och 2x 1Gbit/s RX.

Jag tror att vi pratar om varandra lite, tar vi detta som exempel:
Dator A = port 1
Dator B = port 2

A kan skicka 1 Gigabit/s till B, vilket fyller port 1 på RX och port 2 på TX.
Samtidigt kan B skicka 1 Gigabit/s mot A, vilket fyller port 2 på RX och port 1 på TX.
Switchen hanterar då 4 Gigabit/s i bakplanet (switchning) mellan portarna, då varje port skickar och tar emot 1 Gigabit/s * 4 = 4 Gigabit/s genomströmning slm switchens cpu ska processa i bakplanet.

Det är så man sätter en switch kapacitet, har den ex 24 st 1 Gigabit/s portar så kan den maximalt hantera 48 Gigabit/s i bakplanet, vilket motsvarar 1 Gigabit/s RX och 1 Gigabit/s TX / port.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||