Gigabyte svarar MSI om PCI Express 3.0 – medger begränsningar

Permalänk
Medlem
Skrivet av Hardware guy:

Har även läst att PCIe 2.0 fick mer ström inskrivet i specifikationen, vilket inte har någon betydelse. Ingen grafikkortstillverkare vill släppa kompatibiliteten med PCIe 1.1, så de kan inte plocka bort en strömplugg för att istället plocka strömmen från moderkortet.
Blir samma med PCIe 3.0, ingen tillverkare vågar utnyttja eventuell höjd strömtillgång från moderkortet. Marknaden blir i så fall extremt liten. Bättre med ett grafikkort som passar i alla existerande moderkort.

Jag kontrollerade just hur det blev med ström och det blev ingen förändring. Troligen hade grafikkortstillverkarna gjort som du skriver om pcie 3.0 hade förändrat kravspecen för ström, men det hade varit bättre med tiden att slippa några kablar.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Antielefant
Skrivet av IceDread:

Du har inte läst specifikationerna på för 1366?

1366 klarar det, likaså 2011 - men vi pratar 1155. Den plattformen klarar det inte.

Citat:

Där har du träligt nog rätt i att pcie 3.0 följer de tidigare specifikationerna. Det var tidigare tal om en förändring här.
Om du tycker det är bättre att dra strömsladdar direkt till graikkortet så får det stå för dig, det smidigare är utan tvekan att dra mer ström till mobo för att få mindre kablar hängande i lådan samt för ett bättre luftflöde, men sådant kanske du trollar med.

Frågan är bara var de ska sättas samt hur de ska dras. I moderna chassin sitter ju grafikkorten betydligt närmare nätagget än den fria moderkortsytan, och den senare är dessutom ofta nog blockerad av just grafikkorten.

Citat:

Vad trollar du med för siffror här? Du kan inte säga att strypningen är 7-8 procent, för det stämmer inte. Det är helt beroende på grafikkortet.

Stämmer, maximum de fick fram var 7-8% med 590/6990 i 2560x1600 och 16xSSAA. Mer realistiskt är strypningen ganska precis noll i 1920x1080 och med ett mer normalt grafikkort.

Citat:

1366 stödjer som sagt 2 st 16x pcie 2.0 aktiva samtidigt. Informationen finns lättillgänglig.

Och så fort du visar på att Ivy Bridge kommer att släppas till LGA 1366 bryr jag mig. Det är en död sockel, totalt ointressant för denna diskussion.

LGA 2011 kommer som sagt att stöda 32 lanes PCIe 3.0 - x16/x16 - men det hjälper fortfarande inte LGA 1155's hårdvarumässiga oförmåga att göra detta.

Citat:

Du lever i tron att framtiden är magisk, det är fel. Framöver inväntar vi sockel 2011 från intel.

Vilken ÅTERIGEN inte är en del av varken denna nyhet eller denna diskussion. LGA 2011 är en helt ny plattform, helt nya regler, vad som diskuteras här är Ivy Bridge's påverkan på befintliga LGA 1155.

Skrivet av XrOo:

Man FÅR ut mer bandbredd, sen om 16/16 vs 8/8 gör skillnad i spel hör inte hemma. Det är falsk marknadsföring att tala om för kunder att det GÅR att köra 2 portar på 16x samtidigt om dom inte kan det. Och uppenbarligen så har jag inte läst något om att de behöver rättas. Så något gör dom ju rätt tydligen

Att snöa in sig helt på vad ett grafikkort ger och inte ger mellan PCIe 2.0 x8 och x16 hör egentligen inte hemma. Då det finns hårdvara som kan använda bandbredden betydligt kraftigare.

Det finns ju faktiskt lite mer tanke bakom PCIe 3.0 än bara grafikkort

Men ingen tillverkare påstår ju något sådant ens om PCIe 2.0?

På i princip varenda 1155-bräda står det:

2x PCIe x16 2.0 (single x16 or dual x8)

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Nej, och som sagt tror jag att 2.0 x16 blir på gränsen om... tja... fem år eller så. Det kommer inget magiskt grafikkort inom några månader som är fyrdubbelt så snabbt som dagens och kräver fyrdubbla bandbredden från processorn. Som sagt - Ett 590 flaskar inte på PCIe 1.1 x16 - vilket motsvarar PCIe 2.0 x8 eller PCIe 3.0 x4.

Hur orkar du? Som jag beskrev ovan finns det inte ens mer än 16 lanes för grafikkorten att dela på mot processorn oavsett vilka chip Gigabyte, MSI eller någon annan sätter på moderkortet. Det finns inte ett skit någon moderkortstillverkare kan göra åt att Intel designade plattformen med 16 lanes mot grafikkorten - vilket blir just x8/x8. Ivy kan som sagt inte heller göra något åt det då plattformen fortfarande är densamma.

Ja visst är 3.0 framtiden, och när jag väl byter till ett grafikkort som kräver mer än 3.0 x8 hoppas jag innerligt att jag inte sitter på en gammal skrotig Ivy Bridge på ett 1155-kort. Den lär vara lika utdaterad vid det laget som Pentium-D och Socket 478.

Skrivet av Zcenicx:

Tveksamt, då PCIe 3.0 klarar 1 GB/s per lane. Ens om du skulle skulle skapa en array med 8 av de snabbaste SSD'erna på marknaden överbelastar du inte en 3.0 x4-port.

Oavsett vilket tvivlar jag starkt på att vi pratar LGA 1155 eller ens 2011 för den sortens arrayer, snarare LGA 1567 eller vad nu dess efterföljare på rackservermarknaden blir.

Man fuskar massor och får inte alls ut full bandbredd, det är ren skitsnack. Latensproblemen är dessutom ett gitter utan dess like då det hjälper till att skapa microstutter.

Det är som att jämföra en dualcore med HT med en quadcore. Quaden är alltid snabbare, men HT'n gör att du kan tjäna några ytterligare få procent på att belasta processorn jämnare.

Det som händer är att kort 2 kan utnyttja bandbredden NÄR KORT 1 INTE GÖR DET. Timeshare. Det är också ett jättebra sätt att skapa synkproblem mellan korten vilket tyvärr också ökar risken för microstutter. Ja, du får teoretiskt ut mer datamängd av din tillgängliga totala x16-brygga än om du kör x8/x8 - men återigen märks ingen skillnad hastighetsmässigt eftersom x8 instryper.

@Zcenicx! Du har inte bara fått mig att få upp ögonen på Lanes, du har även fått mig att sätta mig på plats och tänka efter! Och det tackar jag dig för! Forum är till för att lära sig! Och ikväll fick jag ytterligare kunskap! Och det är jag väldigt tacksam för!

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

Så de stödjer 3.0 fullt ut men bara med 1 grafikkort. Pinsamt MSI.
Fast många idag kör ju med mer än 1 grafikkort. Pinsamt Gigabyte.

Så vad har vi lärt oss av det här? Sluta bry oss om fjantiga tillverkares smaklösa PR-trick

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem

Vad är det för fysisk skillnad mellan ett kort som enbart stödjer pci-e 2.0 och ett som stödjer 3.0?

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Antielefant
Skrivet av Haibane:

Vad är det för fysisk skillnad mellan ett kort som enbart stödjer pci-e 2.0 och ett som stödjer 3.0?

Ingen alls, kontakten är identisk och dessutom bakåtkompatibel.

Skillnaden är huvudsakligen mjukvarumässig, man sänder och tar emot data i en högre bitrate (8 GT/s vs 5 GT/s) och använder en datakodning som drastiskt minskar mängden overhead (förluster).

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Zcenicx:

Men ingen tillverkare påstår ju något sådant ens om PCIe 2.0?

På i princip varenda 1155-bräda står det:

2x PCIe x16 2.0 (single x16 or dual x8)

Jo, en tillverkare idag vad jag vet.
http://www.asrock.com/mb/overview.asp?Model=Z68 Extreme7 Gen3&cat=Specifications
5 x PCI Express x16 slots (single at PCIE 3.0* x16 (PCIE2) mode, dual at PCIE 2.0 x16 (PCIE1) / PCIE 2.0 x16 (PCIE4) mode, or tripple at PCIE 2.0 x16 (PCIE1) / PCIE 2.0 x8 (PCIE4) / PCIE 2.0 x8 (PCIE6) mode; PCIE5: PCIE 2.0 x4 mode)

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av Zcenicx:

Ingen alls, kontakten är identisk och dessutom bakåtkompatibel.

Skillnaden är huvudsakligen mjukvarumässig, man sänder och tar emot data i en högre bitrate (8 GT/s vs 5 GT/s) och använder en datakodning som drastiskt minskar mängden overhead (förluster).

Så med rätt bios kommer samtliga moderkort med pci-e 2.0 kunna erbjuda samma bandbredd och overhead som de som marknadsförs som pci-e 3.0?

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Antielefant
Skrivet av Haibane:

Så med rätt bios kommer samtliga moderkort med pci-e 2.0 kunna erbjuda samma bandbredd och overhead som de som marknadsförs som pci-e 3.0?

Beror som sagt lite på elektrisk koppling.

Gör man bort sig som Asrock (och till viss del Gigabyte och MSI) gjort och sätter dit bryggchip kan allting skita sig eftersom bryggan inte klarar det. Många "prestandamoderkort" har sådana här bryggchip eftersom det är enda sättet att skapa en x16-port på ett moderkort med två x16-portar - de hårdkopplas egentligen till x8/x8 men bryggchippet länkar om port 2's lanes till första porten istället om 2'an inte används.

Annars är det så att i teorin bör i princip alla moderkort med en enda x16-port få den automatiskt uppgraderad till 3.0 x16 så fort man sätter in en Ivy-processor. Ska egentligen inte ens krävas en BIOS-uppdatering för den delen, annat än för att kortet ska stöda processorn, eftersom dessa inte länkar mot chipset utan direkt mot CPU. Sitter det två hårdkopplade portar (konstant x8/x8 och ingen brygga) gäller i teorin samma sak.

Jag ser däremot ingen anledning till att exempelvis Asus moderkort med brygga inte skulle klara x8 PCIe 3.0 precis som Gigabyte påvisar att alla deras kommer att göra - såvida de inte trycker dit ett NF200-chip som spökar till det.

Skrivet av XrOo:

Jo, en tillverkare idag vad jag vet.
http://www.asrock.com/mb/overview.asp?Model=Z68 Extreme7 Gen3&cat=Specifications
5 x PCI Express x16 slots (single at PCIE 3.0* x16 (PCIE2) mode, dual at PCIE 2.0 x16 (PCIE1) / PCIE 2.0 x16 (PCIE4) mode, or tripple at PCIE 2.0 x16 (PCIE1) / PCIE 2.0 x8 (PCIE4) / PCIE 2.0 x8 (PCIE6) mode; PCIE5: PCIE 2.0 x4 mode)

Vilket som redan sagts beror på ett NF200 bryggchip.

Också rätt intressant att se att de redan skrivit in:
(single at PCIE 3.0* x16 (PCIE2) mode, dual at PCIE 2.0 x16 (PCIE1) / PCIE 2.0 x16 (PCIE4) mode

...vilket beror på att deras NF200 bryggchip inte stöder PCIe 3.0 utan begränsar dessa portar till 2.0 - port 1 och 4 stöder inte ens PCIe 3.0.

Ska vi prata marknadsföringslögner är det där moderkortet snarare det vi ska syna in på snarare än något annat. Hur får du ut alla dessa lanes på en plattform med max 24 lanes?

32 - Grafikkorten.
34 - Två nätverkskort á en lane var.
35 - Ljudkortet
37 - Z68's inbyggda SATA6
39 - Z68's inbyggda SATA3
43(!) - x4-kopplade externa SATA6-chippet.
44(!) - Front USB2-kontrollern
45(!) - Front USB3-kontrollern
46(!) - Back USB2-kontrollern
48(!) - Back USB3-kontrollern

Lägger man till typ Firewire, BT etcetera landar man på typ 50 lanes som kan användas... men chippet och CPU har fortfarande... bara... 24.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Mansonite:

Vadå? Marknadsförs ju som PCI-express 3, men levererar lika bra som PCI-express 2.

Har du läst nyheten?

"Hållhaken är att de kommande processorerna i familjen Intel Ivy Bridge kan leverera PCI Express 3.0 till den första grafikkortsplatsen utan hjälp av någon extra switch. I moderkort med plats för ett enda grafikkort ger detta tillgång till alla 16 datakanaler, men i modeller som klarar Crossfire- eller SLI-konfigurationer halveras antalet till åtta."

Du kommer alltså få hela bandbredden på en pci-e port om du använder en ivy bridge processor. I sli eller crossfirekonfiguration kommer bandbredden att halveras, vilket i nuläget inte är särskilt ovanligt.

Visa signatur

Asus ROG Strix Z370-H Gaming | Intel Core i7-8700K | AMD Radeon RX 6950 XT | Corsair Vengeance LPX 3500 MHz 2x16 GB 16-18-18-38 | Diverse lagring | Fractal Design - Define R5 | Corsair RM1000x

C64 | C64C | NES | Amiga 500 | Mega Drive | Game Gear | SNES | N64 (RGB) | GCN | DS Lite | Xbox 360 | Wii | 3DS XL | Wii U | New 3DS XL | PS4 Pro | Switch

Permalänk
Medlem

Tanken ligger kanske lite i att stänga av de lanes som inte används? Sedan att NF200 chipset KAN vid behov även fördubbla antalet lanes genom att halvera hastigheten på dem. Sen hur de kan få ett NF200 chipset att halvera och juxxa med ex. NIC, ljudkort etc. Det är en annan fråga.
Men kan inte tänka mig att de skulle marknadsföra falskt. Självfallet begränsas SB till 24 lanes, IB till 32. Låt säga att NF200 chipset får stå för 16 av de lanes som detta Extreme7 kort har, dvs att den fungerar som en coprocessor och helt undvika CPUns PCI lanes/banor. Hur det skulle vara möjligt tekniskt sätt, åter igen. Det är inte min ensak att grotta i. Det är ju något Asrock får ta ställning till när det dyker upp frågetecken. Men igen, varför skulle de ge sig in i PCIe 3.0 "kriget" om de själva hade dåligt mjöl i påsen?

Visa signatur

Star Citizen ❤

Permalänk
Antielefant
Skrivet av Barak:

Har du läst nyheten?

"Hållhaken är att de kommande processorerna i familjen Intel Ivy Bridge kan leverera PCI Express 3.0 till den första grafikkortsplatsen utan hjälp av någon extra switch. I moderkort med plats för ett enda grafikkort ger detta tillgång till alla 16 datakanaler, men i modeller som klarar Crossfire- eller SLI-konfigurationer halveras antalet till åtta."

Du kommer alltså få hela bandbredden på en pci-e port om du använder en ivy bridge processor. I sli eller crossfirekonfiguration kommer bandbredden att halveras, vilket i nuläget inte är särskilt ovanligt.

Rättelse. "i modeller som klarar Crossfire- eller SLI-konfigurationer halveras antalet till åtta". Du får alltså aldrig ut 3.0 x16 ur en x16-port om moderkortet fysiskt har mer en än sådan port, oavsett om port 2 används eller ej. Det beror just på att bryggan som ska skicka vidare 2'ans lanes till 1'an inte klarar av att hantera dem.

Om detta sedan ger x8 3.0 / x8 3.0 eller x8 3.0 / x8 2.0 beror på kopplingen. Texten ovan säger det senare, bilderna är lite tvetydliga. Minimum är absolut det tidigare.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

Har nu mailat Asrock och bett dem förklara hur de lyckas med 2st PCIe 2.0 16x banor. Skall bli intressant att se deras svar

Visa signatur

Star Citizen ❤

Permalänk
Antielefant
Skrivet av XrOo:

Tanken ligger kanske lite i att stänga av de lanes som inte används? Sedan att NF200 chipset KAN vid behov även fördubbla antalet lanes genom att halvera hastigheten på dem. Sen hur de kan få ett NF200 chipset att halvera och juxxa med ex. NIC, ljudkort etc. Det är en annan fråga.
Men kan inte tänka mig att de skulle marknadsföra falskt. Självfallet begränsas SB till 24 lanes, IB till 32. Låt säga att NF200 chipset får stå för 16 av de lanes som detta Extreme7 kort har, dvs att den fungerar som en coprocessor och helt undvika CPUns PCI lanes/banor. Hur det skulle vara möjligt tekniskt sätt, åter igen. Det är inte min ensak att grotta i. Det är ju något Asrock får ta ställning till när det dyker upp frågetecken. Men igen, varför skulle de ge sig in i PCIe 3.0 "kriget" om de själva hade dåligt mjöl i påsen?

SB på 1155 har 20, IB på 1155 har 20. Det skiljer inget eftersom sockeln (1155) inte klarar mer. De sista 8 (för 28 totalt) kommer från PCH'n vilken är konstant.
Det är på 2011 du får fler och där får både SB-E och IB-E 36 lanes.

NF200'an fungerar lite som en tratt. Den samlar datan från de inkommande länkarna och pytsar ut den till den utgående länken. Fördelen är förstås när de inkommande länkarna inte kräver så mycket, då samlar tratten snyggt och fint upp allt som kommer in och den utgående länken (pipen) fungerar bra.

När mängden data ökar däremot, vilket den enkelt kan göra om du trycker dit för många inkommande länkar, blir det bekymmer. Pipen är fortfarande lika stor och klarar bara ett visst flöde, som dessutom är betydligt mindre än det inkommande. Tratten börjar fyllas - du får latenser - och fyller du för mycket rinner det över - du får bokstavligen packetloss och frysningar då allt skickar om data om och om igen då den timar ut på vägen.

I princip ALLA moderkort överlastar sina PCIe-lanes, men inte så extremt.

P8Z68-V's spec:

16 - 2 x PCIe 2.0 x16 (x16 or dual x8)
21 - PCIe 2.0 x16 (x1-x4 mode, black)
21 - SHARED x2 with Marvell® PCIe SATA 6Gb/s controller
21 - SHARED x1 with JMicron® JMB362 eSATA controller
23 - 2x1 Intel SATA 6Gb/s port(s), gray
25 - x2 Intel SATA 3Gb/s port(s), blue
26 - x1 Intel® 82579, gigabit LAN
27 - x1 Realtek® ALC 892 8-Channel High Definition Audio CODEC
28 - x1 - IEEE 1394 VIA® 6308P controller
30 - 2x1 - USB 2.0 Controller
30 - x1 - SHARED Bluetooth V2.1+EDR
32 - x2 - ASMedia® USB 3.0 controller

Som synes inte lika mycket lanes i bruk, och stryker man sånt man inte använder särskilt ofta blir det också en hel del lanes kvar. Hela det moderkortet använder alltså lika många lanes som grafikkorten gör på Asrockkortet. Man tappar förstås tredje x16-porten näst intill helt om man använder en massa hårddiskar... men vilket tror du ger stabilast operation om allt utnyttjas?

Skrivet av XrOo:

Har nu mailat Asrock och bett dem förklara hur de lyckas med 2st PCIe 2.0 16x banor. Skall bli intressant att se deras svar

Du kan bara googla på NF200 så hittar du åtskilliga förklaringar om hur chippet fungerar om inte min ovan räcker.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem

PLX PEX8608. Skapar fler PCIe banor tydligen. Delar upp en enkel PCIe bana på t.ex 4st. T.ex NIC osv. Och frigör fler banor.
Hur nu detta verkligen fungerar i verkligheten är ju en annan sak. Eller om detta skulle vara ett trick. Men verkar ju även det lite lurigt.
Verkar dock realistiskt om de kan få ner 4st banor till 1.

Edit:

Enligt Asrock lyckas dom pressa ihop flertal in/ut gångar på en och samma bana. Och sparar på fler banor på detta vis. Något andra tillverkare inte gör.
Sen har jag inga tekniska bevis på att detta stämmer mer än deras supports ord.

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av IceDread:

Jag anser att det är en bluff eftersom de enskilda du bara tillåts använda en plats på moderkortet om du skall få ut den tillräckliga hastigheten. Det är helt stört. Jag grubblar även över om gigabyte uppfyller strömkraven.

Du menar som flertalet andra tillverkare redan gör för Gen2 kort då? your point is useless.

Skrivet av Mansonite:

Jag tycker detta var lite fult gjort av Gigabyte.. Det är ju verkligen att lura kunderna.
Ska du köpa en bil som marknadsförs med 12 cylindrar så ska det ju inte visa sig att sex av cylindrarna är trasiga..

Samma som ovan, 16x funkar med ett kort, alltid gjort, kmr alltid göra, samma sak redan när PCIe 2.x kom.

Skrivet av Zcenicx:

Va? Det är PCIe 3.0 eftersom varje kanal har en viss datahastighet, inte för att hela slotten har 16 kanaler.

Nej, det är snarare som att skylta en väg med 110 när bilarna inte går i mer än 30. Det är nämligen exakt där vi är i dagsläget.
Det är inte ens en procentmässig skillnad mellan PCIe 2.0 x8 och PCIe 2.0 x16 med det kraftigaste moderna grafikkortet på marknaden - så vilken skillnad skulle PCIe 3.0 göra?

Dessutom finns det inte ett enda moderkort på Sandy Bridge-marknaden idag som har x16/x16 PCIe 2.0 - nästan alla har x8/x8 2.0 med enstaka kort som ligger på x16/x8.

Och dagens moderkort med x8/x8 (standard) levererar lika bra som x16/x16 PCIe 1.1? Och? Grafikkorten kräver inte mer.

Wow, tror du ska kolla dagens moderkort innan du skriker - ALLA moderkort har dessa begränsningar trots 2.0. Kan dessutom tilläggas att Ivy inte har tillräckligt många nativa lanes för x16/x16 ändå utan stoppar vid x16/x8 utan externa chip typ NF200 - precis som Sandy gör. Likaså kommer USB3/SATA6 att dra ner antalet tillgängliga lanes ytterligare - precis som med Sandy.

Det är för sjutton samma moderkort.

Och MSI's är inte ens kopplade för x16/x16 *lol* - deras moderkorts nedre PCIe slot kan aldrig köras snabbare än x8 då halva kontakten inte ens är kontakterad.

Och återigen - what's the difference compared to today?

Nej, det gör återigen ingen skillnad. Det blir exakt som idag, x8/x8 är standard. x8/x8 PCIe 3.0 är dubbelt upp mot vad man får idag och ens idag är x8/x8 2.0 ingen begränsning.

Men det tillverkas inga bilar som går fortare än 30 km/h?

Ens ARES stryps inte mer än någon enstaka procent av att sitta på en x8 2.0-port, så vilken skillnad gör det att sätta den på en x16 3.0-port?

Det blir bokstavligen som att bygga dagens moderna E4'a 1911 när T-forden kom och bilarna knappt gick fortare än cyklar.
Varför bry sig - inga grafikkort inom de närmaste typ fem åren kommer att kräva mer än x8 3.0 ändå - vilket vore en fördubbling mot vad de kräver idag.

Med tanke på att x8/x8 som sagt är standard både på 1156, 1155 och AM3+ lär det inte ens märkas.

Gör ingen skillnad annat än att man tappar färre lanes för U3/S6.
Sen är det som sagt i princip inga moderkort som stöder x16/x16 2.0 ändå.

Vilket som sagt är ett ickebekymmer, speciellt då som sagt de flesta inte ens levererar moderkort kontakterade för mer än x16/x8.

Nej, som sagt tidigare är det knappt så de använder mer än x16 PCIe 1.x.
Det finns åtskilliga test om prestandaförlusten x8/x8 vs x16/x16 PCIe 2.0 med både SLI och CF, samtliga är eniga om att förlusten är omärkbar och knappt ens mätbar i annat än extrema upplösningar.

Vad Ivy Bridge i praktiken kommer att göra är att dem av oss som kör CF eller SLI blir sittande på x8/x8 PCIe 3.0 istället för x8/x8 PCIe 2.0. Det gör noll prestandaskillnad, men i praktiken får våra grafikkort fortfarande dubbla bandbredden jämfört med idag. De enda moderkort som stöder FAKTISK x16/x16 3.0 med Sandy/Ivy lär vara LGA 2011!

Vart FAN är Gilla/Karma knappen?!!?
Läste halva första sidan och var rätt jävla sur på allt skitsnack som folk slänger ur sig när dom inte vet hur det fugnerar över huvud taget.
GB Utan gen3 siwtch 1 grafePLATS 16x
GB Med gen3 switch 2 grafePLATSER 1 grafe gör att den pekar om den andra PLATSENS 8x till förstaPLATSEN och du får 16x
GB Med gen3 switch 2 grafePLATSER 2 grafe så blir det 8x på resp PLATS

1x, 4x, 8x, 16x är fortfarande samme för PCIe 1.x - 3.0 och skall INTE förväxlas med 16/32GB/s
Och vad just 1x, 4x, 8x, 16x står för är att Grafikkortet, eller RAID Kortet eller Ljudkortet har 1 4 8 eller 16 kanaler(lanes) att överföra data på.
så 32x kort som inte ens finns skulle mao vara mycket längre "anslutning" på och längre sockel på moderkortet för.

Mobot MSI testar:
http://www.gigabyte.com/products/product-page.aspx?pid=3759#b...
Finns inget på sidan som säger att det är Gen3 Ready, den har dock stöd för 22 nm cpuer
http://www.sweclockers.com/image/red/2011/09/07/8.jpg?t=paneB...

Så det är MSI som kastar pajer hej vilt bara för att dom inte förståt att Gigabyte kan stöda Gen 3 på redan befintliga moderkort (om moderkortet stöder 22 nm cpu) i 16x med 1 grafikkort om Gen 3 Switchar finns, om Gen2 switch så går grafet i 8x men funkar fortfarande dvs "Gen 3 Ready"

Permalänk
Medlem

jag bryr mig inte ett skit om dagens grafik kort klarar att belasta 16x PCI 3.0 eller inte saken är den att gigabyte ljuger till konsumenterna om jag bara trycker in ett kort så ska den köra 16x inte 8x.

du kan säga allt du vill om att det inte spelar nån roll mellan 16x och 8x men gigabyte ljuger finns ingen bortförklaring för det Zcenicx

Permalänk
Medlem
Skrivet av Mansonite:

Jag tycker detta var lite fult gjort av Gigabyte.. Det är ju verkligen att lura kunderna.
Ska du köpa en bil som marknadsförs med 12 cylindrar så ska det ju inte visa sig att sex av cylindrarna är trasiga..

Bilen går på alla tolv om du ser till att ha bensin i båda tankarna. DVS har två graffakort.

Skrivet av belga:

Så de stödjer 3.0 fullt ut men bara med 1 grafikkort. Pinsamt MSI.
Fast många idag kör ju med mer än 1 grafikkort. Pinsamt Gigabyte.

Så vad har vi lärt oss av det här? Sluta bry oss om fjantiga tillverkares smaklösa PR-trick

Nja, om det är ett moderkort som bara har en 16x slot så kommer graffakortet köra i x16, är det däremot ett sli/crossfire-kort så kommer det gå i x8 även när du bara har ett kort i för den kan inte skicka dom 8 som inte används till den första porten. Så enbart om du har ett sådant moderkort men inte utnyttjar det för en sli/crossfire config så kommer det begränsa 1 sloten. Men skulle du köra sli/crossfire så är det ju ingen som gnäller på att båda portarna då är begränsade till x8 oavsett tillverkare så vad är då problemet? Den dan det finns grafikkort som kan utnyttja mer än PCIe G3.0 x8 så är ändå moderkortet i sig så utdaterat att det inte spelar nån roll.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Avstängd

Förstår inte denna uppståndelse, ingen har lurat någon, de går ju ut och säger som det är och det är inte alls så många som du tror som kör med fler än 1 grafikkort

Visa signatur

En PC (fast för de flesta står det tydligen för Penis Contest)

Permalänk
Medlem
Skrivet av Tempel:

Nja, om det är ett moderkort som bara har en 16x slot så kommer graffakortet köra i x16, är det däremot ett sli/crossfire-kort så kommer det gå i x8 även när du bara har ett kort i för den kan inte skicka dom 8 som inte används till den första porten. Så enbart om du har ett sådant moderkort men inte utnyttjar det för en sli/crossfire config så kommer det begränsa 1 sloten. Men skulle du köra sli/crossfire så är det ju ingen som gnäller på att båda portarna då är begränsade till x8 oavsett tillverkare så vad är då problemet? Den dan det finns grafikkort som kan utnyttja mer än PCIe G3.0 x8 så är ändå moderkortet i sig så utdaterat att det inte spelar nån roll.

Vilket är vad jag sa?
1*kort = inte crossfire/sli = 3.0
2*kort eller fler = crossfire/sli = inte 3.0

Självklart förutsätter jag att man skaffar moderkort efter vad man tänkt köra.
I vilket fall så har ju inte MSI helt fel, men inte Gigabyte heller. Och då jag har svårt att tro att MSI bara helt missar hur 3.0 fungerar så har de slagit på stora trumman i rent PR-syfte och hoppats på att folk ska lacka ur på Gigabyte för att de inte berättar hela sanningen (eller rättare sagt, försöker få det till att Gigabyte ljuger folk rakt upp i ansiktet).

I vilket fall är det störtlöjligt av MSI. Men det är också nästan lika löjligt av Gigabyte.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem
Skrivet av Zcenicx:

1366 klarar det, likaså 2011 - men vi pratar 1155. Den plattformen klarar det inte.

Frågan är bara var de ska sättas samt hur de ska dras. I moderna chassin sitter ju grafikkorten betydligt närmare nätagget än den fria moderkortsytan, och den senare är dessutom ofta nog blockerad av just grafikkorten.

Stämmer, maximum de fick fram var 7-8% med 590/6990 i 2560x1600 och 16xSSAA. Mer realistiskt är strypningen ganska precis noll i 1920x1080 och med ett mer normalt grafikkort.

Och så fort du visar på att Ivy Bridge kommer att släppas till LGA 1366 bryr jag mig. Det är en död sockel, totalt ointressant för denna diskussion.

LGA 2011 kommer som sagt att stöda 32 lanes PCIe 3.0 - x16/x16 - men det hjälper fortfarande inte LGA 1155's hårdvarumässiga oförmåga att göra detta.

Vilken ÅTERIGEN inte är en del av varken denna nyhet eller denna diskussion. LGA 2011 är en helt ny plattform, helt nya regler, vad som diskuteras här är Ivy Bridge's påverkan på befintliga LGA 1155.

Men ingen tillverkare påstår ju något sådant ens om PCIe 2.0?

På i princip varenda 1155-bräda står det:

2x PCIe x16 2.0 (single x16 or dual x8)

"Gigabyte vidhåller dock att marknadsföringen är riktig, men medger att en del modeller utan nya switchar i praktiken inte kan leverera högre bandbredd än dagens PCI Express 2.0."

http://www.sweclockers.com/nyhet/14515-asrock-tar-till-storsl...

Uppenbarligen håller inte ens gigabyte med dig.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

Det verkar som de flesta inte sett moderkort som går i 8x när två grafikkort är anslutna. Var vanligt både med pci-e 1.0 och 2.0.
Minns ni populära kortet DFI LanParty NF4 SLI-DR? De hade 8x med två grafikkort, men tillverkare gick inte ut och smutskastade varandra för det. Användare gick inte och skrev fejk och att de skulle sluta köpa DFI. Ingen sa att moderkortet inte hade äkta pci-express.

Vad skrev folk i forumen? De brukade fråga om det var någon prestandaskillnad mellan 8x och 16x vid SLI, svaret brukade vara nej.
Ska man gnälla nu, ska man ha gnällt alla gånger innan med. Skärpning.

Swec. liknar i mina ögon mer och mer slaskmedia när man väljer att ta upp ämnet på detta sätt utan att anknyta till dagens och gårdagens produkter och dess begränsningar.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av adamq10:

Det verkar som de flesta inte sett moderkort som går i 8x när två grafikkort är anslutna. Var vanligt både med pci-e 1.0 och 2.0.
Minns ni populära kortet DFI LanParty NF4 SLI-DR? De hade 8x med två grafikkort, men tillverkare gick inte ut och smutskastade varandra för det. Användare gick inte och skrev fejk och att de skulle sluta köpa DFI. Ingen sa att moderkortet inte hade äkta pci-express.

Vad skrev folk i forumen? De brukade fråga om det var någon prestandaskillnad mellan 8x och 16x vid SLI, svaret brukade vara nej.
Ska man gnälla nu, ska man ha gnällt alla gånger innan med. Skärpning.

Swec. liknar i mina ögon mer och mer slaskmedia när man väljer att ta upp ämnet på detta sätt utan att anknyta till dagens och gårdagens produkter och dess begränsningar.

Det här handlar inte om vilka prestanda man får, och om huruvida de är tillräckliga...

Kärnfrågan är att G------e har påstått/lovat något som inte är sant.

Fo3

De exempel du hänvisar till om PCI 1.0, 2.0 etc: Tillverkarna kanske inte framhöll begränsningarna då heller,
men om man läste specifikationerna så framgick det exakt vad som gällde.

Edit: Ändrat tempus.

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Avstängd

Det spelar ingen roll om det är PCI-e 3.0 eller inte.

Man har gjort tester och det visar sig att om man kör Crossfire eller SLI så är det ingen skillnad på PCIe x8 eller PCIe x16. Det skiljer typ 2-3 FPS mellan de två slotsen. Så det räcker med PCIe-x8 om man kör Crosfire eller SLI. Då spelar det ingen roll med detta långt snabbare PCIe v3.0.