16x och 8x, vad är den egentliga skillnaden i prestanda?

Permalänk

16x och 8x, vad är den egentliga skillnaden i prestanda?

Jag är helt borta när det gäller detta, hittar absolut inget som ger mig ett svar.
Vet någon något om detta?

Visa signatur

Define C, GTX 1070, R5 1600, ROG STRIX B350-F, AX860
Logitech G533, Logitech G502, QPAD MK 80

Samsung Galaxy S8 Plus, Synology DS218+ 8TB, AKRACING GaMiNGl33t-stol, Lenovo Yoga 710

Permalänk
Medlem

menar du PCI express x8 vs x16?

Visa signatur

Maximus X Hero - 8700k @5.1GHz - H115i - 32GB LPX@3466MHz - MSI 980Ti Gaming - EVGA SuperNova 750 G2 - Asus vg248qe - FD R5

Permalänk

Insåg just att lagt tråden helt fel.
Ja, helt korrekt, 8x vs 16x

Visa signatur

Define C, GTX 1070, R5 1600, ROG STRIX B350-F, AX860
Logitech G533, Logitech G502, QPAD MK 80

Samsung Galaxy S8 Plus, Synology DS218+ 8TB, AKRACING GaMiNGl33t-stol, Lenovo Yoga 710

Permalänk

I prestanda är det kanske 2% snabbare med x16 än x8. Skillnaden är att 8x har halva bandbredden av vad 16x har.

http://www.tomshardware.com/reviews/amd-crossfire-nvidia-sli-...

Permalänk

Skulle du säga att det räcker med ett moderkort som bara stödjer 8x eller ska man slänga en till slant för ett som stödjer 16x?

Visa signatur

Define C, GTX 1070, R5 1600, ROG STRIX B350-F, AX860
Logitech G533, Logitech G502, QPAD MK 80

Samsung Galaxy S8 Plus, Synology DS218+ 8TB, AKRACING GaMiNGl33t-stol, Lenovo Yoga 710

Permalänk
Medlem

det är värt det för om du tänker uppdatera i ett senare stadie utan att uppgradera mamma plattan,
så är det en potentiell flaskhals, men jag tror inte att dom moderkort som är tillverkade med 8x är till för de
allra snabbaste och mest exklusiva korten på marknaden men jag kan ha fel.

Visa signatur

Jag tar jobbet med mig hem, i form av Tinitus.

Permalänk
Medlem

http://www.sweclockers.com/forum/55-intel/1146249-minnesbuzz-...
här finns en tråd inom samma ämne. är det PCI-express 2.0 du ska använda skulle jag valt 16x är det 3.0 hade jag valt 8x, dock ska jag påpeka att jag gillar att överdimensonera saker

Permalänk
Medlem

Beror lite på vilket kort du ska smälla i samt hur länge du har det (vem vet, kanske flaskar om några år bara? aja no one knows the future)
hur som, hardOCP (och andra) har jag för mig gjorde ett test förut och kom fram till att ett 480 (mer eller mindre som ett 570) flaskas enbart några få % av x4 hastighet. Så skulle tro att x8 kommer fungera fin fint ett tag till. Hur som så kommer det inte vara några nämnvärda skillnader skulle jag tro. Men kanske att det blir i framtiden!

Visa signatur

Maximus X Hero - 8700k @5.1GHz - H115i - 32GB LPX@3466MHz - MSI 980Ti Gaming - EVGA SuperNova 750 G2 - Asus vg248qe - FD R5

Permalänk

Moderkortet jag kollar på har en 16x plats och en 8x plats, så ett ensamt kort bör klara sig fint i framtiden.
Tack för hjälpen!

Visa signatur

Define C, GTX 1070, R5 1600, ROG STRIX B350-F, AX860
Logitech G533, Logitech G502, QPAD MK 80

Samsung Galaxy S8 Plus, Synology DS218+ 8TB, AKRACING GaMiNGl33t-stol, Lenovo Yoga 710

Permalänk

sen är det väll ganska stor skillnad på PCI-E 2 och 3 ? för mig det varit tester att en 8x PCI-E 3 är typ lika snabb som en 16x PCI-E 2 men som sagt tester har i alla fall som andra skrivit att det skiljer typ 1-2% i prestanda

Visa signatur

[CPU: AMD Ryzen 5 5600X@ 4.85GHz ][GPU: ASUS GTX1070TI Strix][MB: Asus ROG Strix B550-F Gaming]
[RAM: G.Skill Aegis 32GB 3000MHz][DAC/Amp: Asus Xonar Essence One]
[Dator Lurar: Sennheiser HD650 & Beyerdynamic DT880 Pro 250Ω]

Permalänk
Medlem

Det är inga kort idag som kan nyttja hela bandbredden därav är skillnaderna knappt märkbara och PCI-E 2.0 x16 är lika snabbt som PCI-E 3.0 x8

Visa signatur

"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Permalänk
Avstängd

Flyttade tråden till ett lämpligare ställe. Moderkortsdelen passar nog bättre än grafikkort i det här fallet

*flyttad!*

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Det är förmodligen inget som men ens kan välja när man köper moderkort att ha "bara" x8 istället för x16, om det nu handlar om en plats till ett grafikkort. Det är när man ska i med 2 eller allra helst ännu fler grafikkort som det möjligen blir något att tänka på.

Men det handlar om som flera i tråden säger att det är ett sätt att visa på vad pcie-porten klarar av att leverera bandbredds-mässigt så man vet att porten kan leverera det som kortet man sätter i porten kan leverera, så porten inte blir flaskhals.

Jag vet inte om det är svar på frågan och om det är ett problem för dig i någon situation men kan du förklara lite mer ingående på varför du undrar över skillnaderna?

Vad använde du för sökord för att ta reda på skillnaderna mellan x16 och x8?

Det finns väldigt mycket att läsa när jag söker.

Men som sagt, det är väldigt väldigt ovanligt att porten sätter begränsningen för grafikkortet.
Om vi säger så här. Alla (vad jag vet) moderkort idag som man normalt köper har en x16-port så något problem
existerar inte att man skulle råka köpa fel moderkort med bara x8 om man nu pratar om en port och ett kort.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

Anledningen till tråden är att jag hittade en väldans blandning av åsikter när det gällde detta. Vissa tyckte prestandan sjönk otroligt mycket med x16 > x8,
och vissa tyckte raka motsatsen. Då jag ska köpa en ny dator inom kort ville jag vara säker att jag spenderade pengarna bra.

Visa signatur

Define C, GTX 1070, R5 1600, ROG STRIX B350-F, AX860
Logitech G533, Logitech G502, QPAD MK 80

Samsung Galaxy S8 Plus, Synology DS218+ 8TB, AKRACING GaMiNGl33t-stol, Lenovo Yoga 710

Permalänk
Entusiast
Skrivet av Tuffingpågatan:

Anledningen till tråden är att jag hittade en väldans blandning av åsikter när det gällde detta. Vissa tyckte prestandan sjönk otroligt mycket med x16 > x8,
och vissa tyckte raka motsatsen. Då jag ska köpa en ny dator inom kort ville jag vara säker att jag spenderade pengarna bra.

Ända riktiga anledningen när man bör undvika en x8 slot skulle vara på ett dubbel-GPU kort (GTX690/Radeon 7990 etc), annars är det absolut ingen märkbar skillnad över huvudtaget.

Visa signatur

PC: AMD Ryzen 9 3900X - Asus STRIX B550-F - G.Skill 3200MHz 4x8GB - AMD RX 5700 XT 8GB - Intel 730 240GB - Intel 530 480GB - AX760 Platinum
Kringutrustning: Dell S2721DGFA - Dell U2515H - Logitech G603 - Ducky Shine3 MX Brown - Sennheiser HD558/Game One

- Feedback - Kontakt - Regler -

Permalänk
Medlem

Lånar tråden lite då jag har ett relaterat problem.

Mitt grafikkort verkar enbart köras i 8x, trots att jag inte använder CF/SLI och det bör således gå i 16x. Dock har jag ett ljudkort inkopplat i min andra PCI-E 16x port. Kan detta påverka? Och hur fixar jag 16x om det nu är så att jag borde ha det?

Har en PCI-E 1x port högst upp bland bussarna, men vill inte använda den då ljudkortet tar i nordbryggan då.

Såhär ser det ut (inte min bild, men infon är exakt samma):

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Hedersmedlem
Skrivet av scienta:

Lånar tråden lite då jag har ett relaterat problem.

Mitt grafikkort verkar enbart köras i 8x, trots att jag inte använder CF/SLI och det bör således gå i 16x. Dock har jag ett ljudkort inkopplat i min andra PCI-E 16x port. Kan detta påverka? Och hur fixar jag 16x om det nu är så att jag borde ha det?

Har en PCI-E 1x port högst upp bland bussarna, men vill inte använda den då ljudkortet tar i nordbryggan då.

Såhär ser det ut (inte min bild, men infon är exakt samma):

http://img829.imageshack.us/img829/2306/secondpc.png

Ta hem senaste GPU-Z och kolla med detta istället då det är gjort för just.... GPU:er.

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
99:e percentilen
Skrivet av scienta:

Lånar tråden lite då jag har ett relaterat problem.

Mitt grafikkort verkar enbart köras i 8x, trots att jag inte använder CF/SLI och det bör således gå i 16x. Dock har jag ett ljudkort inkopplat i min andra PCI-E 16x port. Kan detta påverka? Och hur fixar jag 16x om det nu är så att jag borde ha det?

Har en PCI-E 1x port högst upp bland bussarna, men vill inte använda den då ljudkortet tar i nordbryggan då.

Såhär ser det ut (inte min bild, men infon är exakt samma):

http://img829.imageshack.us/img829/2306/secondpc.png

Jag har samma problem. Mitt 7970 körs i PCIe 2.0 x8 pga att mitt ljudkort tar upp en lane. Och då kan tydligen inte grafikkortet köras i x15, x14 eller x12, utan det måste hoppa ner hela vägen till x8.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Jalle64:

Ta hem senaste GPU-Z och kolla med detta istället då det är gjort för just.... GPU:er.

Och CPU-Z visar information ifrån CPU och... moderkort - vilket är precis vad grafikkortet är anslutet till vad jag vet.

Iaf, här har du den bilden:

Resultatet är föga förvånande.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem
Skrivet av Zuggmate:

Jag har samma problem. Mitt 7970 körs i PCIe 2.0 x8 pga att mitt ljudkort tar upp en lane. Och då kan tydligen inte grafikkortet köras i x15, x14 eller x12, utan det måste hoppa ner hela vägen till x8.

Så du har hittat information om att ljudkortet är anledningen till att grafikkortet bara körs i 8x?

I så fall: tror ni det är skadligt att köra ljudkortet i den översta PCI-E 1x-porten även om kortet tar emot nordbryggan? Tänkte att man kan sätta en tejp-bit på ovansidan av kortet så att det inte leder ström iaf. Frågan är då bara om värmeutvecklingen ifrån nordbryggan är för hög för tejpen och kortet.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
99:e percentilen
Skrivet av scienta:

Så du har hittat information om att ljudkortet är anledningen till att grafikkortet bara körs i 8x?

I så fall: tror ni det är skadligt att köra ljudkortet i den översta PCI-E 1x-porten även om kortet tar emot nordbryggan? Tänkte att man kan sätta en tejp-bit på ovansidan av kortet så att det inte leder ström iaf. Frågan är då bara om värmeutvecklingen ifrån nordbryggan är för hög för tejpen och kortet.

Nej, inte direkt, men jag antar att det är så eftersom chipsetet har 16 banor. Eftersom ljudkortet tar upp en bana kan inte grafikkortet köras i x16, och då måste det tydligen köras i x8, för det verkar inte finnas några mellanlägen. Detta gör att jag inte kommer kunna uppgradera till CF, för då kommer antagligen korten köras i x4/x4.

Jag kan inte ha mitt ljudkort i den översta PCIe-slotten, för grafikkortets backplate (som jag har byggt) är ivägen. Och även om det kunde sitta där blir det för varmt när det sitter precis ovanför grafikkortet.

Jag tror inte att du tjänar något på att sätta ljudkortet där, för chipsetet har ändå bara 16 banor.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Zuggmate:

Nej, inte direkt, men jag antar att det är så eftersom chipsetet har 16 banor. Eftersom ljudkortet tar upp en bana kan inte grafikkortet köras i x16, och då måste det tydligen köras i x8, för det verkar inte finnas några mellanlägen. Detta gör att jag inte kommer kunna uppgradera till CF, för då kommer antagligen korten köras i x4/x4.

Jag kan inte ha mitt ljudkort i den översta PCIe-slotten, för grafikkortets backplate (som jag har byggt) är ivägen. Och även om det kunde sitta där blir det för varmt när det sitter precis ovanför grafikkortet.

Jag tror inte att du tjänar något på att sätta ljudkortet där, för chipsetet har ändå bara 16 banor.

Jag hittade detta på Gigabytes hemsida:

Citat:

(Note 3) For optimum performance, if only one PCI Express graphics card is to be installed, be sure to install it in the PCIEX16 slot. The PCIEX8 slot shares bandwidth with the PCIEX16 slot. When PCIEX8 is populated with a PCI Express graphics card, the PCIEX16 slot will operate at up to x8 mode.

Tror alltså inte att 1x-portarna delar banor med 16x-portarna. Samtidigt bekräftar det, mer eller mindre, att det är p.g.a. ljudkortet som bara 8x är aktiverat.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Medlem

Om man har ett gtx 680 eller likvärdigt kort så är prestanda skillnaden runt 5-10%, lite olika beroende på program. Grafikkort har i alla fall börjat använda en hel del av x16 bandbredden nu.

Angående ljudkort så kör jag mitt ljudkort via en pcie extender från pcie x1 porten så att jag får ut fulla x16 till grafikkortet.

Visa signatur

Speldator: i5 4670k stock | 8GB ram | Asus Z87-plus | Xonar Essence STX | SSD: Intel g2 , Samsung 830 256gb | R9 290 Tri-x | Define R4| Win 8 | Noctua nh-u12p | Qpad Mk-50
marinlik.wordpress.com/ Min blogg för nedbrytning av spel och diverse andra artiklar om NFL
500px.com/niclasbrundell

Permalänk
Medlem
Permalänk
Hedersmedlem
Skrivet av scienta:

Jag hittade detta på Gigabytes hemsida:

Tror alltså inte att 1x-portarna delar banor med 16x-portarna. Samtidigt bekräftar det, mer eller mindre, att det är p.g.a. ljudkortet som bara 8x är aktiverat.

Du borde kunna sätta det i den första porten och då borde det bli full hastighet på graffet. Men har du ingen PCI-e plats nedanför?

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem
Skrivet av Jalle64:

Du borde kunna sätta det i den första porten och då borde det bli full hastighet på graffet. Men har du ingen PCI-e plats nedanför?

Jo, men grafikkortet täcker ju dessvärre den platsen.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Skrivet av flyawaynille:

Om man har ett gtx 680 eller likvärdigt kort så är prestanda skillnaden runt 5-10%, lite olika beroende på program. Grafikkort har i alla fall börjat använda en hel del av x16 bandbredden nu.

Angående ljudkort så kör jag mitt ljudkort via en pcie extender från pcie x1 porten så att jag får ut fulla x16 till grafikkortet.

Jag vet inte om jag håller med, vad jag ser i detta test så är skillnaden mycket liten. De kör här med dubbla GTX680 eller dubbla HD7970 och skillnaden är väldigt liten, när man sedan betänker att de kör med samma klockfrekvens på sin Ivy Bridge processor som sin Sandy Bridgeprocessor (Ivy Bridge har en IPC-fördel på 4%-7%), vilket ger Ivy Bridge systemet en fördel i CPU-tunga spel.

GTX680:
http://www.hardocp.com/article/2012/07/18/pci_express_20_vs_3...

HD7970:
http://www.hardocp.com/article/2012/07/18/pci_express_20_vs_3...

Totalt sett för GTX680 fås ett prestandaövertag på 3,44% i snitt och detta med en snabbare CPU, så totalt sett är skillnaden i de flesta fall försumbar.
Testerna ovan motsvarar ju skillnaden mellan PCI-e 2.0 x8 och PCI-e 2.0 x16 (eftersom PCI-e 3.0 x8 motsvarar PCI-e 2.0 x16) .

Vidare har de testat med ett single grafikkort:

GTX680:
http://www.hardocp.com/article/2012/07/18/pci_express_20_vs_3...
HD7970:
http://www.hardocp.com/article/2012/07/18/pci_express_20_vs_3...

Totalt sett för GTX680 är medelskillnaden en prestandaökning på 2,76%. Betänker man att CPU är snabbare (4-7%) i PCI-e 3.0 fallet och att det är ett enstaka spel som drar upp medelvärdet, så kan man dra slutsatsen att skillnaden med dagens grafikkort är försumbar.

Visa signatur

~Pelle~