PCIe 3.0 x16 till PCIe 4.0 x8?

Permalänk
Hedersmedlem

PCIe 3.0 x16 till PCIe 4.0 x8?

Hej!

Som bekant har AMD nyligen släppt sitt nyaste grafikkort i "mellanklassen", RX 6600 XT. Det grafikkortet har släppts med endast 8 st PCIe 4.0-banor. Det innebär att ett sådant kort kan tappa rejält med prestanda i ett PCIe 3.0-system. TechSpot har uppmätt en skillnad på 25% i Doom Eternal. (Detta är ju så klart ett extremfall, mer typiskt är en skillnad på 0-5%).

Detta känns onödigt. AMD hade gott och väl kunnat konstruera sitt grafikkort med PCIe 4.0 x16, men har valt att inte göra det, sannolikt för att kunna motivera via marknadsföring att PCIe 4.0, som de var tidigt ute med, är relevant för gamers.

Samtidigt sitter många på äldre men fortfarande ganska nya system, t.ex. med Intels 10e generation, eller på B450/X470 från AMD.

Men, eftersom att bandbredden i PCIe 3.0 x16 är tillräcklig, bara att det inte går att använda den eftersom RX 6600 XT inte har så många banor, borde det inte gå att lösa med någon slags "lane splitter"? Jag tänker mig en lösning som ansluter med PCIe 3.0 x16 till moderkortet och sedan med hjälp av aktiv elektronik buntar ihop bandbredden till PCIe 4.0 x8?

Hade ju varit coolt om någon tillverkade en aktiv riser-kabel med denna funktion. Ännu mer logiskt om det implementeras på moderkortet eller på grafikkortet i sig, men det lär ju ingen partnertillverkare med självbevarelsedrift att göra.

Min fråga är: är detta teoretiskt möjligt att göra, eller går det helt enkelt inte av någon teknisk anledning beroende på hur PCIe funkar?

(Sedan kan det ju blir så att det inte finns en marknad för den här sortens produkt. Och att det kostar mer än det smakar. Och att de som sitter med PCIe 3.0-system kan välja bort den här sortens produkter som en praktiskt lösning. Men nu handlar detta mer om en teoretisk frågeställning än om en praktisk sådan. )

Permalänk
Keeper of the Bamse

Känns det inte som att målgruppen för det här kortet sitter på 60hz 1080p-skärmar? Då kanske man klarar sig med 182 fps i Doom Eternal på högsta inställningarna?

Resten av spelen är det ju ingen skillnad på?

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Hedersmedlem
Skrivet av Printscreen:

Känns det inte som att målgruppen för det här kortet sitter på 60hz 1080p-skärmar? Då kanske man klarar sig med 182 fps i Doom Eternal på högsta inställningarna?

Resten av spelen är det ju ingen skillnad på?

Målgruppen för RX 6600 XT enligt AMD själva är 1080p high refresh, inte 1080p60.

Är man bara ute efter 1080p60 så är RX 6600 XT extremt overkill. Det är snarare något i klass med ett RX 5500 XT eller ett GTX 1650 Super, eller äldre motsvarigheter, man ska ha då.

Mot den bakgrunden så kan skillnaden i Doom Eternal vara relevant. Sedan kan ju samma skillnad finnas i andra spel också, Techspot har ju inte direkt testat exakt alla spel som existerar. Finns det ett, finns det säkert flera.

Permalänk
Medlem
Skrivet av pv2b:

Men, eftersom att bandbredden i PCIe 3.0 x16 är tillräcklig, bara att det inte går att använda den eftersom RX 6600 XT inte har så många banor, borde det inte gå att lösa med någon slags "lane splitter"? Jag tänker mig en lösning som ansluter med PCIe 3.0 x16 till moderkortet och sedan med hjälp av aktiv elektronik buntar ihop bandbredden till PCIe 4.0 x8?

Hade ju varit coolt om någon tillverkade en aktiv riser-kabel med denna funktion. Ännu mer logiskt om det implementeras på moderkortet eller på grafikkortet i sig, men det lär ju ingen partnertillverkare med självbevarelsedrift att göra.

Intressant tanke, och jag skulle väl gissa det går att göra i teorin åtminstone!
Men jag gissar också det är lite komplicerat och relativt dyrt, och lite för få använder riserkabel för att det ska finnas en marknad för en riser-konverter... och som du säger är det nog för dyrt och udda för att implementeras på moderkortet.
Så tror inte man kommer se det mer än möjligen som en udda dyr nischprodukt.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk

märkligt koncept minst sagt.

man kan bara speculera i varför de inte valde att använda en pci-e x16 gen 3 kontrollchip istället för ett x8 gen 4 chip väldigt tveksam till att kostndasskillnaden är astronomisk.
men luktar som att de hoppas kunna sälja nya moderkort ihop med sitt grafikkort och tjäna mer pengar den vägen istället.

tippar att kortet säljs med väldigt liten vinstmarginal och med rådande marknad med desperata kunder som inte vill vänta 6+ månader på ett överprisat high eller top end grafikkort köper i princip vad som helst och kan de då få kunden att köpa ett moderkort också för det gamla kommer strypa kortet så ger det mer vinstmarginal i ett ev sålt moderkort också.

samt att den snåla bandbredden på gen3 x8 i princip dödar överklockning på korten då bandbredden inte äns räcker till i stock hastigheterna på äldre system vilket även motiverar köpare att även köpa till ett nyare moderkort och kanske även cpu om den gamla ej är kompatibel med moderkort som har pci-e gen4.

min erfarenhet är iaf att många midrange kort går att klocka upp och få prestanda iaf nära deras ej överklockade top range kort i samma generation många gånger för avsevärt många tusenlappar mindre.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Hedersmedlem
Skrivet av Roger W:

Intressant tanke, och jag skulle väl gissa det går att göra i teorin åtminstone!
Men jag gissar också det är lite komplicerat och relativt dyrt, och lite för få använder riserkabel för att det ska finnas en marknad för en riser-konverter... och som du säger är det nog för dyrt och udda för att implementeras på moderkortet.
Så tror inte man kommer se det mer än möjligen som en udda dyr nischprodukt.

Nä precis, det här är inte direkt en produkt som jag tror är kommersiellt gångbar. Det jag var mera intresserad av var om det är något jag missar rent teoretiskt som gör att det inte skulle gå.

Många chassin har ju stöd för vertikal GPU-montering även om de flesta inte använder det. Oftast är det rent estetiskt, i det här fallet skulle det ha en praktisk betydelse.

Permalänk
Hedersmedlem
Skrivet av Rouge of Darkness:

märkligt koncept minst sagt.

man kan bara speculera i varför de inte valde att använda en pci-e x16 gen 3 kontrollchip istället för ett x8 gen 4 chip väldigt tveksam till att kostndasskillnaden är astronomisk.
men luktar som att de hoppas kunna sälja nya moderkort ihop med sitt grafikkort och tjäna mer pengar den vägen istället.

tippar att kortet säljs med väldigt liten vinstmarginal och med rådande marknad med desperata kunder som inte vill vänta 6+ månader på ett överprisat high eller top end grafikkort köper i princip vad som helst och kan de då få kunden att köpa ett moderkort också för det gamla kommer strypa kortet så ger det mer vinstmarginal i ett ev sålt moderkort också.

samt att den snåla bandbredden på gen3 x8 i princip dödar överklockning på korten då bandbredden inte äns räcker till i stock hastigheterna på äldre system vilket även motiverar köpare att även köpa till ett nyare moderkort och kanske även cpu om den gamla ej är kompatibel med moderkort som har pci-e gen4.

min erfarenhet är iaf att många midrange kort går att klocka upp och få prestanda iaf nära deras ej överklockade top range kort i samma generation många gånger för avsevärt många tusenlappar mindre.

Det är inte direkt ett helt nytt koncept, RX 5500 XT hade också bara PCIe 4.0 x8 om jag minns rätt.

Om jag minns rätt har vissa av AMD:s APU:er har bara stöd för PCIe 4.0 x8 också, att köra PCIe 3.0 x16 hade gjort att dessa hade funkat mindre optimalt.

Överklockning tror jag inte direkt är vinkeln här, det finns inte särskilt mycket att vinna på att överklocka hyfsat moderna GPU:er, absolut inte nog för att nå från en prestandatier till en annan.