Permalänk
Medlem

RTX 4090 med PCIe 3.0

Då detta kan vara en intressant fråga för flera kortköpare så finns det ett par youtube-klipp där man testat just RTX 4090 med PCI express 3.0 vs 4.0.

Det intressanta är att det i princip inte är någon skillnad alls, vilket tyder på att PCIe 3.0 fortfarande är fullt tillräckligt att driva även nästa generations grafikkort.

Länk till testen:
PCIe 3.0 vs 4.0 Intel
PCIe 3.0 vs 4.0 AMD

Permalänk
Medlem

Det känns som att det saknas en djupgående genomgång av systemet. En i9-12900K måste ju ha minst 600-seriens styrkrets, så det vore intressant att veta hur de sett till att kortet verkligen körs i PCIe 3.0?

Jag misstänker även att resultatet kan vara sämre när man använder en GPU som inte har 24 GB VRAM, då behovet av att t.ex. ladda in nya texturer under spelets gång sannolikt är mycket mindre på ett kort med så mycket minne.

I övrigt påminner det om testen som t.ex. LTT har gjort med tidigare generationer, om än med mycket färre detaljer om hur testen utförts.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det känns som att det saknas en djupgående genomgång av systemet. En i9-12900K måste ju ha minst 600-seriens styrkrets, så det vore intressant att veta hur de sett till att kortet verkligen körs i PCIe 3.0?

Jag misstänker även att resultatet kan vara sämre när man använder en GPU som inte har 24 GB VRAM, då behovet av att t.ex. ladda in nya texturer under spelets gång sannolikt är mycket mindre på ett kort med så mycket minne.

I övrigt påminner det om testen som t.ex. LTT har gjort med tidigare generationer, om än med mycket färre detaljer om hur testen utförts.

Det går att tvinga PCIe 3.0 istället för 4.0 i de flesta moderkortens BIOS, vilket troligtvis är så de även gjort i detta test.
Svårt att sia om gällande minne på grafikkortet, men det som talar emot att det skulle spela roll är att skillnaden blir mindre ju högre upplösning som används enligt testen. Skulle det scenariot du beskriver stämma så hade skillnaden ökat ju högre upplösning som används.
Jag tror helt enkelt att det kan vara så enkelt att det inte skiljer mer. Detta kan även vara anledningen till att Nvidia inte valde PCIe 5.0 support.
Vore intressant om Sweclockers kunde utföra ett mer detaljerat test på detta.

Permalänk
Hedersmedlem

Kanske dags för ett nytt sådant här test som gjordes på 3080. Men lite av slutsatserna kring skalning och metoderna kanske kan vara intressant.
https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-308...

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem

Även TechPowerUp har gjort sina vanliga tester på PCIe-skalning för 4090 nu, de visar också på att det är ganska liten skillnad mellan PCIe 3.0 och 4.0. Men även om det är liten skillnad i genomsnitt så kan det vara lite större skillnad i vissa spel, t.ex. Metro Exodus för att bara ta ett exempel.

Permalänk
Medlem
Skrivet av perost:

Metro Exodus för att bara ta ett exempel.

Generellt kan man säga att modernare spel (så mer data som texturer osv som ska skyfflas) tillsammans med hög FPS är det som avgör hur stor skillnaden blir. Just Metro tappar ju rejält i 4k, just pga att man kommer upp i så hög FPS.

FC6 är ett liknande scenario med modärnt spel som når hög FPS även i 4k och tappar en del (4-5%). Syns inte i 1080p och 1440P pga att testet är flaskat av CPU/minne och 4090 får tom något lägre resultat än 3090/3090 Ti.

Men hade 4090 kunnat sträcka på benen i de lägre upplösningarna så hade man tappat rejält där också förmodligen. Synd att W1zzard fuckat upp en hel testomgång genom att använda en 5800X till all sin 4090 testning :/

Permalänk
Medlem

Gissar att de flesta spel är skrivna så att de fyller grafikminnet med så mycket data som möjligt när spelet/leveln laddas och sedan behöver inte så mycket information överföras. Med tanke på att 4090 har 24 GB VRAM kan man nog oftast få plats med alla texturer och geometri som behövs för hela spelet.

Visa signatur

Ryzen 9 5950X, Asus Prime X370 Pro, 32 GB DDR4 3600, RTX 3060 Ti

Permalänk
Skrivet av wibbe44:

Då detta kan vara en intressant fråga för flera kortköpare så finns det ett par youtube-klipp där man testat just RTX 4090 med PCI express 3.0 vs 4.0.

Det intressanta är att det i princip inte är någon skillnad alls, vilket tyder på att PCIe 3.0 fortfarande är fullt tillräckligt att driva även nästa generations grafikkort.

Länk till testen:
PCIe 3.0 vs 4.0 Intel
PCIe 3.0 vs 4.0 AMD

Även Techpowerup har testat RTX 4090 med obetydlig skillnad.
Det blev tydligare effekt med ett lågbudgetkort som Radeon RX 6400!

Permalänk
Medlem

För den som inte orkar läsa summeringen på TechPowerup:

"Averaged across all tests, at the 4K Ultra HD resolution, the RTX 4090 loses 2% performance with Gen 3 x16. Even in lower, CPU-limited resolutions, the performance loss is barely 2-3 percent. When looking at individual game tests, there is only one test that we can put our finger on, where the performance loss is significant, and that's "Metro: Exodus," which sees its framerate drop by a significant 15% at 4K UHD, with similar performance losses seen at lower resolutions.

While in the past the rule has always been "lower resolution = higher FPS = higher performance loss from lower PCIe bandwidth", in today's dataset we find a couple of games that behave differently. For example, Elden Ring, Far Cry 6 and Guardians of the Galaxy clearly show a bigger loss in performance at higher resolution. It seems that these games, which are all fairly new and use modern DX12 engines, do something differently. I suspect that while the other games transfer a relatively constant amount of data for each frame, and thus get more limited at higher FPS, these titles transfer data that's based on the native render resolution. So if you go from 1080p (8 MB per frame), to 1440p (14 MB per frame) and 4K (32 MB per frame), the increase in per-frame traffic outgrows the traffic reduction due to the lower FPS rate."

Detta betyder eventuellt att modernare spel troligen kommer påverkas än mindre av skillnaden mellan gen 3 och gen 4 än äldre spel.

Permalänk
Medlem
Skrivet av Greyguy1948:

Även Techpowerup har testat RTX 4090 med obetydlig skillnad.
Det blev tydligare effekt med ett lågbudgetkort som Radeon RX 6400!

Betydligt mindre minnesmängd, alltså större behov av PCIe-bandbredd för att t.ex. ladda texturer.

Permalänk
Medlem

Fast det här är väl mest en akademisk övning för oss nördar i verkligheten så är det väl knappt någon som kommer köra en 4090 i ett system som inte har version 4-5. Personer som kör sådana kort har ju så att säga en fetare budget att röra sig med...

Visa signatur

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Permalänk
Medlem
Skrivet av Joakim Ågren:

Fast det här är väl mest en akademisk övning för oss nördar i verkligheten så är det väl knappt någon som kommer köra en 4090 i ett system som inte har version 4-5. Personer som kör sådana kort har ju så att säga en fetare budget att röra sig med...

Det finns gott om folk som har mer pengar än förstånd.

Den som byggt en ny dator 2019 kan ha t.ex. en i9-9900K på ett Z390-moderkort, och då är de fast på PCIe 3.0 fortfarande. Dyker upp folk i var och varannan tråd som säger att ingen behöver en bättre dator… 💁‍♂️

Tyvärr är det oerhört svårt att nå fram med argument som en snabb CPU på en föråldrad plattform är en klen tröst.

Permalänk
Hedersmedlem
Skrivet av Joakim Ågren:

Fast det här är väl mest en akademisk övning för oss nördar i verkligheten så är det väl knappt någon som kommer köra en 4090 i ett system som inte har version 4-5. Personer som kör sådana kort har ju så att säga en fetare budget att röra sig med...

Skulle nog säga att det finns gott om folk som inte vill slänga ut pengar i onödan utan spendera dem där det gör rejält avtryck.
Kör man t.ex. 5800X3D på X370/B450/X470 osv. så är det ju intressant att se, eller om man i andra omständigheter helt enkelt inte byter plattform/CPU oftare än det behövs för att undvika flaskning.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Hedersmedlem

Nu har Gamers Nexus släppt ett test på ämnet.
https://www.youtube.com/watch?v=v2SuyiHs-O4
Verkar vara något knasigt med Total War i specifikt 1080p vilket de går in på, men i övrigt mest någon enstaka procent diff.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.